Tesla Autopilot ei huomaa lapsen kokoisia esineitä testauksessa

kuva

Teslan Full Self Driving (FSD) Autopilotin betaversion uusimmassa versiossa on hieman mutka: se ei näytä huomaavan lapsenkokoisia esineitä tiellään, kampanjaryhmän mukaan.

The Dawn Projectin suorittamissa testeissä Tesla Model 3:lla, joka oli varustettu FSD-versiolla 10.12.2 (viimeisin, julkaistu 1. kesäkuuta), ajoneuvolle annettiin 120 jaardia (110 metriä) suoraa rataa kahden kartiorivin väliin lapsen kanssa. lopussa kokoinen mannekiini.

Ryhmä sanoo, että "koekuljettajan kädet eivät koskaan olleet ratissa". Ratkaisevaa on, että Tesla sanoo, että Autopilot ei ole täysin itsenäinen järjestelmä ja tarjoaa vain apua ja vakionopeussäädintoimintoja kuljettajalle. Sinun pitäisi pitää kädet ratissa ja pystyä hallitsemaan milloin tahansa.

Ajettaessa noin 25 mph (noin 40 km/h) nopeudella Tesla osui nuken joka kerta

Tuloksista Dawn Project sanoi, että 100 jaardin etäisyys on enemmän kuin riittävä ihmiskuljettajalle lapsen havaitsemiseen, ja totesi: "Teslan Full Self-Driving -ohjelmisto epäonnistuu tässä yksinkertaisessa ja turvallisuuden kannalta kriittisessä testissä toistuvasti, ja tulokset voivat olla tappavia."

"Elon Musk sanoo, että Teslan Full Self-Driving -ohjelmisto on" hämmästyttävä. Se ei ole… Tämä on pahin kaupallinen ohjelmisto, jonka olen koskaan nähnyt”, sanoi projektin perustaja Dan O'Dowd videossa, jonka hän twiittasi tulosten kanssa.

O'Dowd, joka perusti myös Green Hills Softwaren vuonna 1982 ja ajaa ohjelmistojen turvallisuutta, on vastustanut Teslaa jo jonkin aikaa, ja hän on jopa tehnyt tarjouksen Yhdysvaltain senaattiin Kaliforniassa. keskitytään Teslan valvontaan tapana puhua laajemmista kyberturvallisuuskysymyksistä. O'Dowdin senaattihakemus päättyi kesäkuussa, kun hän hävisi demokraattisen puolueen esivaalit. 

Dawn Projectin tavoite on "tehdä tietokoneista turvallisia ihmiskunnalle". Tesla FSD on projektin ensimmäinen kampanja. 

Pieni näytekoko

On syytä huomata, että The Dawn Projectin FSD 10.12.2 -testit, jotka suoritettiin 21. kesäkuuta Rosamondissa, Kaliforniassa, koostuivat vain kolmesta ajosta. Tämä on pieni otoskoko, mutta ottaen huomioon muut Autopilotin testit ja tilastot, se ei ole odottamatonta. 

Teslan Autopilotissa on toimintahäiriöitä väitetty tekijäksi in useat, kohtalokas onnettomuuksia, joissa on osallisena molemmat kuljettajat ja jalankulkijat vuosien saatossa. Viime vuonna Tesla taaksepäin FSD-ohjelmiston julkaisut sen jälkeen, kun havaittiin ohjelmistovirheitä, jotka aiheuttivat ongelmia vasemman käännöksen kanssa, mitä Tesla on työskentelee edelleen

Kesäkuun alussa Yhdysvaltain National Highway Traffic Safety Administration päivitti Teslan luotain Autopilotti löysi syitä tutkia, voivatko Autopilot ja siihen liittyvät Tesla-järjestelmät pahentaa inhimillisiä tekijöitä tai käyttäytymiseen liittyviä turvallisuusriskejä. Tutkinta on kesken.

Viikko sen ilmoittamisen jälkeen NHTSA sanoi, että Tesla Autopilot (toimii tasolla 2, ei FSD) oli mukana 270 394 kuljettajaa avustavan onnettomuuden onnettomuudesta – noin 70 prosenttia – se luetteloi osana kuljettajaa avustavan tekniikan turvallisuutta koskevaa tutkimusta.

Viimeksi Kalifornian moottoriajoneuvojen ministeriö teki Teslaa vastaan ​​valituksen väittäen sitä vääristellyt väitteet ajoneuvot voivat ajaa itsenäisesti. Jos Tesla ei vastaa DMV:n vaatimuksiin tämän viikon loppuun mennessä, tapaus ratkaistaan ​​oletusarvoisesti ja saattaa johtaa siihen, että autonvalmistaja menettää lisenssinsä myydä autoja Kaliforniassa.

Dawn Project sanoi, että NHTSA on toiminut nopeasti palauttaakseen Teslan ominaisuuksia, mikä viittaa Teslan NHTSA:n kannustamiin FSD-koodin takaisinkutsuihin, jotka mahdollistivat Teslan kierrä stop-merkkien ohi ja Tesla Boomboxin poistaminen käytöstä

Dawn Project sanoo, että sen tutkimus on "paljon vakavampi ja kiireellisempi". ®

Aikaleima:

Lisää aiheesta Rekisteri