Tesla Autopilot ei märka testimisel lapse suurusega objekte

pilt

Tesla täieliku isejuhtimise (FSD) autopiloodi beetaversiooni uusimal versioonil on kampaaniarühma sõnul veidi nihke: see ei paista oma teel märkavat lapsesuuruses objekte.

The Dawn Projecti katsetes, kasutades Tesla Model 3, mis oli varustatud FSD versiooniga 10.12.2 (viimane, välja antud 1. juunil), anti sõidukile 120 jardi (110 meetrit) sirget rada kahe koonuserea vahel koos lapsega. suuruses mannekeen lõpus.

Rühm ütleb, et "testisõitja käed ei olnud kunagi roolis". Oluline on see, et Tesla ütleb, et Autopilot ei ole täielikult autonoomne süsteem ja pakub juhile ainult abi ja püsikiiruse hoidja funktsioone. Peate hoidma oma käed roolil ja suutma igal ajal üle võtta.

Sõites kiirusega umbes 25 km/h (umbes 40 km/h), Tesla tabas iga kord mannekeeni

Dawn Project ütles tulemuste kohta, et 100 jardi vahemaa on enam kui piisav, et inimjuht last märkaks, öeldes: "Tesla täielik isejuhtimise tarkvara ebaõnnestub selles lihtsas ja ohutuskriitilises testis korduvalt ning tulemuseks võivad olla surmavad tulemused."

"Elon Musk ütleb, et Tesla täielik isejuhtimise tarkvara on" hämmastav. See ei ole… See on halvim kommertstarkvara, mida ma kunagi näinud olen,“ ütles projekti asutaja Dan O'Dowd videos, mille ta koos tulemustega Twitteris avaldas.

O'Dowd, kes asutas 1982. aastal ka ettevõtte Green Hills Software ja propageerib tarkvara turvalisust, on olnud Tesla vastane juba mõnda aega, isegi esitades Californias USA senatisse kandideerimise. keskendub Tesla politseitööle kui viis rääkida laiematest küberjulgeoleku probleemidest. O'Dowdi kandideerimine senati lõppes juunis, kui ta kaotas Demokraatliku Partei eelvalimistel. 

Dawn Projecti eesmärk on "muuta arvutid inimkonna jaoks ohutuks". Tesla FSD on projekti esimene kampaania. 

Väike valimi suurus

Väärib märkimist, et The Dawn Projecti FSD 10.12.2 testid, mis toimusid 21. juunil Californias Rosamondis, koosnesid vaid kolmest jooksust. See on väike valim, kuid arvestades teisi Autopiloodi teste ja statistikat, pole see ootamatu. 

Tesla Autopiloodis on tõrkeid väidetavalt tegurina in mitu, surmav õnnetusi, milles osalesid mõlemad juhid ja jalakäijad aastate jooksul. Eelmisel aastal Tesla tagasi veeretatud FSD tarkvara vabastatakse pärast seda, kui avastati tarkvaraviga, mis põhjustasid probleeme vasakpöördega, mida Tesla on veel töötab

Juuni alguses USA riiklik maanteede liiklusohutuse administratsioon uuendas Tesla sondi Pärast seda, kui autopiloot leidis põhjust uurida, kas "Autopiloot ja sellega seotud Tesla süsteemid võivad süvendada inimfaktoreid või käitumuslikke ohutusriske." Uurimine käib.

Nädal pärast sondi väljakuulutamist ütles NHTSA, et Tesla Autopilot (töötab 2. tasemel, mitte FSD) oli seotud 270 juhiabiga juhtunud õnnetusest 394 – umbes 70 protsenti – kaustas juhiabitehnoloogia ohutuse uurimise osana.

Hiljuti esitas California mootorsõidukite osakond Tesla vastu kaebusi selles väites valesti esitatud väited sõidukid saavad sõita iseseisvalt. Kui Tesla ei vasta DMV väidetele selle nädala lõpuks, lahendatakse juhtum vaikimisi ja see võib viia selleni, et autotootja kaotab Californias autode müügilitsentsi.

The Dawn Project ütles, et NHTSA on Tesla funktsioonide tagasikutsumise väljastamiseks kiiresti tegutsenud, osutades Tesla NHTSA poolt ajendatud FSD-koodi tagasikutsumisele, mis võimaldas Teslal peatusmärkidest mööda veerema ja Tesla Boomboxi keelamine

Dawn Project ütleb, et selle uurimine "on palju tõsisem ja kiireloomulisem". ®

Ajatempel:

Veel alates Register