Tesla Autopilot klarer ikke å legge merke til objekter i barnestørrelse under testing

bilde

Den siste versjonen av Teslas Full Self Driving (FSD) Autopilot-beta har litt av en kink: det ser ikke ut til å legge merke til objekter i barnestørrelse i sin vei, ifølge en kampanjegruppe.

I tester utført av The Dawn Project med en Tesla Model 3 utstyrt med FSD-versjon 10.12.2 (den siste, utgitt 1. juni), ble kjøretøyet gitt 120 yards (110 meter) rett spor mellom to rader med kjegler med en barne- størrelse mannequin på slutten.

Gruppen sier at "testførerens hender aldri var på rattet." Avgjørende sier Tesla at Autopilot ikke er et fullstendig autonomt system og kun gir assistanse og cruisekontrollfunksjonalitet til sjåføren. Du skal holde hendene på rattet og kunne ta over når som helst.

Reiser du i omtrent 25 km/t (ca. 40 km/t), er den Tesla traff dummyen hver gang

Av resultatene sa Dawn Project at 100 yards avstand er mer enn nok for en menneskelig sjåfør til å legge merke til et barn, og sa: "Teslas Full Self-Driving-programvare mislykkes denne enkle og sikkerhetskritiske testen gjentatte ganger, med potensielt dødelige resultater."

"Elon Musk sier at Teslas Full Self-Driving-programvare er "utrolig." Det er ikke… Dette er den verste kommersielle programvaren jeg noen gang har sett,” sa prosjektets grunnlegger, Dan O'Dowd, i en video han tvitret ut sammen med resultatene.

O'Dowd, som også grunnla Green Hills Software i 1982 og talsmann for programvaresikkerhet, har vært en motstander av Tesla i noen tid, og lanserte til og med et bud for det amerikanske senatet i California som sentrert på politiets Tesla som en måte å snakke om bredere cybersikkerhetsspørsmål. O'Dowds bud i Senatet ble avsluttet i juni da han tapte det demokratiske partiets primærvalg. 

Dawn Projects uttalte mål er "å gjøre datamaskiner trygge for menneskeheten." Tesla FSD er prosjektets første kampanje. 

Liten prøvestørrelse

Det er verdt å merke seg at The Dawn Projects tester av FSD 10.12.2, som fant sted 21. juni i Rosamond, CA, bare besto av tre kjøringer. Det er en liten prøvestørrelse, men med tanke på andre autopilottester og statistikk er det ikke uventet. 

Feil i Tesla Autopilot har blitt sitert som angivelig en faktor in flere, fatal ulykker med begge sjåførene og fotgjengere i løpet av årene. Tesla i fjor Rullet tilbake FSD-programvareutgivelser etter at det ble oppdaget programvarefeil som forårsaket problemer med venstresvinger, noe Tesla er jobber fortsatt med

I begynnelsen av juni, US National Highway Traffic Safety Administration oppgradert en sonde av Tesla Autopilot etter at den fant grunner til å se på om "Autopilot og tilhørende Tesla-systemer kan forverre menneskelige faktorer eller atferdsmessige sikkerhetsrisikoer." Etterforskningen pågår.

En uke etter å ha kunngjort sin sonde, sa NHTSA at Tesla Autopilot (som opererer på nivå 2, ikke FSD) var involvert i 270 av de 394 førerassistentulykkene – rundt 70 prosent – ​​ble katalogisert som en del av en undersøkelse av sikkerheten til førerassistentteknologi.

Senest sendte California Department of Motor Vehicles inn klager mot Tesla med påstand om det feilfremstilte påstander kjøretøyene kan kjøre selvstendig. Hvis Tesla ikke svarer på DMVs krav innen utgangen av denne uken, vil saken bli avgjort som standard og kan føre til at bilprodusenten mister lisensen til å selge biler i California.

Dawn Project sa at NHTSA har handlet raskt for å utstede tilbakekallinger på Tesla-funksjoner, og peker på Teslas NHTSA-ansporede tilbakekallinger av FSD-kode som tillot Teslaer å rulle forbi stoppskilt og deaktivering av Tesla Boombox

Dawn Project sier forskningen deres "er langt mer seriøs og presserende." ®

Tidstempel:

Mer fra Registeret