Tesla Autopilot bemærker ikke objekter i børnestørrelse i test

billede

Den seneste version af Tesla's Full Self Driving (FSD) Autopilot beta har lidt af et knæk: det ser ikke ud til at bemærke objekter i børnestørrelse på sin vej, ifølge en kampagnegruppe.

I test udført af The Dawn Project med en Tesla Model 3 udstyret med FSD version 10.12.2 (den seneste, udgivet 1. juni), fik køretøjet 120 yards (110 meter) lige spor mellem to rækker kegler med en børne- størrelse mannequin i slutningen.

Gruppen siger, at "testkørerens hænder aldrig var på rattet." Afgørende siger Tesla, at Autopilot ikke er et fuldt autonomt system og kun giver assistance og fartpilotfunktionalitet til føreren. Du skal holde hænderne på rattet og være i stand til at tage over når som helst.

Rejser man med cirka 25 mph (ca. 40 km/t), er den Tesla ramte dummyen hver gang

Af resultaterne sagde Dawn Project, at 100 yards afstand er mere end nok til, at en menneskelig chauffør kan lægge mærke til et barn, og siger: "Teslas Full Self-Driving-software fejler denne enkle og sikkerhedskritiske test gentagne gange, med potentielt dødelige resultater."

"Elon Musk siger, at Teslas fuld selvkørende software er 'fantastisk'. Det er ikke... Dette er den værste kommercielle software, jeg nogensinde har set,” sagde projektets grundlægger, Dan O'Dowd, i en video, han tweetede ud sammen med resultaterne.

O'Dowd, som også grundlagde Green Hills Software i 1982 og går ind for softwaresikkerhed, har været modstander af Tesla i nogen tid og har endda lanceret et bud på det amerikanske senat i Californien, der centreret om politiets Tesla som en måde at tale om bredere cybersikkerhedsspørgsmål. O'Dowds valg i Senatet sluttede i juni, da han tabte det demokratiske partis primærvalg. 

Dawn Projects erklærede mål er "at gøre computere sikre for menneskeheden." Tesla FSD er projektets første kampagne. 

Lille prøvestørrelse

Det er værd at bemærke, at The Dawn Projects test af FSD 10.12.2, som fandt sted den 21. juni i Rosamond, CA, kun bestod af tre kørsler. Det er en lille stikprøvestørrelse, men i betragtning af andre autopilottests og statistikker er det ikke uventet. 

Fejl i Tesla Autopilot har blevet nævnt som angiveligt at være en faktor in flere, fatal ulykker med begge chauffører , fodgængere i årenes løb. Sidste år Tesla rullede tilbage FSD-softwareudgivelser, efter at softwarefejl blev opdaget, der forårsagede problemer med venstresving, noget Tesla er arbejder stadig på

I begyndelsen af ​​juni, US National Highway Traffic Safety Administration opgraderet en sonde af Tesla Autopilot, efter at den fandt grunde til at undersøge, om "Autopilot og tilhørende Tesla-systemer kan forværre menneskelige faktorer eller adfærdsmæssige sikkerhedsrisici." Efterforskningen er i gang.

En uge efter at have annonceret sin sonde sagde NHTSA, at Tesla Autopilot (fungerer på niveau 2, ikke FSD) var involveret i 270 af de 394 førerassistentulykker - omkring 70 procent - blev det katalogiseret som en del af en undersøgelse af sikkerheden ved førerassistentteknologi.

Senest indgav Californiens Department of Motor Vehicles klager mod Tesla med påstand om det urigtige påstande køretøjerne kan køre autonomt. Hvis Tesla ikke reagerer på DMV's krav inden udgangen af ​​denne uge, vil sagen blive afgjort som standard og kan føre til, at bilproducenten mister sin licens til at sælge biler i Californien.

Dawn Project sagde, at NHTSA har handlet hurtigt for at udstede tilbagekaldelser af Tesla-funktioner, og pegede på Teslas NHTSA-ansporede tilbagekaldelser af FSD-kode, der gjorde det muligt for Teslaer at rulle forbi stopskilte og deaktivering af Tesla Boombox

Dawn Project siger, at dets forskning "er langt mere seriøs og presserende." ®

Tidsstempel:

Mere fra Registret