Tesla Autopilot misslyckas med att lägga märke till föremål i barnstorlek under testning

bild

Den senaste versionen av Teslas Full Self Driving (FSD) Autopilot beta har lite av en kink: den verkar inte lägga märke till föremål i barnstorlek i sin väg, enligt en kampanjgrupp.

I tester utförda av The Dawn Project med en Tesla Model 3 utrustad med FSD-version 10.12.2 (den senaste, släpptes 1 juni), fick fordonet 120 yards (110 meter) rakt spår mellan två rader av koner med en barn- stor skyltdocka i slutet.

Gruppen säger att "testförarens händer aldrig var på ratten." Avgörande är att Tesla säger att autopilot inte är ett helt autonomt system och endast ger assistans och farthållarefunktionalitet till föraren. Du ska hålla händerna på ratten och kunna ta över när som helst.

När du reser i cirka 25 mph (cirka 40 km/h), är den Tesla träffade dummyn varje gång

Av resultaten sa Dawn Project att 100 yards avstånd är mer än tillräckligt för att en mänsklig förare ska lägga märke till ett barn, och säger: "Teslas Full Self-Driving-mjukvara misslyckas med detta enkla och säkerhetskritiska test upprepade gånger, med potentiellt dödliga resultat."

"Elon Musk säger att Teslas Full Self-Driving programvara är "fantastisk." Det är inte... Det här är den värsta kommersiella mjukvaran jag någonsin sett”, sa projektets grundare, Dan O'Dowd, i en video som han twittrade ut tillsammans med resultaten.

O'Dowd, som också grundade Green Hills Software 1982 och förespråkar mjukvarusäkerhet, har varit motståndare till Tesla under en tid och har till och med lanserat ett bud på den amerikanska senaten i Kalifornien som centrerad på att polisa Tesla som ett sätt att prata om bredare cybersäkerhetsfrågor. O'Dowds val i senaten avslutades i juni när han förlorade det demokratiska partiets primärval. 

Dawn Projects uttalade mål är "att göra datorer säkra för mänskligheten." Tesla FSD är projektets första kampanj. 

Liten provstorlek

Det är värt att notera att The Dawn Projects tester av FSD 10.12.2, som ägde rum den 21 juni i Rosamond, CA, bara bestod av tre körningar. Det är ett litet urval, men med tanke på andra autopilottester och statistik är det inte oväntat. 

Fel i Tesla Autopilot har har angetts som påstås vara en faktor in flera, dödlig olyckor med båda förarna och gående över åren. Förra året Tesla rullade tillbaka FSD-programvarusläpp efter att programvarubuggar upptäckts som orsakade problem med vänstersvängar, något som Tesla är jobbar fortfarande på

I början av juni, US National Highway Traffic Safety Administration uppgraderat en sond av Tesla Autopilot efter att den hittat skäl att undersöka om "Autopilot och tillhörande Tesla-system kan förvärra mänskliga faktorer eller beteendesäkerhetsrisker." Utredningen pågår.

En vecka efter tillkännagivandet av sin sond sa NHTSA att Tesla Autopilot (fungerar på nivå 2, inte FSD) var involverad i 270 av de 394 förarassistansolyckorna – cirka 70 procent – ​​katalogiserades som en del av en utredning om säkerheten för förarassistansteknik.

Senast lämnade California Department of Motor Vehicles in klagomål mot Tesla och påstod det felaktigt framställda påståenden fordonen kan köra självständigt. Om Tesla inte svarar på DMV:s påståenden i slutet av denna vecka kommer ärendet att avgöras som standard och kan leda till att biltillverkaren förlorar sin licens att sälja bilar i Kalifornien.

The Dawn Project sa att NHTSA har agerat snabbt för att utfärda återkallelser av Tesla-funktioner, och pekar på Teslas NHTSA-sporrade återkallelser av FSD-kod som gjorde det möjligt för Teslas att rulla förbi stoppskyltar och inaktivering av Tesla Boombox

The Dawn Project säger att dess forskning "är mycket mer seriös och brådskande." ®

Tidsstämpel:

Mer från Registret