Tesla Autopilot merkt tijdens het testen geen objecten op kinderformaat op

beeld

De nieuwste versie van Tesla's Full Self Driving (FSD) Autopilot-bèta heeft een beetje een knik: volgens een campagnegroep lijkt hij geen objecten op kinderformaat op te merken.

In tests uitgevoerd door The Dawn Project met een Tesla Model 3 uitgerust met FSD-versie 10.12.2 (de laatste, uitgebracht op 1 juni), kreeg het voertuig 120 yards (110 meter) recht spoor tussen twee rijen kegels met een kind- grote mannequin aan het einde.

De groep zegt dat "de handen van de testrijder nooit aan het stuur zaten". Cruciaal is dat Tesla zegt dat Autopilot geen volledig autonoom systeem is en alleen assistentie en cruisecontrol-functionaliteit biedt aan de bestuurder. Het is de bedoeling dat je je handen aan het stuur houdt en het op elk moment kunt overnemen.

Met een snelheid van ongeveer 25 mph (ongeveer 40 km / u), de Tesla raakte elke keer de dummy

Van de resultaten zei het Dawn Project dat 100 meter afstand meer dan genoeg is voor een menselijke bestuurder om een ​​kind op te merken, en verklaarde: "Tesla's Full Self-Driving-software faalt herhaaldelijk in deze eenvoudige en veiligheidskritieke test, met mogelijk dodelijke resultaten."

"Elon Musk zegt dat Tesla's volledige zelfrijdende software 'geweldig' is. Het is niet... Dit is de slechtste commerciële software die ik ooit heb gezien', zei de oprichter van het project, Dan O'Dowd, in een video die hij samen met de resultaten tweette.

O'Dowd, die in 1982 ook Green Hills Software oprichtte en pleit voor softwareveiligheid, is al enige tijd een tegenstander van Tesla en lanceerde zelfs een bod op de Amerikaanse Senaat in Californië dat gericht op politietoezicht Tesla als een manier om over bredere cyberbeveiligingskwesties te praten. Het bod van O'Dowd in de Senaat eindigde in juni toen hij de voorverkiezing van de Democratische partij verloor. 

Het verklaarde doel van het Dawn Project is "computers veilig maken voor de mensheid." Tesla FSD is de eerste campagne van het project. 

Kleine steekproefomvang

Het is vermeldenswaard dat de tests van FSD 10.12.2 van The Dawn Project, die op 21 juni in Rosamond, CA plaatsvonden, slechts uit drie runs bestonden. Dat is een kleine steekproefomvang, maar gezien andere Autopilot-tests en statistieken is het niet onverwacht. 

Storingen in Tesla Autopilot hebben genoemd als naar verluidt een factor in verscheidene, fataal ongevallen waarbij beide bestuurders betrokken zijn en voetgangers door de jaren heen. Vorig jaar Tesla terug gerold FSD-softwarereleases nadat softwarefouten werden ontdekt die problemen veroorzaakten met bochten naar links, iets wat Tesla is nog steeds bezig met

Begin juni heeft de Amerikaanse National Highway Traffic Safety Administration een sonde van Tesla geüpgraded Autopilot nadat het redenen had gevonden om te onderzoeken of "Autopilot en bijbehorende Tesla-systemen menselijke factoren of gedragsveiligheidsrisico's kunnen verergeren." Het onderzoek loopt.

Een week na de aankondiging van de sonde, zei de NHTSA dat Tesla Autopilot (die op niveau 2 werkt, niet FSD) betrokken bij 270 van de 394 ongevallen met rijhulpsystemen – ongeveer 70 procent – ​​werden gecatalogiseerd als onderdeel van een onderzoek naar de veiligheid van rijhulptechnologieën.

Meest recentelijk heeft het California Department of Motor Vehicles klachten ingediend tegen Tesla waarin wordt beweerd dat het verkeerd weergegeven claims de voertuigen kunnen autonoom rijden. Als Tesla eind deze week niet reageert op de claims van de DMV, wordt de zaak standaard afgewikkeld en kan de automaker zijn vergunning verliezen om auto's in Californië te verkopen.

The Dawn Project zei dat de NHTSA snel heeft gehandeld om Tesla-functies terug te roepen, verwijzend naar Tesla's door NHTSA aangespoorde terugroepacties van FSD-code waardoor Tesla's rol langs stopborden en uitschakelen van Tesla Boombox

The Dawn Project zegt dat zijn onderzoek "veel serieuzer en urgenter is". ®

Tijdstempel:

Meer van Het register