Tesla Autopilot nie zauważa podczas testowania obiektów o rozmiarach dziecięcych

obraz

Najnowsza wersja beta Tesli Full Self Driving (FSD) Autopilot ma trochę niedogodności: według grupy kampanii wydaje się, że nie zauważa na swojej drodze obiektów wielkości dziecka.

W testach przeprowadzonych przez The Dawn Project przy użyciu Tesli Model 3 wyposażonej w FSD w wersji 10.12.2 (najnowsza, wydana 1 czerwca), pojazd otrzymał 120 jardów (110 metrów) prostego toru między dwoma rzędami stożków z dzieckiem- manekin wielkości na końcu.

Grupa twierdzi, że „ręce kierowcy testowego nigdy nie były na kierownicy”. Co najważniejsze, Tesla mówi, że Autopilot nie jest w pełni autonomicznym systemem i zapewnia kierowcy jedynie funkcje wspomagania i tempomatu. Powinieneś trzymać ręce na kierownicy i być w stanie przejąć kontrolę w każdej chwili.

Podróżując z prędkością około 25 mil na godzinę (około 40 km/h), Tesla za każdym razem uderzał w manekina

O wynikach projektu Dawn Project powiedział, że odległość 100 metrów jest więcej niż wystarczająca, aby ludzki kierowca zauważył dziecko, stwierdzając: „Oprogramowanie Tesla Full Self-Driving wielokrotnie nie przechodzi tego prostego i krytycznego dla bezpieczeństwa testu, z potencjalnie śmiertelnymi wynikami”.

„Elon Musk mówi, że oprogramowanie Full Self-Driving Tesli jest „niesamowite”. To nie jest… To najgorsze komercyjne oprogramowanie, jakie kiedykolwiek widziałem” – powiedział założyciel projektu, Dan O'Dowd, w filmie, który opublikował na Twitterze wraz z wynikami.

O'Dowd, który również założył Green Hills Software w 1982 roku i opowiada się za bezpieczeństwem oprogramowania, od jakiegoś czasu był przeciwnikiem Tesli, a nawet rozpoczął kandydaturę do Senatu USA w Kalifornii, który koncentruje się na policji Tesla jako sposób na rozmowę o szerszych kwestiach cyberbezpieczeństwa. Kandydatura do Senatu O'Dowda zakończyła się w czerwcu, kiedy przegrał prawybory Partii Demokratycznej. 

Deklarowanym celem Projektu Dawn jest „uczynienie komputerów bezpiecznymi dla ludzkości”. Tesla FSD to pierwsza kampania Projektu. 

Mała wielkość próbki

Warto zauważyć, że testy FSD 10.12.2 przeprowadzone przez The Dawn Project, które odbyły się 21 czerwca w Rosamond w Kalifornii, składały się tylko z trzech przebiegów. To niewielka próbka, ale biorąc pod uwagę inne testy i statystyki Autopilota, nie jest to nieoczekiwane. 

Awarie w Autopilocie Tesli mają została przytoczona jako rzekomo będąca czynnikiem in kilka, fatalny wypadki z udziałem obu kierowców i pieszych przez lata. W zeszłym roku Tesla wycofana Wersje oprogramowania FSD po wykryciu błędów w oprogramowaniu, które powodowały problemy z skrętami w lewo, czym jest Tesla nadal pracuje nad

Na początku czerwca amerykańska Narodowa Administracja Bezpieczeństwa Ruchu Drogowego zmodernizował sondę Tesli Autopilot po tym, jak znalazł powody, aby sprawdzić, czy „Autopilot i powiązane systemy Tesla mogą zaostrzyć czynniki ludzkie lub zagrożenia bezpieczeństwa behawioralnego”. Śledztwo trwa.

Tydzień po ogłoszeniu sondy NHTSA powiedział, że Autopilot Tesli (działający na poziomie 2, nie FSD) był zaangażowany w 270 z 394 wypadków związanych ze wspomaganiem kierowcy – około 70 procent – ​​skatalogowano w ramach dochodzenia dotyczącego bezpieczeństwa technologii wspomagania kierowcy.

Ostatnio Kalifornijski Departament Pojazdów Motorowych złożył skargę przeciwko Tesli, twierdząc, że to nieprawdziwe twierdzenia pojazdy mogą jeździć autonomicznie. Jeśli Tesla nie odpowie na roszczenia DMV do końca tego tygodnia, sprawa zostanie rozstrzygnięta domyślnie i może doprowadzić do utraty licencji na sprzedaż samochodów w Kalifornii.

Projekt Dawn powiedział, że NHTSA działała szybko, aby wydać wycofanie funkcji Tesli, wskazując na wywołane przez NHTSA wycofanie kodu FSD przez Teslę, które umożliwiło Tesli przejedź obok znaków stopu oraz wyłączenie Tesli Boombox

Projekt Dawn mówi, że jego badania „są znacznie poważniejsze i pilniejsze”. ®

Znak czasu:

Więcej z Rejestr