A Tesla Autopilot nem veszi észre a gyermek méretű objektumokat a tesztelés során

kép

The latest version of Tesla’s Full Self Driving (FSD) Autopilot beta has a bit of a kink: it doesn’t appear to notice child-sized objects in its path, according to a campaign group.

A The Dawn Project által a 3-es (a legújabb, június 10.12.2-jén kiadott) FSD-verzióval felszerelt Tesla Model 1-mal végzett tesztek során a jármű 120 yard (110 méter) egyenes pályát kapott két kúpsor között egy gyerekkel. méretű manöken a végén.

The group says the “test driver’s hands were never on the wheel.” Crucially, Tesla says that Autopilot is not a fully autonomous system and only provides assistance and cruise control functionality to the driver. You’re supposed to keep your hands on the wheel and be able to take over at any time.

Körülbelül 25 km/h sebességgel haladva a Tesla minden alkalommal eltalálta a próbabábut

Az eredmények közül a Dawn Project szerint 100 yard távolság több mint elég ahhoz, hogy egy emberi sofőr észrevegye a gyermeket, és kijelentette: „A Tesla Full Self-Driving szoftvere ismételten megbukik ezen az egyszerű és biztonság szempontjából kritikus teszten, ami akár halálos kimenetelű is lehet.”

„Elon Musk szerint a Tesla Full Self-Driving szoftvere „csodálatos”. Nem… Ez a legrosszabb kereskedelmi szoftver, amit valaha láttam” – mondta a projekt alapítója, Dan O'Dowd egy videóban, amelyet az eredményekkel együtt Twitteren is közzétett.

O'Dowd, aki 1982-ben a Green Hills Software-t is megalapította, és a szoftverbiztonság szószólója, egy ideje a Tesla ellenfele volt, sőt, az Egyesült Államok szenátusába is pályázott Kaliforniában. középpontjában a Tesla rendfenntartása áll hogy szélesebb körű kiberbiztonsági kérdésekről beszéljünk. O'Dowd szenátusi pályázata júniusban ért véget, amikor elvesztette a Demokrata Párt előválasztását. 

A Dawn Project kinyilvánított célja „biztonságossá tenni a számítógépeket az emberiség számára”. A Tesla FSD a projekt első kampánya. 

Kis mintaméret

It’s worth noting that The Dawn Project’s tests of FSD 10.12.2, which took place on June 21 in Rosamond, CA, only consisted of three runs. That’s a small sample size, but considering other Autopilot tests and statistics it’s not unexpected. 

Meghibásodások vannak a Tesla Autopilotban állítólagos tényezőként hivatkoztak rá in számos, végzetes mindkét sofőrt érintő balesetek és a gyalogosok az évek alatt. Tavaly a Tesla gördült vissza Az FSD szoftverek azután jelentek meg, hogy olyan szoftverhibákat fedeztek fel, amelyek problémákat okoztak a balra kanyarodással, ami a Tesla még mindig dolgozik

Június elején az Egyesült Államok Nemzeti Közúti Közlekedésbiztonsági Hivatala frissítette a Tesla szondáját Autopilot after it found reasons to look into whether “Autopilot and associated Tesla systems may exacerbate human factors or behavioral safety risks.” The investigation is ongoing.

Egy héttel a szonda bejelentése után az NHTSA közölte, hogy a Tesla Autopilot (2. szinten működik, nem FSD) részt vesz A 270 vezetőasszisztens-baleset közül 394-et – mintegy 70 százalékát – a vezetőt segítő technológia biztonságával kapcsolatos vizsgálat részeként katalogizálta.

Legutóbb a California Department of Motor Vehicles panaszt nyújtott be a Tesla ellen, ezzel vádolva hamisan ábrázolt állítások a járművek önállóan közlekedhetnek. Ha a Tesla e hét végéig nem válaszol a DMV követeléseire, az ügy alapértelmezés szerint rendeződik, és az autógyártó elveszítheti autóeladási engedélyét Kaliforniában.

A Dawn Project azt mondta, hogy az NHTSA gyorsan cselekedett a Tesla funkcióinak visszahívása érdekében, rámutatva a Tesla NHTSA által ösztönzött FSD-kód visszahívására, amely lehetővé tette a Tesla számára, hogy elgurul a stoptáblák mellett és a a Tesla Boombox letiltása

A Dawn Project szerint kutatása „sokkal komolyabb és sürgősebb”. ®

Időbélyeg:

Még több A regisztráció