Teslin avtopilot pri testiranju ne opazi predmetov velikosti otrok

slika

Najnovejša različica beta Teslinega avtopilota Full Self Driving (FSD) ima nekaj pomanjkljivosti: zdi se, da na svoji poti ne opazi predmetov v velikosti otrok, glede na skupino kampanje.

V testih, ki jih je izvedel The Dawn Project z uporabo Tesla Model 3, opremljenega s FSD različico 10.12.2 (najnovejša, izdana 1. junija), je vozilo dobilo 120 jardov (110 metrov) ravne proge med dvema vrstama stožcev z otrokom. velik maneken na koncu.

Skupina pravi, da "roke testnega voznika nikoli niso bile na volanu." Najpomembneje je, da Tesla pravi, da avtopilot ni popolnoma avtonomen sistem in vozniku zagotavlja samo pomoč in funkcijo tempomata. Roke bi morali držati na volanu in lahko kadar koli prevzamete krmilo.

Potuje s približno 25 mph (približno 40 km/h). Tesla je vsakič zadela lutko

Glede rezultatov je projekt Dawn dejal, da je 100 jardov razdalje več kot dovolj, da človeški voznik opazi otroka, in navedel: "Teslina programska oprema za popolno samodejno vožnjo vedno znova ne uspe na tem preprostem in varnostno kritičnem testu, s potencialno smrtonosnimi rezultati."

»Elon Musk pravi, da je Teslina programska oprema za popolno samodejno vožnjo 'neverjetna'. To ni ... To je najslabša komercialna programska oprema, kar sem jih kdaj videl,« je dejal ustanovitelj projekta Dan O'Dowd v videoposnetku, ki ga je tvitnil skupaj z rezultati.

O'Dowd, ki je leta 1982 ustanovil tudi Green Hills Software in se zavzema za varnost programske opreme, je bil nekaj časa nasprotnik Tesle in je celo sprožil kandidaturo za ameriški senat v Kaliforniji, ki osredotočen na nadzor nad Teslo kot način za pogovor o širših vprašanjih kibernetske varnosti. O'Dowdova kandidatura za senat se je končala junija, ko je izgubil na primarnih volitvah demokratske stranke. 

Navedeni cilj projekta Dawn je "narediti računalnike varne za človeštvo." Tesla FSD je prva kampanja projekta. 

Majhna velikost vzorca

Treba je omeniti, da so testi FSD 10.12.2 projekta Dawn, ki so potekali 21. junija v Rosamondu v Kaliforniji, obsegali samo tri izvedbe. To je majhna velikost vzorca, vendar glede na druge teste in statistiko avtopilota ni nepričakovano. 

Motnje v delovanju Teslinega avtopilota so naveden kot domnevno dejavnik in več, smrtnim izidom nesreče, v kateri sta bila udeležena oba voznika in pešci skozi leta. Lansko leto Tesla vrteno nazaj Programska oprema FSD je izdana po odkritju napak v programski opremi, ki so povzročale težave pri zavijanju levo, kar je Tesla še vedno dela

V začetku junija je ameriška nacionalna uprava za varnost v cestnem prometu nadgradil sondo Tesla Avtopilot, potem ko je našel razloge za preučitev, ali lahko "Avtopilot in povezani sistemi Tesla poslabšajo človeške dejavnike ali vedenjska varnostna tveganja." Preiskava še poteka.

Teden dni po objavi svoje raziskave je NHTSA sporočila, da je Teslin avtopilot (deluje na ravni 2, ne FSD) vpleten v 270 od 394 nesreč s pomočjo voznika – približno 70 odstotkov – je katalogiziral kot del preiskave o varnosti tehnologije za pomoč vozniku.

Pred kratkim je kalifornijski oddelek za motorna vozila vložil pritožbo proti Tesli, v kateri je to trdil napačno predstavljene terjatve vozila lahko vozijo avtonomno. Če se Tesla do konca tega tedna ne bo odzvala na zahtevke DMV, bo zadeva privzeto rešena in lahko povzroči, da proizvajalec avtomobilov izgubi licenco za prodajo avtomobilov v Kaliforniji.

Pri projektu Dawn so sporočili, da je NHTSA hitro ukrepala in izdala odpoklice Teslinih funkcij, pri čemer so opozorili na Teslove odpoklice kode FSD, ki jih je spodbudila NHTSA, kar je Tesli omogočilo skotalite mimo stop znakov in onemogočanje Tesla Boombox

Projekt Dawn pravi, da je njihova raziskava "veliko bolj resna in nujna." ®

Časovni žig:

Več od Register