Під час тестування автопілот Tesla не помічає об’єктів розміром з дитиною

зображення

Остання версія бета-версії Full Self Driving (FSD) Autopilot від Tesla має певний недолік: вона, здається, не помічає об’єктів дитячого розміру на своєму шляху, згідно з групою кампанії.

Під час тестів, проведених The Dawn Project з використанням Tesla Model 3, оснащеного FSD версії 10.12.2 (останньої, випущеної 1 червня), транспортний засіб отримав 120 ярдів (110 метрів) прямої колії між двома рядами конусів з дочірньою манекен розміру в кінці.

Група каже, що «руки водія-випробувача ніколи не були на кермі». Найважливіше те, що Tesla каже, що автопілот не є повністю автономною системою і лише забезпечує водієві допомогу та функції круїз-контролю. Ви повинні тримати руки на кермі та мати можливість взяти на себе керування в будь-який момент.

Подорожуючи зі швидкістю приблизно 25 миль/год (близько 40 км/год), Тесла кожного разу вдаряв манекен

Щодо результатів, проект Dawn сказав, що дистанції в 100 ярдів більш ніж достатньо, щоб водій-людина помітив дитину, заявивши: «Програмне забезпечення Tesla Full Self-Driving неодноразово провалює цей простий і важливий для безпеки тест з потенційно смертельними результатами».

«Ілон Маск каже, що програмне забезпечення Tesla Full Self-Driving «дивовижне». Це не… Це найгірше комерційне програмне забезпечення, яке я коли-небудь бачив», — сказав засновник проекту Ден О'Дауд у відео, яке він опублікував у Twitter разом із результатами.

О'Дауд, який також заснував компанію Green Hills Software у 1982 році та виступає за безпеку програмного забезпечення, деякий час був противником Tesla, навіть висунувши заявку на участь у Сенаті США в Каліфорнії. зосереджено на нагляді за Tesla як спосіб говорити про ширші проблеми кібербезпеки. Кандидатура О'Дауда в Сенат закінчилася в червні, коли він програв на праймеріз від Демократичної партії. 

Оголошена мета проекту Dawn — «зробити комп’ютери безпечними для людства». Tesla FSD – це перша кампанія Проекту. 

Невеликий розмір вибірки

Варто зазначити, що тести The Dawn Project FSD 10.12.2, які відбулися 21 червня в Розамонді, Каліфорнія, складалися лише з трьох запусків. Це невеликий розмір вибірки, але, враховуючи інші тести Autopilot і статистику, це не несподівано. 

Несправності в Tesla Autopilot є було вказано як нібито фактор in кілька, фатальний ДТП за участю обох водіїв та пішоходів за роки. Тесла минулого року відкотився назад Програмне забезпечення FSD випускається після виявлення програмних помилок, які викликали проблеми з поворотами ліворуч, якими є Tesla все ще працює

На початку червня Національне управління безпеки дорожнього руху США модернізував зонд Tesla Autopilot після того, як він знайшов причини перевірити, чи можуть «Автопілот і пов’язані з ним системи Tesla посилити людський фактор або поведінкові ризики для безпеки». Розслідування триває.

Через тиждень після оголошення свого дослідження NHTSA заявило, що автопілот Tesla (працює на рівні 2, а не FSD) був залучений до 270 із 394 аварій із системою допомоги водієві – близько 70 відсотків – були занесені в каталог у рамках розслідування безпеки технології допомоги водієві.

Нещодавно Департамент автомобільних транспортних засобів Каліфорнії подав скарги проти Tesla, стверджуючи це невірно подані претензії транспортні засоби можуть їздити автономно. Якщо Tesla не відповість на претензії DMV до кінця цього тижня, справа буде вирішена за замовчуванням і може призвести до втрати автовиробником ліцензії на продаж автомобілів у Каліфорнії.

У Dawn Project заявили, що NHTSA швидко відкликала функції Tesla, вказуючи на відкликання коду FSD, спричинене NHTSA, що дозволило Teslas проїхати повз знаки зупинки і відключення Tesla Boombox

Проект Dawn каже, що його дослідження «набагато серйозніші та термінові». ®

Часова мітка:

Більше від Реєстр