Tesla Autopilot не замечает объекты детского размера при тестировании

изображение

Последняя версия бета-версии автопилота полного самостоятельного вождения (FSD) Tesla имеет небольшую особенность: по словам группы кампании, она не замечает на своем пути объекты размером с ребенка.

В тестах, проведенных The Dawn Project с использованием Tesla Model 3, оснащенной FSD версии 10.12.2 (последняя, ​​выпущенная 1 июня), автомобилю дали 120 ярдов (110 метров) по прямой дороге между двумя рядами конусов с ребенком. размер манекен в конце.

Группа говорит, что «руки тест-пилота никогда не были на руле». Важно отметить, что Tesla говорит, что автопилот не является полностью автономной системой, а только помогает водителю и поддерживает функции круиз-контроля. Вы должны держать руки на руле и быть в состоянии вступить во владение в любое время.

Двигаясь со скоростью примерно 25 миль в час (около 40 км/ч), Тесла каждый раз попадал в манекен

Что касается результатов, Dawn Project заявил, что 100 ярдов расстояния более чем достаточно для человека-водителя, чтобы заметить ребенка, заявив: «Программное обеспечение Tesla Full Self-Driving неоднократно не проходит этот простой и важный для безопасности тест с потенциально смертельными результатами».

«Илон Маск говорит, что программное обеспечение Tesla для полного самостоятельного вождения «потрясающе». Это не… Это худшее коммерческое программное обеспечение, которое я когда-либо видел», — сказал основатель проекта Дэн О'Дауд в видео, которое он разместил в Твиттере вместе с результатами.

О'Дауд, который также основал Green Hills Software в 1982 году и выступает за безопасность программного обеспечения, некоторое время был противником Tesla, даже подав заявку в Сенат США в Калифорнии, которая сосредоточен на охране Теслы как способ поговорить о более широких проблемах кибербезопасности. Заявка О'Дауда в Сенат закончилась в июне, когда он проиграл предварительные выборы Демократической партии. 

Заявленная цель проекта Dawn — «сделать компьютеры безопасными для человечества». Tesla FSD — первая кампания Проекта. 

Небольшой размер выборки

Стоит отметить, что тесты FSD 10.12.2, проведенные The Dawn Project 21 июня в Розамонде, Калифорния, состояли всего из трех прогонов. Это небольшой размер выборки, но, учитывая другие тесты Autopilot и статистику, это не является неожиданным. 

Неисправности в автопилоте Tesla упоминается как якобы фактор in несколько, роковой ДТП с участием обоих водителей и пешеходов с годами. В прошлом году Тесла откат Программное обеспечение FSD выпускается после того, как были обнаружены программные ошибки, которые вызывали проблемы с левым поворотом, что делает Tesla. все еще работаю над

В начале июня Национальная администрация безопасности дорожного движения США модернизировал зонд Теслы Автопилот после того, как обнаружил причины для изучения того, могут ли «автопилот и связанные с ним системы Tesla усугублять человеческий фактор или риски для безопасности поведения». Расследование продолжается.

Через неделю после объявления о своем расследовании НАБДД заявило, что автопилот Tesla (работающий на уровне 2, а не FSD) участвует в 270 из 394 аварий с участием водителя — около 70 процентов — были занесены в каталог в рамках исследования безопасности технологии помощи водителю.

Совсем недавно Департамент транспортных средств Калифорнии подал жалобу на Tesla, утверждая, что искаженные претензии автомобили могут двигаться автономно. Если Tesla не ответит на претензии DMV до конца этой недели, дело будет урегулировано по умолчанию и может привести к тому, что автопроизводитель потеряет лицензию на продажу автомобилей в Калифорнии.

В Dawn Project заявили, что НАБДД быстро отреагировало на отзыв функций Tesla, указав на вызванный NHTSA отзыв Теслы кода FSD, который позволил Tesla проехать мимо знаков остановки и отключение Tesla Boombox

Проект «Рассвет» заявляет, что его исследование «гораздо более серьезное и срочное». ®

Отметка времени:

Больше от Регистр