خلبان خودکار تسلا در آزمایش متوجه اشیاء به اندازه کودک نمی شود

تصویر

به گفته یک گروه کمپین، جدیدترین نسخه بتای اتوپایلوت کامل خودران (FSD) تسلا کمی پیچیدگی دارد: به نظر نمی رسد که متوجه اشیاء به اندازه کودک در مسیر خود شود.

در آزمایش‌هایی که توسط The Dawn Project با استفاده از تسلا مدل 3 مجهز به FSD نسخه 10.12.2 (آخرین نسخه منتشر شده در 1 ژوئن) انجام شد، به خودرو 120 یارد (110 متر) مسیر مستقیم بین دو ردیف مخروط با یک کودک داده شد. مانکن سایز انتهایی

این گروه می‌گوید «دست‌های راننده آزمایشی هرگز روی فرمان نبود». نکته مهم این است که تسلا می گوید که Autopilot یک سیستم کاملاً مستقل نیست و فقط قابلیت کمک و کروز کنترل را به راننده ارائه می دهد. شما باید دستان خود را روی چرخ نگه دارید و بتوانید هر زمان که بخواهید کنترل را به دست بگیرید.

با سرعت تقریبی 25 مایل در ساعت (حدود 40 کیلومتر در ساعت)، تسلا هر بار به آدمک برخورد کرد

از نتایج، پروژه سپیده دم گفت که 100 یارد مسافت برای یک راننده انسان کافی است تا متوجه کودک شود، و اظهار داشت: «نرم افزار کامل خودران تسلا در این آزمایش حیاتی ساده و ایمنی مکرراً با نتایج مرگبار بالقوه رد می شود.»

ایلان ماسک می گوید نرم افزار کامل خودران تسلا شگفت انگیز است. این بدترین نرم افزار تجاری است که من تا به حال دیده ام.

اودود که در سال 1982 نرم افزار گرین هیلز را نیز تأسیس کرد و از امنیت نرم افزار دفاع می کرد، مدتی است که از مخالفان تسلا بوده است، حتی پیشنهادی برای مجلس سنای ایالات متحده در کالیفرنیا ارائه کرده است. با تمرکز بر پلیس تسلا به عنوان راهی برای صحبت در مورد مسائل گسترده تر امنیت سایبری. نامزدی اودود برای مجلس سنا در ژوئن با شکست او در انتخابات مقدماتی حزب دموکرات به پایان رسید. 

هدف پروژه سپیده دم «ایمن کردن رایانه‌ها برای بشریت» است. تسلا FSD اولین کمپین پروژه است. 

حجم نمونه کوچک

شایان ذکر است که آزمایشات The Dawn Project FSD 10.12.2 که در 21 ژوئن در Rosamond، CA انجام شد، تنها شامل سه اجرا بود. این حجم نمونه کوچکی است، اما با توجه به سایر آزمایش‌ها و آمارهای Autopilot غیرمنتظره نیست. 

نقص در اتوپایلوت تسلا وجود دارد به عنوان یک عامل ذکر شده است in چند, کشنده تصادفات مربوط به هر دو راننده و پیاده رو در طول سال ها. سال گذشته تسلا رول پشت نرم‌افزار FSD پس از کشف اشکالات نرم‌افزاری منتشر شد که باعث ایجاد مشکلاتی در چرخش‌های چپ شد، چیزی که تسلا همینطور است هنوز کار می کند

در اوایل ژوئن، اداره ملی ایمنی ترافیک بزرگراه ایالات متحده کاوشگر تسلا را ارتقا داد Autopilot پس از یافتن دلایلی برای بررسی اینکه آیا "Autopilot و سیستم های مرتبط تسلا ممکن است عوامل انسانی یا خطرات ایمنی رفتاری را تشدید کنند" را پیدا کرد. تحقیقات ادامه دارد.

یک هفته پس از اعلام کاوش، NHTSA اعلام کرد تسلا اتوپایلوت (که در سطح 2 کار می کند، نه FSD) درگیر 270 مورد از 394 تصادف کمک راننده - حدود 70 درصد - به عنوان بخشی از تحقیق در مورد ایمنی فناوری کمک راننده فهرست شده است.

اخیراً، دپارتمان وسایل نقلیه موتوری کالیفرنیا شکایت هایی را علیه تسلا ارائه کرده است ادعاهای نادرست وسایل نقلیه می توانند به صورت مستقل رانندگی کنند. اگر تسلا تا پایان این هفته به ادعاهای DMV پاسخ ندهد، پرونده به طور پیش فرض حل می شود و می تواند منجر به از دست دادن مجوز فروش خودرو در کالیفرنیا توسط این خودروساز شود.

پروژه سپیده دم گفت که NHTSA به سرعت برای فراخوانی ویژگی‌های تسلا عمل کرده است و به فراخوانی کد FSD توسط NHTSA تسلا اشاره کرد که به تسلا اجازه داد تابلوهای توقف را پشت سر بگذارید و غیرفعال کردن تسلا Boombox

پروژه سپیده دم می گوید تحقیقاتش «به مراتب جدی تر و فوری تر است». ®

تمبر زمان:

بیشتر از ثبت نام