Tesla Autopilot gagal memperhatikan objek berukuran anak-anak dalam pengujian

gambar

Versi terbaru Tesla's Full Self Driving (FSD) Autopilot beta memiliki sedikit ketegaran: tampaknya tidak memperhatikan objek berukuran anak-anak di jalurnya, menurut grup kampanye.

Dalam pengujian yang dilakukan oleh The Dawn Project menggunakan Tesla Model 3 yang dilengkapi dengan FSD versi 10.12.2 (terbaru, dirilis 1 Juni), kendaraan diberi lintasan lurus sepanjang 120 yard (110 meter) di antara dua baris kerucut dengan anak- manekin berukuran di ujungnya.

Kelompok itu mengatakan "tangan pengemudi penguji tidak pernah berada di kemudi." Yang terpenting, Tesla mengatakan bahwa Autopilot bukanlah sistem yang sepenuhnya otonom dan hanya menyediakan bantuan dan fungsi cruise control kepada pengemudi. Anda seharusnya tetap memegang kemudi dan dapat mengambil alih kapan saja.

Bepergian dengan kecepatan sekitar 25mph (sekitar 40kph), Tesla memukul boneka setiap kali

Dari hasilnya, Dawn Project mengatakan jarak 100 yard lebih dari cukup bagi pengemudi manusia untuk melihat seorang anak, dengan menyatakan: "Perangkat lunak Full Self-Driving Tesla gagal dalam uji kritis sederhana dan keselamatan ini berulang kali, dengan hasil yang berpotensi mematikan."

โ€œElon Musk mengatakan perangkat lunak Full Self-Driving Tesla adalah 'luar biasa.' Bukanโ€ฆ Ini adalah perangkat lunak komersial terburuk yang pernah saya lihat,โ€ kata pendiri proyek, Dan O'Dowd, dalam video yang dia tweet bersama dengan hasilnya.

O'Dowd, yang juga mendirikan Green Hills Software pada tahun 1982 dan mengadvokasi keamanan perangkat lunak, telah menjadi penentang Tesla selama beberapa waktu, bahkan meluncurkan tawaran untuk Senat AS di California yang berpusat pada kepolisian Tesla sebagai cara untuk membicarakan masalah keamanan siber yang lebih luas. Tawaran Senat O'Dowd berakhir pada Juni ketika ia kalah dalam pemilihan pendahuluan Partai Demokrat. 

Tujuan yang dinyatakan Dawn Project adalah โ€œmembuat komputer aman bagi umat manusia.โ€ Tesla FSD adalah kampanye pertama Proyek. 

Ukuran sampel kecil

Perlu dicatat bahwa pengujian FSD 10.12.2 The Dawn Project, yang berlangsung pada 21 Juni di Rosamond, CA, hanya terdiri dari tiga proses. Itu ukuran sampel yang kecil, tetapi mengingat tes dan statistik Autopilot lainnya, itu tidak terduga. 

Kerusakan di Tesla Autopilot miliki telah dikutip sebagai diduga menjadi faktor in beberapa, fatal kecelakaan yang melibatkan kedua pengemudi dan pejalan kaki selama bertahun-tahun. Tesla tahun lalu digulung kembali Perangkat lunak FSD dirilis setelah bug perangkat lunak ditemukan yang menyebabkan masalah dengan belokan kiri, sesuatu yang Tesla masih bekerja

Pada awal Juni, Administrasi Keselamatan Lalu Lintas Jalan Raya Nasional AS memutakhirkan probe Tesla Autopilot setelah menemukan alasan untuk melihat apakah "Autopilot dan sistem Tesla terkait dapat memperburuk faktor manusia atau risiko keselamatan perilaku." Investigasi sedang berlangsung.

Seminggu setelah mengumumkan penyelidikannya, NHTSA mengatakan Tesla Autopilot (beroperasi pada level 2, bukan FSD) terlibat dalam 270 dari 394 kecelakaan bantuan pengemudi โ€“ sekitar 70 persen โ€“ dikatalogkan sebagai bagian dari penyelidikan keamanan teknologi bantuan pengemudi.

Baru-baru ini, Departemen Kendaraan Bermotor California mengajukan pengaduan terhadap Tesla yang menuduhnya klaim yang disalahpahami kendaraan dapat mengemudi secara mandiri. Jika Tesla tidak menanggapi klaim DMV pada akhir minggu ini, kasus ini akan diselesaikan secara default dan dapat menyebabkan pembuat mobil kehilangan lisensi untuk menjual mobil di California.

Proyek Dawn mengatakan bahwa NHTSA telah bertindak cepat untuk mengeluarkan penarikan pada fitur Tesla, menunjuk pada penarikan kode FSD yang didorong oleh NHTSA Tesla yang memungkinkan Tesla untuk melewati rambu berhenti dan menonaktifkan Tesla Boombox

Dawn Project mengatakan penelitiannya โ€œjauh lebih serius dan mendesak.โ€ ยฎ

Stempel Waktu:

Lebih dari Pendaftaran