Tesla Autopilot, testte çocuk boyutlu nesneleri fark edemiyor

görüntü

Tesla'nın Full Self Driving (FSD) Autopilot beta sürümünün en son sürümü biraz garip: Bir kampanya grubuna göre, yolundaki çocuk boyutlu nesneleri fark etmiyor gibi görünüyor.

The Dawn Project tarafından FSD sürüm 3 (en son, 10.12.2 Haziran'da piyasaya sürülen) ile donatılmış bir Tesla Model 1 kullanılarak gerçekleştirilen testlerde, araca bir çocuk ile iki sıra koni arasında 120 yarda (110 metre) düz yol verildi. sonunda boy manken.

Grup, "test sürücüsünün ellerinin asla direksiyonda olmadığını" söylüyor. Tesla, Autopilot'un tamamen otonom bir sistem olmadığını ve sürücüye yalnızca yardım ve hız sabitleyici işlevi sağladığını söylüyor. Ellerini direksiyonda tutman ve her an kontrolü ele alabilmen gerekiyor.

Yaklaşık 25mph (yaklaşık 40kph) hızla seyahat ederken, Tesla her seferinde kuklaya vurdu

Sonuçlar hakkında, Dawn Project 100 metrelik mesafenin bir insan sürücünün bir çocuğu fark etmesi için fazlasıyla yeterli olduğunu belirterek, "Tesla'nın Tam Kendi Kendine Sürüş yazılımı bu basit ve güvenlik açısından kritik testte defalarca başarısız oluyor ve potansiyel olarak ölümcül sonuçlar veriyor."

“Elon Musk, Tesla'nın Tam Kendi Kendine Sürüş yazılımının 'muhteşem' olduğunu söylüyor. Değil… Bu şimdiye kadar gördüğüm en kötü ticari yazılım” dedi projenin kurucusu Dan O'Dowd, sonuçlarıyla birlikte tweet attığı bir videoda.

1982'de Green Hills Software'i kuran ve yazılım güvenliğini savunan O'Dowd, bir süredir Tesla'nın rakibiydi, hatta Kaliforniya'daki ABD Senatosu için bir teklif başlattı. Tesla'ya polislik yapmaya odaklandı daha geniş siber güvenlik sorunları hakkında konuşmanın bir yolu olarak. O'Dowd'un Senato teklifi, Demokrat parti ön seçimini kaybettiği Haziran ayında sona erdi. 

Dawn Project'in belirtilen hedefi “bilgisayarları insanlık için güvenli hale getirmek”. Tesla FSD, Projenin ilk kampanyasıdır. 

Küçük örnek boyutu

The Dawn Project'in 10.12.2 Haziran'da Rosamond, CA'da gerçekleştirilen FSD 21 testlerinin yalnızca üç denemeden oluştuğunu belirtmekte fayda var. Bu küçük bir örneklem boyutu, ancak diğer Otopilot testleri ve istatistikleri göz önüne alındığında beklenmedik bir durum değil. 

Tesla Autopilot'taki arızalar var etken olduğu iddia edildi in birkaç, ölümcül her iki sürücünün de karıştığı kazalar ve yayalar yıllar sonra. Geçen yıl Tesla'nın geri alındı FSD yazılımı, sola dönüşlerde sorunlara neden olan yazılım hataları keşfedildikten sonra piyasaya çıkıyor, Tesla'nın yaptığı bir şey. hala üzerinde çalışıyor

Haziran ayı başlarında, ABD Ulusal Karayolu Trafik Güvenliği İdaresi Tesla'nın bir sondasını yükseltti Otopilot, "Otopilot ve ilgili Tesla sistemlerinin insan faktörlerini veya davranışsal güvenlik risklerini şiddetlendirip artıramayacağını" araştırmak için nedenler bulduktan sonra. Soruşturma devam ediyor.

Sondasını açıkladıktan bir hafta sonra, NHTSA Tesla Otopilot'un (FSD değil, seviye 2'de çalışıyor) olduğunu söyledi. dahil 270 sürücü destekli kazadan 394'i - yaklaşık yüzde 70'i - sürücü destek teknolojisinin güvenliğine ilişkin bir soruşturmanın parçası olarak kataloglandı.

Son zamanlarda, California Motorlu Araçlar Departmanı, Tesla'ya karşı şikayette bulundu. yanlış beyan edilen iddialar araçlar otonom olarak hareket edebilir. Tesla, bu haftanın sonuna kadar DMV'nin iddialarına yanıt vermezse, dava varsayılan olarak çözülecek ve otomobil üreticisinin Kaliforniya'da araba satma lisansını kaybetmesine neden olabilir.

Şafak Projesi, NHTSA'nın Tesla özellikleri hakkında geri çağırma yapmak için hızlı hareket ettiğini ve Tesla'nın Tesla'nın NHTSA tarafından teşvik edilen FSD kodunu geri çağırmalarına işaret ettiğini söyledi. dur işaretlerini geçmek ve Tesla Boombox'ın devre dışı bırakılması

Şafak Projesi araştırmasının "çok daha ciddi ve acil" olduğunu söylüyor. ®

Zaman Damgası:

Den fazla Kayıt