Tesla Autopilot ล้มเหลวในการสังเกตเห็นวัตถุขนาดเด็กในการทดสอบ

ภาพ

Autopilot beta เวอร์ชันล่าสุดของ Tesla's Full Self Driving (FSD) มีความหงิกงอเล็กน้อย: ดูเหมือนว่าจะไม่สังเกตเห็นวัตถุขนาดเล็กในเส้นทางตามกลุ่มแคมเปญ

ในการทดสอบที่ดำเนินการโดย The Dawn Project โดยใช้ Tesla Model 3 ที่ติดตั้ง FSD เวอร์ชัน 10.12.2 (ล่าสุด เผยแพร่เมื่อวันที่ 1 มิถุนายน) ยานพาหนะได้รับทางตรง 120 หลา (110 เมตร) ระหว่างกรวยสองแถวกับเด็ก- หุ่นขนาดที่ส่วนท้าย

กลุ่มกล่าวว่า "มือของผู้ขับขี่ทดสอบไม่เคยอยู่บนพวงมาลัย" สิ่งสำคัญที่สุดคือ Tesla กล่าวว่า Autopilot ไม่ใช่ระบบอัตโนมัติเต็มรูปแบบ และมีเพียงฟังก์ชันความช่วยเหลือและระบบควบคุมความเร็วอัตโนมัติให้กับผู้ขับขี่เท่านั้น คุณควรวางมือบนพวงมาลัยและสามารถยึดครองได้ทุกเมื่อ

การเดินทางด้วยความเร็วประมาณ 25 ไมล์ต่อชั่วโมง (ประมาณ 40 กิโลเมตรต่อชั่วโมง) เทสลาตีหุ่นทุกครั้ง

จากผลลัพธ์ดังกล่าว โครงการ Dawn Project ระบุว่าระยะทาง 100 หลานั้นมากเกินพอสำหรับคนขับที่จะสังเกตเห็นเด็ก โดยกล่าวว่า “ซอฟต์แวร์ Full Self-Driving ของ Tesla ล้มเหลวในการทดสอบที่ง่ายและปลอดภัยนี้ซ้ำแล้วซ้ำเล่า โดยอาจให้ผลลัพธ์ที่อาจถึงตายได้”

“Elon Musk กล่าวว่าซอฟต์แวร์ Full Self-Driving ของ Tesla นั้น 'น่าทึ่ง' ไม่ใช่… นี่เป็นซอฟต์แวร์เชิงพาณิชย์ที่แย่ที่สุดที่ฉันเคยเห็น” Dan O'Dowd ผู้ก่อตั้งโครงการกล่าวในวิดีโอที่เขาทวีตพร้อมกับผลลัพธ์

O'Dowd ผู้ก่อตั้ง Green Hills Software ในปี 1982 และสนับสนุนด้านความปลอดภัยของซอฟต์แวร์ เป็นศัตรูของ Tesla มาระยะหนึ่งแล้ว แม้กระทั่งเสนอราคาให้วุฒิสภาสหรัฐฯ ในแคลิฟอร์เนีย มีศูนย์กลางอยู่ที่การรักษาเทสลา เพื่อเป็นการพูดคุยเกี่ยวกับปัญหาความปลอดภัยทางไซเบอร์ในวงกว้าง การเสนอราคาวุฒิสภาของ O'Dowd สิ้นสุดลงในเดือนมิถุนายนเมื่อเขาแพ้พรรคประชาธิปัตย์หลัก 

เป้าหมายที่ระบุไว้ของ Dawn Project คือ “การทำให้คอมพิวเตอร์ปลอดภัยสำหรับมนุษยชาติ” Tesla FSD เป็นแคมเปญแรกของโครงการ 

ขนาดตัวอย่างเล็ก

เป็นที่น่าสังเกตว่าการทดสอบ FSD 10.12.2 ของ The Dawn Project ซึ่งเกิดขึ้นเมื่อวันที่ 21 มิถุนายนในเมืองโรซามอนด์ รัฐแคลิฟอร์เนีย มีเพียงสามรอบเท่านั้น นั่นเป็นขนาดตัวอย่างที่เล็ก แต่เมื่อพิจารณาจากการทดสอบและสถิติของ Autopilot อื่นๆ ก็ไม่ใช่เรื่องที่ไม่คาดคิด 

ความผิดปกติใน Tesla Autopilot มี ถูกกล่าวหาว่าเป็นปัจจัย in หลาย, ร้ายแรง อุบัติเหตุที่เกี่ยวข้องกับคนขับทั้งสอง และ คนเดินเท้า นานนับปี. ปีที่แล้วTesla ย้อนกลับ ซอฟต์แวร์ FSD ออกหลังจากพบข้อบกพร่องของซอฟต์แวร์ซึ่งทำให้เกิดปัญหากับการเลี้ยวซ้าย บางสิ่งที่เทสลาเป็น ยังคงทำงานต่อไป

ต้นเดือนมิถุนายน การบริหารความปลอดภัยการจราจรบนทางหลวงแห่งชาติของสหรัฐอเมริกา อัพเกรดโพรบของเทสลา Autopilot หลังจากพบเหตุผลที่ต้องพิจารณาว่า "Autopilot และระบบ Tesla ที่เกี่ยวข้องอาจทำให้ปัจจัยมนุษย์รุนแรงขึ้นหรือความเสี่ยงด้านความปลอดภัยทางพฤติกรรม" การสอบสวนยังดำเนินอยู่

หนึ่งสัปดาห์หลังจากประกาศการสอบสวน NHTSA กล่าวว่า Tesla Autopilot (ปฏิบัติการที่ระดับ 2 ไม่ใช่ FSD) คือ มีส่วนร่วมใน 270 จากทั้งหมด 394 อุบัติเหตุจากการช่วยเหลือผู้ขับขี่ - ประมาณ 70 เปอร์เซ็นต์ - เป็นส่วนหนึ่งของการตรวจสอบความปลอดภัยของเทคโนโลยีช่วยเหลือผู้ขับขี่

ล่าสุด กรมยานยนต์แห่งแคลิฟอร์เนียได้ยื่นเรื่องร้องเรียนต่อเทสลา โดยกล่าวหาว่า การอ้างสิทธิ์ที่บิดเบือนความจริง ยานพาหนะสามารถขับได้เอง หาก Tesla ไม่ตอบสนองต่อข้อเรียกร้องของ DMV ภายในสิ้นสัปดาห์นี้ คดีนี้จะถูกตัดสินโดยค่าเริ่มต้น และอาจส่งผลให้ผู้ผลิตรถยนต์สูญเสียใบอนุญาตขายรถยนต์ในแคลิฟอร์เนีย

The Dawn Project กล่าวว่า NHTSA ได้ดำเนินการอย่างรวดเร็วในการออกการเรียกคืนคุณสมบัติต่างๆ ของเทสลา โดยชี้ไปที่การเรียกคืนโค้ด FSD ของ NHTSA ที่กระตุ้นให้เทสลา กลิ้งผ่านป้ายหยุด และ การปิดใช้งาน Tesla Boombox

The Dawn Project กล่าวว่าการวิจัย "มีความจริงจังและเร่งด่วนกว่ามาก" ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน