Tesla Autopilot không nhận thấy các vật thể có kích thước trẻ em trong quá trình thử nghiệm

hình ảnh

Theo một nhóm chiến dịch, phiên bản mới nhất của bản beta Autopilot tự lái hoàn toàn (FSD) của Tesla có một chút bất tiện: nó dường như không nhận thấy các vật thể có kích thước trẻ em trên đường đi của nó.

Trong các bài kiểm tra được thực hiện bởi The Dawn Project bằng cách sử dụng Tesla Model 3 được trang bị FSD phiên bản 10.12.2 (mới nhất, phát hành ngày 1 tháng 120), chiếc xe đã đi được 110 thước Anh (XNUMX mét) đường thẳng giữa hai hàng nón với một con- kích thước ma nơ canh ở cuối.

Nhóm cho biết “tay của người lái thử chưa bao giờ đặt trên vô lăng”. Điều quan trọng là Tesla nói rằng Autopilot không phải là một hệ thống tự động hoàn toàn và chỉ cung cấp chức năng hỗ trợ và kiểm soát hành trình cho người lái. Bạn phải giữ tay lái và có thể tiếp quản bất cứ lúc nào.

Di chuyển với tốc độ khoảng 25mph (khoảng 40kph), Tesla đánh hình nộm mỗi lần

Trong kết quả, Dự án Bình minh cho biết khoảng cách 100 thước là quá đủ để người lái xe chú ý đến một đứa trẻ, đồng thời cho biết: “Phần mềm Lái xe tự lái hoàn toàn của Tesla liên tục thất bại trong bài kiểm tra quan trọng và đơn giản và an toàn này, dẫn đến kết quả có thể gây tử vong”.

“Elon Musk nói rằng phần mềm Xe tự lái hoàn toàn của Tesla thật là 'tuyệt vời'. Nó không phải… Đây là phần mềm thương mại tồi tệ nhất mà tôi từng thấy,” người sáng lập dự án, Dan O'Dowd, cho biết trong một video mà anh ấy đăng trên Twitter cùng với kết quả.

O'Dowd, người cũng thành lập Green Hills Software vào năm 1982 và ủng hộ sự an toàn của phần mềm, đã từng là đối thủ của Tesla trong một thời gian, thậm chí còn đưa ra nỗ lực tranh cử vào Thượng viện Hoa Kỳ ở California rằng tập trung vào việc kiểm soát Tesla như một cách để nói về các vấn đề an ninh mạng rộng hơn. Cuộc tranh cử vào Thượng viện của O'Dowd kết thúc vào tháng 6 khi ông thua cuộc bầu cử sơ bộ của đảng Dân chủ. 

Mục tiêu đã nêu của Dự án Bình minh là “làm cho máy tính trở nên an toàn cho nhân loại”. Tesla FSD là chiến dịch đầu tiên của Dự án. 

Cỡ mẫu nhỏ

Điều đáng chú ý là các cuộc thử nghiệm FSD 10.12.2 của The Dawn Project, diễn ra vào ngày 21 tháng XNUMX tại Rosamond, CA, chỉ bao gồm ba lần chạy. Đó là một cỡ mẫu nhỏ, nhưng khi xem xét các thử nghiệm và thống kê Autopilot khác thì điều đó không có gì bất ngờ. 

Trục trặc trong Tesla Autopilot có được cho là một yếu tố in một số, gây tử vong tai nạn liên quan đến cả hai người lái xengười đi bộ qua nhiều năm. Tesla năm ngoái cuộn lại Phần mềm FSD phát hành sau khi các lỗi phần mềm được phát hiện gây ra sự cố khi rẽ trái, điều mà Tesla đang vẫn đang làm việc

Đầu tháng XNUMX, Cục An toàn Giao thông Đường cao tốc Quốc gia Hoa Kỳ nâng cấp một tàu thăm dò của Tesla Autopilot sau khi tìm ra lý do để xem xét liệu “Autopilot và các hệ thống liên quan của Tesla có thể làm trầm trọng thêm các yếu tố con người hoặc rủi ro về an toàn hành vi hay không”. Cuộc điều tra đang diễn ra.

Một tuần sau khi công bố cuộc thăm dò của mình, NHTSA cho biết Tesla Autopilot (hoạt động ở cấp độ 2, không phải FSD) đã tham gia vào, liên quan tới 270 trong số 394 vụ tai nạn có hỗ trợ lái xe - chiếm khoảng 70% - được xếp vào danh mục như một phần của cuộc điều tra về tính an toàn của công nghệ hỗ trợ lái xe.

Gần đây nhất, Cục Phương tiện Cơ giới California đã đệ đơn khiếu nại Tesla với cáo buộc tuyên bố xuyên tạc các phương tiện có thể lái tự động. Nếu Tesla không phản hồi các yêu cầu của DMV vào cuối tuần này, vụ việc sẽ được giải quyết theo mặc định và có thể dẫn đến việc nhà sản xuất ô tô này bị mất giấy phép bán ô tô ở California.

Dự án Dawn cho biết NHTSA đã hành động nhanh chóng để đưa ra các lệnh thu hồi đối với các tính năng của Tesla, chỉ ra việc thu hồi mã FSD do NHTSA thúc đẩy của Tesla đã cho phép Teslas lăn qua biển báo dừngvô hiệu hóa Tesla Boombox

Dự án Bình minh cho biết nghiên cứu của họ “nghiêm túc và cấp bách hơn nhiều”. ®

Dấu thời gian:

Thêm từ Đăng ký