Tesla Autopilot은 테스트에서 어린이 크기의 물체를 감지하지 못함

영상

캠페인 그룹에 따르면 Tesla의 완전 자율 주행(FSD) Autopilot 베타의 최신 버전에는 약간의 꼬임이 있습니다. 경로에서 어린이 크기의 물체를 알아차리지 못하는 것으로 보입니다.

The Dawn Project에서 FSD 버전 3(최신 버전, 10.12.2월 1일 출시)가 장착된 Tesla Model 120를 사용하여 수행한 테스트에서 차량에는 두 줄의 원뿔 사이에 110야드(XNUMX미터)의 직선 트랙이 주어졌습니다. 끝에 마네킹 크기.

그룹은 "테스트 드라이버의 손이 운전대를 잡은 적이 없다"고 말합니다. 결정적으로 Tesla는 Autopilot이 완전 자율 시스템이 아니며 운전자에게 지원 및 크루즈 컨트롤 기능만 제공한다고 말합니다. 당신은 항상 운전대를 잡고 있어야 하고 언제든지 그 자리를 차지할 수 있어야 합니다.

약 25mph(약 40kph)로 주행하면 Tesla는 매번 더미를 쳤습니다.

Dawn Project는 결과 중 100야드의 거리가 인간 운전자가 어린이를 알아차리기에 충분하다고 말했습니다.

“Elon Musk는 Tesla의 완전 자율주행 소프트웨어가 '놀랍다'고 말합니다. 그것은… 이것은 내가 본 것 중 최악의 상용 소프트웨어입니다.”라고 프로젝트 설립자인 Dan O'Dowd가 결과와 함께 트위터에 올린 비디오에서 말했습니다.

1982년 Green Hills Software를 설립하고 소프트웨어 안전을 옹호한 O'Dowd는 한동안 Tesla의 반대자였습니다. Tesla를 중심으로 광범위한 사이버 보안 문제에 대해 이야기하는 방법입니다. 오다우드의 상원 출마는 XNUMX월 민주당 경선에서 패하면서 끝났다. 

Dawn Project의 명시된 목표는 "인류를 위해 컴퓨터를 안전하게 만드는 것"입니다. Tesla FSD는 프로젝트의 첫 번째 캠페인입니다. 

작은 표본 크기

10.12.2월 21일 CA Rosamond에서 진행된 The Dawn Project의 FSD XNUMX 테스트가 XNUMX번의 실행으로만 구성되었다는 점은 주목할 가치가 있습니다. 이는 작은 샘플 크기이지만 다른 Autopilot 테스트 및 통계를 고려하면 예상치 못한 일이 아닙니다. 

Tesla Autopilot의 오작동은 요인으로 지목되었다. in 몇몇의, 치명적인 두 운전자가 관련된 사고보행자 수년에 걸쳐. 작년 테슬라 복구하다 Tesla가 좌회전에 문제를 일으키는 소프트웨어 버그가 발견된 후 FSD 소프트웨어 출시 아직 작업 중

XNUMX월 초 미국 도로교통안전국 Tesla의 프로브 업그레이드 Autopilot은 "Autopilot 및 관련 Tesla 시스템이 인적 요소 또는 행동 안전 위험을 악화시킬 수 있는지"를 조사할 이유를 찾은 후 조사가 진행 중입니다.

NHTSA는 조사를 발표한 지 일주일 후 Tesla Autopilot(FSD가 아닌 레벨 2에서 작동)이 ~에 관여하는 270건의 운전자 지원 사고 중 394건(약 70%)은 운전자 지원 기술의 안전성에 대한 조사의 일환으로 분류되었습니다.

가장 최근에 캘리포니아 자동차국(California Department of Motor Vehicles)은 Tesla를 허위 주장 차량이 자율적으로 운전할 수 있습니다. Tesla가 이번 주 말까지 DMV의 주장에 응답하지 않으면 이 사건은 기본적으로 해결되며 자동차 제조업체는 캘리포니아에서 자동차를 판매할 수 있는 면허를 잃을 수 있습니다.

Dawn Project는 NHTSA가 Tesla 기능에 대한 리콜을 신속하게 시행했으며 Tesla가 FSD 코드를 리콜하여 Tesla가 정지 표지판을 지나 롤 그리고 Tesla 붐박스 비활성화

Dawn Project는 그 연구가 "훨씬 더 심각하고 시급하다"고 말합니다. ®

타임 스탬프 :

더보기 등록

통일된 힘

소스 노드 : 1902883
타임 스탬프 : 17년 2023월 XNUMX일