特斯拉 Autopilot 在测试中未能注意到儿童大小的物体

图片

特斯拉的全自动驾驶 (FSD) Autopilot 测试版的最新版本有一个小问题:据一个活动组织称,它似乎没有注意到路径中的儿童大小的物体。

在 The Dawn Project 使用配备 FSD 版本 3(最新版本,10.12.2 月 1 日发布)的特斯拉 Model 120 进行的测试中,车辆在两排锥体之间有 110 码(XNUMX 米)的直线轨道,其中有一个孩子——最后是大小模特。

该组织称“试驾员的手从未在方向盘上”。 至关重要的是,特斯拉表示 Autopilot 不是一个完全自主的系统,只为驾驶员提供辅助和巡航控制功能。 你应该把手放在方向盘上,随时可以接管。

以大约 25 英里/小时(约 40 公里/小时)的速度行驶, 特斯拉每次都撞到假人

在结果中,黎明计划表示 100 码的距离足以让人类驾驶员注意到一个孩子,并指出:“特斯拉的全自动驾驶软件反复未能通过这个简单且安全的关键测试,可能会导致致命的结果。”

“埃隆马斯克说特斯拉的全自动驾驶软件‘很棒’。 不是……这是我见过的最糟糕的商业软件,”该项目的创始人 Dan O'Dowd 在他发布的一段视频中说道。

奥多德也在 1982 年创立了 Green Hills Software 并倡导软件安全,一段时间以来一直是特斯拉的反对者,甚至在加利福尼亚州发起了对美国参议院的竞标。 以监管特斯拉为中心 作为谈论更广泛的网络安全问题的一种方式。 奥多德的参议院竞选于 XNUMX 月结束,当时他输掉了民主党的初选。 

黎明计划的既定目标是“使计算机对人类安全”。 Tesla FSD 是该项目的第一个活动。 

小样本

值得注意的是,黎明计划对 FSD 10.12.2 的测试于 21 月 XNUMX 日在加利福尼亚州罗莎蒙德进行,仅包含三个运行。 这是一个很小的样本量,但考虑到其他 Autopilot 测试和统计数据,这并不意外。 

特斯拉自动驾驶仪的故障有 被引用为据称是一个因素 in 几个, 致命 涉及两名司机的事故行人 这些年来。 去年特斯拉 回滚 在发现导致左转问题的软件错误后,FSD 软件发布,特斯拉就是这样 仍在努力

XNUMX月初,美国国家公路交通安全管理局 升级了特斯拉的探头 Autopilot 在找到理由调查“Autopilot 和相关的特斯拉系统是否会加剧人为因素或行为安全风险”之后。 调查正在进行中。

在宣布调查一周后,NHTSA 表示特斯拉 Autopilot(以 2 级运行,而不是 FSD) 卷入到 在 270 起驾驶员辅助事故中,有 394 起(约占 70%)被列为驾驶员辅助技术安全性调查的一部分。

最近,加州汽车部对特斯拉提起诉讼,指控其 虚假陈述的索赔 车辆可以自动驾驶。 如果特斯拉在本周末之前未对 DMV 的索赔作出回应,此案将默认和解,并可能导致该汽车制造商失去在加州销售汽车的许可证。

黎明计划表示,NHTSA 已迅速采取行动,对特斯拉的功能进行召回,并指出特斯拉在 NHTSA 的推动下召回了 FSD 代码,这使得特斯拉能够 滚过停车标志禁用特斯拉 Boombox

黎明计划表示,它的研究“要严肃得多、紧迫得多”。 ®

时间戳记:

更多来自 注册