Tesla Autopilot は、テストで子供サイズのオブジェクトを認識できません

画像

キャンペーン グループによると、Tesla の完全自動運転 (FSD) Autopilot ベータ版の最新バージョンには、少し問題があります。

FSD バージョン 3 (10.12.2 月 1 日にリリースされた最新のもの) を搭載したテスラ モデル 120 を使用して Dawn Project が実施したテストでは、車両には 110 列のコーンの間に XNUMX ヤード (XNUMX メートル) の直線軌道が与えられました。最後にサイズのマネキン。

このグループは、「テスト ドライバーの手は決してハンドルを握っていませんでした」と述べています。 重要なことに、Tesla は、Autopilot は完全に自律的なシステムではなく、ドライバーに支援とクルーズ コントロール機能を提供するだけであると述べています。 ハンドルを握り、いつでも引き継ぐことができるはずです。

約 25mph (約 40kph) で移動すると、 テスラは毎回ダミーを打つ

結果のうち、Dawn Project は、100 ヤードの距離は人間のドライバーが子供に気付くには十分すぎると述べ、次のように述べています。

「イーロン マスクは、テスラの完全自動運転ソフトウェアは「素晴らしい」と言っています。 そうではありません…これは私が今まで見た中で最悪の商用ソフトウェアです」と、プロジェクトの創設者であるダン・オダウドは、結果とともにツイートしたビデオで述べました。

同じく 1982 年に Green Hills Software を設立し、ソフトウェアの安全性を提唱している O'Dowd は、しばらくの間、Tesla の反対者であり、カリフォルニア州の米国上院への入札を開始しました。 テスラの取り締まりを中心に より広範なサイバーセキュリティの問題について話す方法として。 オダウドの上院への立候補は、XNUMX 月に民主党の予備選挙で敗れ、終了しました。 

Dawn Project の目標は、「コンピューターを人類にとって安全なものにする」ことです。 テスラ FSD は、プロジェクトの最初のキャンペーンです。 

小さいサンプルサイズ

10.12.2 月 21 日にカリフォルニア州ロザモンドで行われた Dawn Project の FSD XNUMX のテストは、わずか XNUMX 回の実行で構成されていたことは注目に値します。 これは小さなサンプル サイズですが、他のオートパイロット テストと統計を考慮すると、予想外ではありません。 

テスラ オートパイロットの誤動作 要因であると言われている in いくつかの, 致命的な 両方のドライバーが関与する事故 および 歩行者 長年にわたって。 去年のテスラ ロールバックされた 左折時に問題を引き起こすソフトウェアのバグが発見された後、FSD ソフトウェアがリリースされました。 まだ取り組んでいます

XNUMX 月初旬、米国高速道路交通安全局は、 テスラのプローブをアップグレード オートパイロットは、「オートパイロットと関連するテスラ システムが人的要因や安全行動上のリスクを悪化させる可能性がある」かどうかを調査する理由を見つけた後です。 調査は進行中です。

調査を発表してから 2 週間後、NHTSA はテスラ オートパイロット (FSD ではなくレベル XNUMX で動作) が 巻き込まれている 270 件の運転支援事故のうち 394 件 (約 70%) が、運転支援技術の安全性に関する調査の一環としてカタログ化されました。

最近では、カリフォルニア州自動車局がテスラに対して、 虚偽の主張 車両は自動運転できます。 テスラが今週末までに DMV の主張に応答しない場合、訴訟はデフォルトで解決され、自動車メーカーはカリフォルニア州で自動車を販売するライセンスを失う可能性があります。

Dawn Project は、NHTSA がテスラの機能に関するリコールを発行するために迅速に行動したと述べ、テスラの NHTSA に拍車をかけた FSD コードのリコールを指摘した。 一時停止の標識を通り過ぎるテスラブームボックスの無効化

Dawn Project は、その研究は「はるかに深刻で緊急」であると述べています。 ®

タイムスタンプ:

より多くの 登録

統一された力

ソースノード: 1902883
タイムスタンプ: 2023 年 10 月 17 日