AIを規制するにはハードウェアから始めるべきだとボフィン氏は主張する

AIを規制するにはハードウェアから始めるべきだとボフィン氏は主張する

AIを規制するにはハードウェアから始めるべきだとボフィン氏はPlatoBlockchain Data Intelligenceを主張する。垂直検索。あい。

人工知能の破壊的な可能性を制限するという私たちの探求において、ケンブリッジ大学の新しい論文は、核兵器の無許可発射を阻止するために開発されたようなリモートキルスイッチとロックアウトを、人工知能を動かすハードウェアに組み込むことを示唆しています。

紙 [PDF] には、多数の学術機関といくつかの OpenAI からの声が含まれており、これらのモデルが依存するハードウェアを規制することが、その悪用を防ぐ最善の方法である可能性があると主張しています。

「AI関連のコンピューティングは、特に効果的な介入ポイントです。検出可能、除外可能、定量化可能であり、非常に集中したサプライチェーンを通じて生産されます」と研究者らは主張する。

パラメータが 1 兆を超えると考えられている最も多量なモデルをトレーニングするには、数万の GPU またはアクセラレータと数週間、場合によっては数か月の処理時間といった膨大な物理インフラストラクチャが必要です。このため、これらのリソースの存在と相対的なパフォーマンスを隠すことが困難になっている、と研究者らは述べています。

さらに、これらのモデルのトレーニングに使用される最先端のチップは、Nvidia、AMD、Intel などの比較的少数の企業によって製造されているため、政策立案者はこれらの製品の販売を懸念のある人物や国に制限することができます。

これらの要因は、半導体製造におけるサプライチェーンの制約などの他の要因とともに、政策立案者にAIインフラストラクチャがどのようにどこに展開され、誰がアクセスを許可され、誰がアクセスを許可されているかをよりよく理解し、悪用に対する罰則を適用する手段を提供すると論文は主張している。 。

インフラストラクチャの制御

この論文では、政策立案者が AI ハードウェア規制に取り組む可能性のあるさまざまな方法を強調しています。可視性を向上させ、AI アクセラレータの販売を制限することを目的とした提案を含む提案の多くは、すでに国家レベルで実行されています。

昨年、米国大統領ジョー・バイデンは、 行政命令 大規模なデュアルユース AI モデルを開発している企業と、それを実行できるインフラストラクチャ ベンダーを特定することを目的としています。 彼らを訓練する。よく知らない方のために説明すると、「デュアルユース」とは、民間用途と軍事用途で二重の役割を果たすことができるテクノロジーを指します。

最近では、米国商務省が 提案された この規制により、米国のクラウドプロバイダーは、懸念される人物や国が輸出制限を回避することを防ぐために、より厳格な「顧客認識」ポリシーの導入が求められることになる。

研究者らは、誤った報告が弾道ミサイルの大量生産につながったミサイル・ギャップ論争によって引き起こされたような、新たな軍拡競争を回避するのに役立つ可能性があるため、この種の可視性は貴重であると指摘している。これらの報告要件を実行すると、顧客のプライバシーが侵害されるリスクがあり、さらには機密データの漏洩につながる可能性があると警告しています。

一方、貿易面では商務省は引き続き ステップアップ 規制により、中国に販売される加速器の性能が制限されます。しかし、以前に報告したように、これらの取り組みにより、中国のような国が米国製チップを入手するのは困難になっていますが、完璧とは程遠いです。

これらの制限に対処するために、研究者らは、AIチップの販売を世界規模で登録し、AIチップが原産国を離れた後もライフサイクル全体にわたって追跡できるようにすることを提案した。彼らは、そのようなレジストリは各チップに一意の識別子を組み込むことができ、それがウイルス対策に役立つ可能性があると示唆している。 密輸 コンポーネントの。

スペクトルのより極端な例として、悪意のあるアプリケーションでの使用を防ぐためにキルスイッチをシリコンに焼き込むことができる可能性があると研究者は示唆しています。

理論的には、これにより規制当局はチップへのアクセスを遠隔から遮断することで、機密技術の悪用に迅速に対応できる可能性があるが、これにはリスクがないわけではないと著者らは警告している。これは、このようなキル スイッチが誤って実装された場合、サイバー犯罪者の標的になる可能性があることを意味します。

別の提案では、大規模に展開する前に、潜在的にリスクのある AI トレーニング タスクについて複数の関係者が承認する必要があります。 「核兵器は、許容行動リンクと呼ばれる同様のメカニズムを使用している」と彼らは書いている。

核兵器の場合、これらのセキュリティロックは、一人の人間が暴徒になって先制攻撃を開始することを防ぐように設計されています。ただし、AI の場合は、個人または企業がクラウド内で特定のしきい値を超えてモデルをトレーニングしたい場合は、まずそのための承認を得る必要があるという考えです。

強力なツールではありますが、研究者らは、これが望ましい AI の開発を妨げるという逆効果になる可能性があると観察しています。議論は、核兵器の使用にはかなり明確な結果があるが、AI は常に白か黒かが決まるわけではない、ということのようです。

しかし、これがあなたの好みにとって少しディストピアすぎると感じるなら、この論文は社会全体の改善のための AI リソースの再配分にセクション全体を割いています。そのアイデアは、政策立案者が協力して、AI コンピューティングを悪用する可能性の低いグループが利用しやすくできるというもので、「割り当て」と呼ばれる概念です。

AI開発を規制することの何が悪いのか?

なぜこんな苦労をするのでしょうか?この論文の著者らは、物理ハードウェアは本質的に制御が容易であると主張しています。

ハードウェアと比較すると、「AI開発の他のインプットとアウトプット、つまりデータ、アルゴリズム、トレーニングされたモデルは、簡単に共有でき、競合性のない無形の財であり、本質的に制御が困難である」と論文には書かれている。

議論は、一度モデルが公に公開されたり、漏洩されたりすると、魔神を瓶に戻してネット全体への拡散を止めることはできないということです。

研究者らはまた、モデルの悪用を防止する取り組みが信頼できないことが判明したことも強調した。一例として、著者らは、モデルが不快な言葉を生成するのを防ぐことを目的としたメタのラマ 2 の安全装置を研究者が簡単に解除できたことを強調した。

極端に言えば、十分に進歩したデュアルユースモデルが採用されて、 開発 化学兵器または生物兵器の。

この論文は、AI ハードウェア規制は特効薬ではなく、業界の他の側面における規制の必要性を排除するものではないことを認めています。

しかし、CEO の Sam Altman 氏の考えを考慮すると、数名の OpenAI 研究者の参加を無視するのは困難です。 試み AI規制に関する言説をコントロールするためです。 ®

タイムスタンプ:

より多くの 登録