CISA のロードマップ: 信頼できる AI 開発への道筋を描く

CISA のロードマップ: 信頼できる AI 開発への道筋を描く

CISA のロードマップ: 信頼できる AI 開発のコースを描く PlatoBlockchain データ インテリジェンス。垂直検索。あい。

解説
人工知能テクノロジーの急速な導入により、AI 専門家、政策立案者、テクノロジー業界の巨人、国家、世界のリーダーの間で深刻なサイバー懸念が生じています。これに応じて、サイバーセキュリティ・インフラストラクチャ庁 (CISA) は、 2023 ~ 2024 年「人工知能のための CISA ロードマップ」 の指示に従って、安全で信頼できる AI の開発と使用を実現することを目的としています。 ホワイトハウス大統領令 14110.

CISA は「」を発表しました。2023年~2025年に向けた「戦略計画」 アメリカ国民に安全で回復力のあるインフラを提供するという使命を持っています。 AI ロードマップは、戦略計画で強調されているのと同じ 4 つの目標を適応させたものです。

  • サイバー防御: AI システムは、組織が新たなサイバー脅威だけでなく高度なサイバー脅威に対する防御を強化するのに役立ちますが、AI ベースのソフトウェア システムは次のような問題を引き起こします。 リスクの数 堅牢性が必要な AI防御。このロードマップは、AI の有益な利用を促進すると同時に、国家システムを AI ベースの脅威から保護することを目的としています。

  • リスクの軽減と回復力: 重要なインフラ 組織は、自社のサイバー回復力を維持および強化するために AI システムをますます使用しています。 CISA はそのロードマップで、AI ベースのソフトウェア システムの責任あるリスク認識を持った導入を促進することを目指しています。設計により保護」 - 製品の開発ライフサイクルの設計段階でセキュリティが実装され、悪用可能な欠陥を根本から減らすことができます。

  • 運営協力: AI テクノロジーの普及に伴い、米国国民や重要インフラ部門が標的を絞った脅威にさらされる可能性があり、組織、法執行機関、国際パートナーからの情報共有と連携した対応が必要になる可能性があります。 CISA は、関連する利害関係者間の調整と調整を改善するのに役立つフレームワークを開発する予定です。

  • 代理店の統合: CISA は、AI システムをより一貫して使用できるように、政府機関全体で AI ソフトウェア システムを統一および統合することを目指しています。 CISA はまた、AI システムを最適に活用できる人材の採用と育成も計画しています。

AI ロードマップでは、セキュリティの負担は AI 消費者ではなく AI 開発者にあります

歴史的に、AI ソフトウェア メーカーは設計上安全な製品の構築に抵抗しており、AI 消費者にセキュリティの負担を強いてきました。 CISA AI ロードマップでは、AI システム メーカーが開発ライフサイクル全体を通じてセキュア バイ デザインの原則を採用することが義務付けられています。これには、セキュア・バイ・デザインをビジネスの最優先事項とすること、セキュリティの結果を顧客に責任を負わせること、抜本的な透明性と説明責任を持って製品開発を主導することが含まれます。

CISAは定められた目標を達成するために5つの取り組みを実施する計画

CISA は、上記のロードマップを統合し加速するための 5 つの取り組み方針を特定しました。

  • AI の責任ある使用: CISA は、AI 対応ソフトウェア ツールを導入してサイバー防御を強化し、重要なインフラをサポートする予定です。すべてのシステムとツールは厳格な選択プロセスを通過し、CISA が AI 関連システムが責任を持って、安全で、倫理的で、安全に使用できることを保証します。 CISA はまた、連邦調達プロセス、適用される法律と政策、プライバシー、公民権と自由と整合性を保つだけでなく、安全に統合するための IT セキュリティ慣行をレビューしながら AI モデルを継続的に評価するアプローチも採用する堅牢なガバナンス プロセスを導入します。テクノロジー。

  • AI システムを保証します。 より安全で復元力のある AI ソフトウェアの開発と実装を構築するために、CISA は支援する予定です 設計による安全性 幅広い利害関係者 (連邦文民政府機関、民間企業、州、地方、部族、準州政府など) 向けにセキュリティのベスト プラクティスとガイダンスを開発し、脆弱性開示プロセスを指定して強力な脆弱性管理慣行の採用を推進します。 AI システムのセキュリティ テストとレッド チーム演習に関するガイダンスを提供します。

  • AI の悪意のある使用から重要なインフラストラクチャを保護します。 CISA は政府機関や業界パートナーと提携します。 共同サイバー防衛コラボレーティブ AI ツールを開発、テスト、評価し、進化するために協力する AI の脅威。 CISAは、新たなリスクに対する意識を高めるための資料を公開し、AIリスクの評価と治療のための適切な分析枠組みを決定するためのリスク管理手法を評価する予定だ。

  • 省庁間、国際パートナー、一般の人々と協力します。 意識を高め、脅威情報を共有し、インシデント対応と調査能力を向上させるために、CISA は、AI ワーキンググループ、省庁間の会議への出席または参加、国土安全保障省の組織との緊密な連携などの協力的なアプローチを促進する予定です。 CISA は、その政策と戦略が政府の方針と一致していることを確認するために、省庁全体で協力します。 政府全体 にアプローチし、安全な AI のための国際的なベスト プラクティスの採用を促進するために国際的なパートナーと協力する予定です。

  • AI の専門知識を従業員に拡大: 人間 AI ベースおよび非 AI ベースのサイバー脅威を検出し、AI システムにエラー、バイアス、操作がないことを確認するには、警戒、監視、直観が常に必要です。人間の直感と警戒心は、強力なセキュリティ意識の取り組みによってのみ強化できます。このため、CISA は、AI ソフトウェア システムと技術について従業員を継続的に教育し、AI の専門知識を持つ従業員を採用し、状況に応じた演習を含むセキュリティ意識向上トレーニング プログラムを実施して、従業員が AI ベースの法的、倫理的、政策的側面を確実に理解できるようにすることを計画しています。技術的な側面だけでなく、システムも重要です。 

CISA ロードマップで概説されている取り組みを通じて、政府機関は、国家のためのより強固なサイバーセキュリティ体制を構築し、AI の悪意のある使用から重要なインフラストラクチャを保護し、AI ベースのツールとシステムの中核的なビジネス要件としてセキュリティを優先したいと考えています。

タイムスタンプ:

より多くの 暗い読書