AI の保護: 知っておくべきこと

AI の保護: 知っておくべきこと

AI の保護: PlatoBlockchain データ インテリジェンスについて知っておくべきこと。垂直検索。あい。

機械学習ツールは長年にわたって標準的なビジネスおよび IT ワークフローの一部でしたが、展開中の生成 AI 革命により、これらのツールの採用と認知度が急速に増加しています。 AI はさまざまな業界で効率性のメリットをもたらしますが、これらの強力な新しいツールには特別なセキュリティ上の考慮事項が必要です。

AI のセキュリティ保護はどのように違うのでしょうか?

現在の AI 革命は新しいものかもしれませんが、Google などのセキュリティ チームは、数十年とは言わないまでも、長年にわたり AI セキュリティに取り組んできました。 いろいろな意味で、AI ツールを保護するための基本原則は、一般的なサイバーセキュリティのベスト プラクティスと同じです。 暗号化や強力な ID などの基本的な技術を通じてアクセスを管理し、データを保護する必要性は、AI が関与しているからといって変わるわけではありません。

AI の保護が異なる領域の XNUMX つは、データ セキュリティの側面です。 AI ツールはデータによって駆動され、最終的にはプログラムされるため、トレーニング データ ポイズニングなどの新たな攻撃に対して脆弱になります。 AI ツールに欠陥のあるデータ (または破損した正規のトレーニング データ) を供給できる悪意のある攻撃者は、従来のシステムで見られるものよりも複雑な方法で AI ツールに損害を与えたり、完全に破壊したりする可能性があります。 また、ツールが積極的に「学習」し、時間の経過とともに入力に基づいて出力が変化する場合、組織はそのツールが本来の意図した機能から逸脱しないように保護する必要があります。

従来の (AI 以外の) 大規模エンタープライズ システムでは、そこに投入したものから得られるものはそのままです。 悪意のある入力がなければ、悪意のある出力は表示されません。 しかし、として Google CISO Phil Venables 氏は最近のポッドキャストで次のように述べています。, 「AI システムを実装するには、入力と出力の管理について考える必要があります。」
AI システムの複雑さと動的な性質により、従来のシステムよりもセキュリティを確保することが困難になります。 AI システムに何が入っているかを監視する入力段階と、出力が正しく信頼できるものであることを確認する出力段階の両方で注意を払う必要があります。

安全な AI フレームワークの実装

AI システムが意図したとおりに動作するようにするには、AI システムを保護し、新たな脅威を予測することが最優先事項です。 Google のセキュア AI フレームワーク (SAIF) とその AI の保護: 似ているのか、それとも違うのか? このレポートは、AI の開発に関連する特定のセキュリティ上の課題と新たな脆弱性についてどのように考え、対処するかについての概要を提供することから始めるのに適しています。

SAIF は、組織がどの AI ツールを使用し、どのような特定のビジネス問題に対処するかを明確に理解することから始めます。 これを事前に定義することは、組織内の誰が関与するのか、ツールがどのデータにアクセスする必要があるのか​​を理解できるようになるため、重要です (これは、AI を保護するために必要な厳格なデータ ガバナンスとコンテンツの安全性確保に役立ちます)。 AI の適切な使用例と制限事項を組織全体に伝えることも良い考えです。 このポリシーは、AI ツールの非公式な「シャドー IT」使用を防ぐのに役立ちます。

ツールの種類と使用例を明確に特定した後、組織は AI ツールを管理および監視するチームを編成する必要があります。 そのチームには、IT チームとセキュリティ チームが含まれる必要がありますが、リスク管理チームと法務部門も参加し、プライバシーと倫理上の懸念も考慮する必要があります。

チームを特定したら、トレーニングを開始します。 組織内で AI を適切に保護するには、ツールとは何か、何ができるのか、どこで問題が発生する可能性があるのか​​を全員が理解できるようにするための入門書から始める必要があります。 AI の機能と欠点についてトレーニングを受けていない従業員がツールを手に入れると、問題のあるインシデントが発生するリスクが大幅に高まります。

これらの予備的な手順を実行すると、組織内で AI を保護するための基盤が築かれました。 がある Google の SAIF の XNUMX つのコア要素 これを実装する必要があります。デフォルトで安全な基盤から始めて、効果的な修正とフィードバックのサイクルを作成することに進みます。 赤いチーム.

AI を保護するもう XNUMX つの重要な要素は、AI ツールを手動でレビューするほうが良い可能性があることを認識しながら、人間が可能な限り最新情報を把握できるようにすることです。 組織内で AI の使用を進めるには、ツール自体ではなくチームのトレーニングと再トレーニングが不可欠です。 AI が、組織内の実際の人間が理解して再確認できる範囲を超えた動きをすると、問題のリスクが急速に高まります。

AI セキュリティは急速に進化しているため、現場で働く人は常に警戒し続けることが重要です。 AI が世界中の企業や個人を支援し続けるためには、潜在的な新たな脅威を特定し、それらを防止または軽減するための対策を開発することが重要です。

続きを読む Google Cloud からのパートナーの視点

タイムスタンプ:

より多くの 暗い読書