サイバーセキュリティ プログラムで AI を安全に設計する方法

サイバーセキュリティ プログラムで AI を安全に設計する方法

サイバーセキュリティ プログラムで AI を安全に設計する方法 PlatoBlockchain データ インテリジェンス。垂直検索。あい。

XNUMX 月末、サイバーセキュリティ企業 Group-IB は注目すべき事実を明らかにしました。 ChatGPT アカウントに影響を与えたセキュリティ侵害。 同社は、過去 100,000 年間にわたって、その後違法なダーク Web マーケットプレイスで取引されていた、ChatGPT 認証情報を備えた XNUMX 台もの侵害されたデバイスを特定しました。 この侵害により、機密情報を含む検索クエリがハッカーにさらされることになるため、ChatGPT アカウントのセキュリティ侵害に対処するための即時対応が求められました。

別の事件では、サムスンは XNUMX か月未満の間に、従業員が不注意で事故を起こした事例が XNUMX 件発生したと記録されています。 ChatGPTを通じて機密情報が漏洩。 ChatGPT は自身のパフォーマンスを向上させるためにユーザー入力データを保持しているため、サムスンに属するこれらの貴重な企業秘密は現在、AI サービスを提供する企業である OpenAI によって所有されています。 これは、サムスンの機密情報の機密性とセキュリティに関して重大な懸念を引き起こします。

データの収集と使用に関する厳格なガイドラインを義務付ける EU の一般データ保護規則 (GDPR) への ChatGPT の準拠についてのこのような懸念のため、 イタリアは全国的に禁止令を出した ChatGPT の使用について。

AI および生成 AI アプリケーションの急速な進歩により、ビジネス インテリジェンス、製品、および運用の成長を加速する新たな機会が開かれています。 しかし、サイバーセキュリティプログラムの所有者は、法律の制定を待つ間、データのプライバシーを確​​保する必要があります。

パブリック エンジンとプライベート エンジン

概念をよりよく理解するために、パブリック AI とプライベート AI を定義することから始めましょう。 パブリック AI は、多くの場合ユーザーまたは顧客から提供されるデータセットでトレーニングされた、公的にアクセス可能な AI ソフトウェア アプリケーションを指します。 パブリック AI の代表的な例は、テキスト記事、画像、ビデオなど、インターネットから公開されているデータを活用する ChatGPT です。

パブリック AI には、特定のユーザーや組織に限定されないデータセットを利用するアルゴリズムも含まれる場合があります。 したがって、パブリック AI の顧客は、データが完全にプライベートのままではない可能性があることを認識する必要があります。

一方、プライベート AI には、特定のユーザーまたは組織に固有のデータに関するアルゴリズムのトレーニングが含まれます。 この場合、機械学習システムを使用して、請求書や納税フォームなどの特定のデータセットを使用してモデルをトレーニングすると、そのモデルは組織専用のままになります。 プラットフォーム ベンダーは、お客様のデータを利用して独自のモデルをトレーニングすることはありません。そのため、プライベート AI は、競合他社を支援するためにお客様のデータが使用されることを防ぎます。

AI をトレーニング プログラムとポリシーに統合する

ベスト プラクティスを遵守しながら AI アプリケーションを実験、開発、製品やサービスに統合するには、サイバーセキュリティ スタッフは次のポリシーを実践する必要があります。

ユーザーの認識と教育: AI の利用に伴うリスクについてユーザーに教育し、機密情報を送信する際には慎重になるよう奨励します。 安全な通信の実践を促進し、AI システムの信頼性を検証するようユーザーにアドバイスします。

  • データの最小化: AI エンジンには、タスクを完了するために必要な最小限のデータのみを提供します。 AI 処理に関係のない不要な情報や機密情報を共有することは避けてください。
  • 匿名化と匿名化: 可能な限り、AI エンジンに入力する前にデータを匿名化または匿名化します。 これには、AI 処理に必要のない個人識別情報 (PII) やその他の機密属性を削除することが含まれます。

安全なデータ取り扱い慣行: 機密データを扱うための厳格なポリシーと手順を確立します。 アクセスを許可された担当者のみに制限し、強力な認証メカニズムを適用して不正アクセスを防止します。 データ プライバシーのベスト プラクティスについて従業員をトレーニングし、データのアクセスと使用状況を追跡するためのログ記録と監査のメカニズムを実装します。

保存と廃棄: データ保持ポリシーを定義し、不要になったデータを安全に破棄します。 適切に実装する データ廃棄メカニズム安全な削除や暗号化による消去など、データが不要になった後に復元できないようにします。

法的およびコンプライアンスの考慮事項: AI エンジンに入力するデータの法的影響を理解します。 ユーザーが AI を使用する方法が、次のような関連規制に準拠していることを確認します。 データ保護法 または業界固有の標準。

ベンダーの評価: サードパーティベンダーが提供するAIエンジンを利用する場合は、そのセキュリティ対策について十分な評価を行ってください。 ベンダーがデータのセキュリティとプライバシーに関する業界のベスト プラクティスに従っていること、およびデータを保護するための適切な保護措置を講じていることを確認してください。 たとえば、ISO および SOC 認証は、ベンダーの認知された標準への準拠と情報セキュリティへの取り組みについての貴重な第三者検証を提供します。

AI の使用許諾ポリシー (AUP) を正式に作成します。 AI の利用に関するポリシーでは、ポリシーの目的と目的を概説し、AI テクノロジーの責任ある倫理的な使用を強調する必要があります。 AI 利用の範囲と境界を指定して、許容可能なユースケースを定義する必要があります。 AUP は、AI の使用における透明性、説明責任、責任ある意思決定を促進し、組織内で倫理的な AI 実践の文化を促進する必要があります。 定期的なレビューと更新により、進化する AI テクノロジーと倫理に対するポリシーの関連性が保証されます。

結論

これらのガイドラインに従うことで、プログラム所有者は機密情報を保護し、倫理的および専門的基準を維持しながら AI ツールを効果的に活用できます。 AI が生成した資料の正確性を確認すると同時に、応答プロンプトの生成に使用される入力データを保護することが重要です。

タイムスタンプ:

より多くの 暗い読書