企業は生成 AI ツールを保護するために複数の方法に依存しています

企業は生成 AI ツールを保護するために複数の方法に依存しています

企業は、生成 AI ツール PlatoBlockchain データ インテリジェンスを保護するために複数の方法に依存しています。垂直検索。あい。

より多くの組織が生成型 AI テクノロジーを採用し、ピッチを作成し、助成金申請を完了し、文書を作成する 定型コード — セキュリティ チームは、AI ツールをどのように保護するかという新たな問題に対処する必要性を認識しています。

Gartner の最近の調査では、回答者の XNUMX 分の XNUMX が次のいずれかを報告しました。 AI ベースのアプリケーション セキュリティ ツールの使用または実装 組織内での生成 AI の使用によってもたらされるリスクに対処するため。

現在、プライバシー強化テクノロジー (PET) が最も多く使用されており、回答者の 7% が使用しており、19% の企業が導入しています。このカテゴリには、次のような個人データを保護する方法が含まれます。 同型暗号, AIが生成した合成データ, 安全なマルチパーティ計算, 連携学習, 差別的なプライバシー。しかし、17% は自分たちの環境に PET を導入する計画を持っていません。

モデルの説明可能性のためのツールを使用または実装しているのは 19% のみですが、回答者の間では、生成的な AI リスクに対処するためにこれらのツールを探索および理解することに大きな関心 (56%) があります。 Gartner によると、説明可能性、モデル監視、AI アプリケーション セキュリティ ツールはすべて、オープンソース モデルまたは独自モデルで使用でき、企業ユーザーが必要とする信頼性と信頼性を実現できます。

回答者が最も懸念しているリスクには、不正確または偏った出力 (58%)、および AI 生成コードの脆弱性または秘密の漏洩 (57%) が含まれます。注目すべきは、43% が、組織に対する最大のリスクとして、AI によって生成されたコンテンツから生じる潜在的な著作権またはライセンス問題を挙げていることです。

「トレーニングに使用されているデータモデルについては依然として透明性がありません。そのため、バイアスやプライバシーに関連するリスクを理解し、推定することは非常に困難です」と、ある経営幹部はガートナーの調査に答えて書いている。

XNUMX月に米国国立標準技術研究所は、 (NIST) が公開ワーキンググループを発足 1 月の AI リスク管理フレームワークに基づいて、その疑問に対処するのに役立ちます。 Gartner のデータが示すように、 企業は待っていない NIST 指令用。

タイムスタンプ:

より多くの 暗い読書