Microsoft は、Azure で AI モデルをより安全に使用できるようにするための一連のツールを導入したとされています。
クラウドとコードの業界が OpenAI に資金を注ぎ込み、自社のソフトウェア帝国にチャットボット機能を注入し始めて以来、生産性に関する壮大な約束の中でライバルたちが同様の熱意を持って演じたドラマであるが、マイクロソフトは生成 AI にはリスクが伴うことを認めざるを得なくなった。
危険 広く知られていますが、時には軽々しく無視されることもあります。 10年前、イーロン・マスクはAIが単なる危険にさらされるかもしれないと警告した。 人類を破壊する。しかし、その懸念は彼が AI を利用できるようにすることを妨げませんでした。 自動車、彼の上で ソーシャルメディアのメガホンそしておそらく近いうちに ロボット.
幻覚を示し、不正確または有害な応答を提供する大規模な言語モデルの出現により、振り出しに戻り、さらなる資金提供を求めて役員会議に戻ることになりました。ハイテク業界は、安全で倫理的な製品を作るのではなく、野生のモデルを飼いならすか、少なくとも誰も傷つけることなく暴れることができる野生モデルを顧客から十分に遠ざけようとしている。
それがうまくいかない場合は、いつでも可能です 補償 特定の条件に従って、サプライヤーからの法的請求から保護されます。
AI の安全性に対する業界の取り組みは、対応する政府の要求と一致しています。米国では木曜日、ホワイトハウス管理予算局(OMB)が 発行 AI リスクに対処する初の政府全体の政策。
この政策は、連邦政府機関に対し、1月XNUMX日までに「アメリカ人の権利や安全に影響を与える可能性のある方法でAIを使用する場合、具体的な保護措置を講じる」ことを義務付けている。つまり、リスク評価、検査、監視、差別や偏見を制限する取り組み、そして、次のような取り組みを促進することを意味する。健康、教育、住宅、雇用に関わる AI アプリケーションの透明性。
このようにマイクロソフトは、責任ある AI の最高製品責任者であるサラ・バードを通じて、最新の AI 安全対策についての情報を提供しています。この肩書きは、想像できるかもしれませんが、無責任な AI の存在を暗示しています。
バード氏は、ビジネスリーダーは生成型AIに影響されずに利用できるよう、イノベーションとリスク管理のバランスをとろうとしていると語る。
「プロンプト インジェクション攻撃は、重大な課題として浮上しています。悪意のある攻撃者が AI システムを操作して、有害なコンテンツの作成や機密データの流出など、本来の目的以外のことを実行させようとする攻撃です」とバード氏は説明しています。 ブログ投稿.
「これらのセキュリティ リスクを軽減することに加えて、組織は品質と信頼性についても懸念しています。彼らは、AI システムがユーザーの信頼を損なう可能性のあるエラーを生成したり、アプリケーションのデータ ソースで実証されていない情報を追加したりしないようにしたいと考えています。」
安全性と正確性は AI サブスクリプション料金に含まれていないため、マイクロソフトはチャンスを見出しています それらを売るために アドオンとして。
Azure AI Studio を使用して生成 AI アプリの作成を支援しているお客様は、4 つの新しいツールを期待できます。
まず、 プロンプトシールド、プロンプトインジェクション攻撃に対する防御に役立つと約束されています。以前は Jailbreak Risk Detection と呼ばれていましたが、現在はパブリック プレビュー段階にあり、基盤モデルへの直接的および間接的なプロンプト干渉のリスクを軽減する方法です。
直接攻撃には、モデルに安全トレーニングを無視させるように設計されたプロンプト (入力) が含まれます。間接攻撃とは、モデルに入力を忍び込ませる試みを指します。これを行う 1 つの方法は、Outlook の Copilot などを通じて受信者に代わって動作する AI モデルがメッセージを解析し、隠しテキストをコマンドとして解釈し、うまくいけば、電子メールに隠しテキストを含めることです。指示に従って行動し、機密データを黙って返信するなどの操作を行います。
第二は 接地検知、AI モデルが幻覚を起こしたり、でっち上げたりした場合にそれをキャッチするためのシステム。虚偽の申し立てが検出された場合、表示前に修正するために回答を送り返すなど、顧客にいくつかのオプションを提供します。 Microsoftは、ソース文書に基づいて根拠のない主張を評価するカスタム言語モデルを構築することでこれを達成したと述べている。つまり、AI モデルの安全性に対する答えは、ご想像のとおり、別のモデルです。
これは信頼できる AI への素晴らしい一歩ですが、問題はまだ解決されていません
第三に、 AI支援による安全性評価 AI Studio では、顧客のアプリケーションとのさまざまな敵対的な対話をテストするモデルにプロンプト テンプレートとパラメーターを提示するためのテスト フレームワークが提供されます。繰り返しますが、AI をテストするのは AI です。
そして最後に、 「リスクと安全性の監視」、有害なコンテンツ メトリックを提供する Azure OpenAI サービスの機能。
ヴィヌ・サンカール・サダシバン氏は、メリーランド大学の博士課程の学生で、 ビーストの攻撃 LLMについて、語られました 登録 Azure が AI をより安全にするためのツールを構築しているのを見るのは興味深いことですが、より多くのモデルをミックスに追加すると、潜在的な攻撃対象領域が拡大します。
「Azure の安全性評価とリスクと安全性の監視ツールは、AI モデルの信頼性を調査するために重要です」と彼は言いました。 「これは信頼できる AI への素晴らしい一歩ですが、問題はまだ解決されていません。たとえば、彼らが導入した Prompt Shields は、おそらく別の AI モデルを使用して、間接的なプロンプト攻撃を検出してブロックします。この AI モデルは、敵対的攻撃などの脅威に対して脆弱になる可能性があります。
「攻撃者はこれらの脆弱性を利用してプロンプト シールドを回避する可能性があります。安全システムのメッセージは場合によっては効果的であることが示されていますが、BEAST などの既存の攻撃は AI モデルを敵対的に攻撃し、すぐにジェイルブレイクする可能性があります。 AI システムの防御策を実装することは有益ですが、潜在的な欠点を常に認識しておくことが重要です。」 ®
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- PlatoData.Network 垂直生成 Ai。 自分自身に力を与えましょう。 こちらからアクセスしてください。
- プラトアイストリーム。 Web3 インテリジェンス。 知識増幅。 こちらからアクセスしてください。
- プラトンESG。 カーボン、 クリーンテック、 エネルギー、 環境、 太陽、 廃棄物管理。 こちらからアクセスしてください。
- プラトンヘルス。 バイオテクノロジーと臨床試験のインテリジェンス。 こちらからアクセスしてください。
- 情報源: https://go.theregister.com/feed/www.theregister.com/2024/03/29/microsoft_azure_safety_tools/
- :持っている
- :は
- :not
- :どこ
- $UP
- 1
- 7
- a
- 私たちについて
- 熟達した
- 精度
- 認める
- 行為
- 演技
- 俳優
- アドオン
- 追加
- 添加
- 住所
- 敵対者
- 再び
- に対して
- 機関
- 前
- AI
- AIモデル
- AIのリスク
- AIシステム
- 容疑者
- 許す
- また
- 常に
- の中で
- an
- および
- 別の
- 回答
- 誰も
- 申し込み
- アプリ
- です
- AS
- さておき
- アセスメント
- At
- 攻撃
- 攻撃
- 利用できます
- Azure
- バック
- ベース
- BE
- 代わって
- さ
- 有益な
- バイアス
- BIZ
- ブロック
- ボード
- 両言語で
- もたらす
- 予算
- 建物
- ビジネス
- ビジネスリーダー
- 焙煎が極度に未発達や過発達のコーヒーにて、クロロゲン酸の味わいへの影響は強くなり、金属を思わせる味わいと乾いたマウスフィールを感じさせます。
- by
- 缶
- 機能
- 例
- 一定
- 挑戦する
- チャットボット
- チーフ
- チーフプロダクトオフィサー
- クレーム
- クレーム
- CO
- comes
- 約束
- 懸念
- 心配
- 具体的な
- 秘密の
- コンテンツ
- 対応する
- 可能性
- 作ります
- カスタム
- 顧客
- Customers
- データ
- 十年
- 12月
- 防御
- 需要
- 設計
- 検出
- 検出された
- 検出
- 開発する
- しなかった
- 直接
- ディスプレイ
- do
- ドキュメント
- doesnの
- すること
- ドラマ
- 欠点
- 描画
- 教育
- 効果的な
- 努力
- エロン
- イーロン·マスク
- 登場
- 出現
- 帝国
- 雇用
- 十分な
- 確保
- 等しい
- エラー
- 本質的な
- 倫理的な
- 評価
- エキサイティング
- 存在
- 既存の
- 拡大する
- 説明
- false
- 遠く
- 特徴
- 連邦政府の
- 代
- 熱意
- 最後に
- 名
- フォワード
- Foundation
- 4
- フレームワーク
- から
- 資金調達
- 資金
- さらに
- 生成
- 生々しい
- 生成AI
- 政府・公共機関
- 推測された
- 持っていました
- 有害な
- 持ってる
- he
- 健康
- 助けます
- 助けました
- 隠されました
- 彼に
- 彼の
- うまくいけば
- お家の掃除
- 住宅
- HTTPS
- if
- 無視する
- 絵
- 影響
- 実装する
- 重要
- in
- include
- 含まれました
- 含めて
- 誤った
- 産業を変えます
- 情報
- 革新的手法
- 入力
- 説明書
- 意図された
- 相互作用
- に
- 紹介する
- 導入
- 調査中
- 巻き込む
- IT
- ITS
- 脱獄
- JPG
- ただ
- キープ
- 知識
- 既知の
- 言語
- 大
- 最新の
- リーダー
- 最低
- ツェッペリン
- リーガルポリシー
- 活用します
- ような
- LIMIT
- 見て
- make
- 作成
- 悪意のある
- 管理
- メリーランド
- 手段
- 措置
- メディア
- メッセージ
- メッセージ
- メトリック
- Microsoft
- かもしれない
- 軽減する
- 緩和する
- ミックス
- モデル
- モニタリング
- 他には?
- 麝香
- 新作
- いいえ
- 今
- of
- 提供
- Office
- 役員
- on
- ONE
- OpenAI
- 機会
- オプション
- or
- 組織
- でる
- Outlook
- 外側
- パラメータ
- おそらく
- プラトン
- プラトンデータインテリジェンス
- プラトデータ
- 方針
- 潜在的な
- 提示
- プレビュー
- 前に
- 事前の
- 問題
- 作り出す
- 作成
- プロダクト
- 生産性
- 約束
- 約束
- 推進する
- プロンプト
- 提供します
- は、大阪で
- 公共
- 目的
- 品質
- むしろ
- 参照する
- 信頼性
- 残る
- 必要
- 応答
- 回答
- 責任
- return
- 権利
- リスク
- リスク管理
- リスク
- ライバル
- ロール
- ラン
- s
- 安全な
- 保障措置
- より安全な
- 安全性
- 前記
- 言う
- 言う
- 安全に
- セキュリティ
- セキュリティリスク
- 見て
- 売る
- 送信
- 敏感な
- サービス
- セッションに
- いくつかの
- 示す
- 重要
- こっそり
- So
- ソフトウェア
- 一部
- 何か
- 時々
- すぐに
- ソース
- ソース
- 開始
- 手順
- まだ
- Force Stop
- 学生
- 研究
- テーマ
- 購読
- そのような
- サプライヤー
- 表面
- システム
- テク
- ハイテク産業
- テンプレート
- 条件
- test
- テスト
- テスト
- 클라우드 기반 AI/ML및 고성능 컴퓨팅을 통한 디지털 트윈의 기초 – Edward Hsu, Rescale CPO 많은 엔지니어링 중심 기업에게 클라우드는 R&D디지털 전환의 첫 단계일 뿐입니다. 클라우드 자원을 활용해 엔지니어링 팀의 제약을 해결하는 단계를 넘어, 시뮬레이션 운영을 통합하고 최적화하며, 궁극적으로는 모델 기반의 협업과 의사 결정을 지원하여 신제품을 결정할 때 데이터 기반 엔지니어링을 적용하고자 합니다. Rescale은 이러한 혁신을 돕기 위해 컴퓨팅 추천 엔진, 통합 데이터 패브릭, 메타데이터 관리 등을 개발하고 있습니다. 이번 자리를 빌려 비즈니스 경쟁력 제고를 위한 디지털 트윈 및 디지털 스레드 전략 개발 방법에 대한 인사이트를 나누고자 합니다.
- より
- それ
- アプリ環境に合わせて
- それら
- そこ。
- ボーマン
- 彼ら
- 物事
- この
- しかし?
- 脅威
- 介して
- 木曜日
- 時間
- 役職
- 〜へ
- 言われ
- 豊富なツール群
- 触れる
- に向かって
- トレーニング
- 透明性
- 信頼
- 信頼できる
- 試します
- しよう
- 大学
- us
- つかいます
- ユーザー
- さまざまな
- 脆弱性
- 脆弱な
- 欲しいです
- 警告
- 仕方..
- we
- いつ
- which
- while
- 白
- ホワイトハウス
- 誰
- ワイド
- 広く
- 意志
- 無し
- 素晴らしい
- Word
- 仕事
- まだ
- You
- ゼファーネット