Microsoft、公開するにはもったいないディープフェイク技術を公開

Microsoft、公開するにはもったいないディープフェイク技術を公開

Microsoft が、PlatoBlockchain Data Intelligence をリリースするにはあまりにも優れたディープフェイク技術を発表しました。垂直検索。あい。

Microsoftは今週、静止画像、音声サンプル、テキストスクリプトから人々が話すビデオを作成するフレームワークであるVASA–1のデモを行い、当然のことながら、危険すぎて一般公開できないと主張した。

これらの AI 生成ビデオでは、人々が説得力を持ってアニメーション化され、複製された音声で台本に書かれた言葉を話すことができますが、これはまさに米国連邦取引委員会のようなものです。 警告 先月、その後 ルールを提案する AI技術によるなりすまし詐欺を防止します。

Microsoft チームも同様のことを認めています。 発表、倫理的配慮によりこの技術はリリースされないと説明しています。彼らは、自分たちは仮想インタラクティブキャラクターを生成するための研究を発表しているのであって、誰かになりすますための研究を発表しているわけではないと主張している。そのため、製品や API の予定はありません。

「私たちの研究は、ポジティブな応用を目指して、仮想 AI アバターの視覚的感情スキルの生成に焦点を当てています」とレドモンドの関係者は述べています。 「誤解を招いたり欺いたりするために使用されるコンテンツを作成することを目的としたものではありません。

「しかし、他の関連コンテンツ生成技術と同様に、人間になりすますために悪用される可能性は依然としてあります。私たちは、実在の人物を題材とした誤解を招くコンテンツや有害なコンテンツを作成するいかなる行為にも反対しており、偽造検出を進化させるために私たちの技術を応用することに興味を持っています。」

生体認証業界である Token の会長であり、生成 AI について頻繁に講演している Kevin Surace 氏は次のように述べています。 登録 電子メールでは、静止フレームとクローン音声ファイルから顔をアニメーション化するテクノロジーのデモンストレーションはこれまでもあったが、マイクロソフトのデモンストレーションは最先端技術を反映していると述べた。

「電子メールやその他のビジネス向けマスコミュニケーションをパーソナライズすることへの影響は素晴らしいです」と彼は意見しました。 「古い写真もアニメーション化しています。ある意味、これはただ楽しいだけですが、別の意味では、今後数か月、数年で私たち全員が使用する堅実なビジネス アプリケーションになります。」

ディープフェイクの「面白さ」は96パーセントが同意のないポルノだった。 評価された [PDF] 2019 年、サイバーセキュリティ企業 Deeptrace による。

それにもかかわらず、Microsoft の研究者らは、現実的な見た目の人物を作成し、その口に言葉を入力できることには前向きな用途があると示唆しています。

「このようなテクノロジーは、デジタルコミュニケーションを豊かにし、コミュニケーション障害を持つ人々のアクセシビリティを高め、教育を変革し、対話型AI個別指導を利用した方法を提供し、医療における治療サポートと社会的交流を提供する可能性を秘めています」と彼らは論文で提案している。 研究論文 「ポルノ」や「誤った情報」という言葉が含まれていないもの。

AI が生成したビデオがディープフェイクと全く同じではないという議論の余地はありますが、ディープフェイクは後者です。 定義済みの 生成的手法ではなくデジタル操作によって、カットアンドペーストの移植を行わずに説得力のある偽物を作り出すことができる場合、区別は重要ではなくなります。

Microsoftが悪用を恐れてこのテクノロジーを一般に公開していないという事実をどう思うかと尋ねると、Surace氏は制限の実行可能性について疑問を表明した。

同氏は、「マイクロソフトやその他の企業は、プライバシーと使用法の問題が解決するまで、今のところ保留している」と述べた。 「正当な理由でこれを使用する人をどうやって規制するのでしょうか?」

Surace氏は、同様に洗練されたオープンソースモデルがすでに存在すると付け加え、次のように指摘した。 EMO。 「GitHub からソース コードを取得し、それを中心におそらく Microsoft の出力に匹敵するサービスを構築できます」と同氏は述べました。 「この分野はオープンソースであるため、いかなる場合でも規制することは不可能です。」

とはいえ、世界各国はAIで捏造された人々を規制しようとしている。 カナダ, 中国、 そしてその UK、とりわけ、どの国もディープフェイクに適用できる規制を設けており、その中にはより広範な政治的目標を達成するものもあります。イギリスは今週だけ 違法にした 同意なしに性的に露骨なディープフェイク画像を作成すること。このような画像の共有は、英国の 2023 年オンライン安全法に基づいてすでに禁止されています。

1月、超党派の米国議員グループが 導入 2024 年明示的偽造画像および非同意編集禁止法 (DEFIANCE Act) は、同意のないディープフェイク画像の被害者が法廷で民事訴訟を起こす方法を創設する法案です。

そして16月XNUMX日火曜日、米国上院司法委員会プライバシー・テクノロジー・法律小委員会が開催された。 公聴会 タイトルは「AIの監視: 選挙ディープフェイク」。

ディープフェイク検出ビジネスであるディープメディアの最高経営責任者(CEO)リジュル・グプタ氏は、用意された発言の中で次のように述べた。

ディープフェイクの最も憂慮すべき側面は、悪意のある者にもっともらしい否定を提供し、本物のコンテンツを偽物として無視できるようにする能力です。この国民の信頼の失墜は、私たちの社会構造と民主主義の基盤のまさに根幹に打撃を与えています。人間の脳は、見たり聞いたりしたものを信じるようにできており、ディープフェイクによる欺瞞に対して特に脆弱です。これらのテクノロジーがますます洗練されるにつれ、私たちの社会を支える共通の現実感が損なわれる恐れがあり、市民が遭遇するあらゆる情報の真実性に疑問を抱く不確実性と懐疑的な雰囲気が生まれています。

しかし、マーケティング アプリケーションについて考えてみましょう。 ®

タイムスタンプ:

より多くの 登録