Meta の新しい AI 音声ツールはディープフェイク用に既製であるためリリースされていない - Decrypt

Meta の新しい AI 音声ツールはディープフェイク用に既製であるためリリースされていない – Decrypt

Meta の新しい AI 音声ツールはディープフェイク用に既製であるため、リリースされていません - PlatoBlockchain データ インテリジェンスの復号化。垂直検索。あい。

Meta プッシュを続けた 金曜日、ますます混雑するAI分野に参入し、と呼ばれるツールの作成を発表しました。 ボイスボックス。これは、さまざまな潜在的な使用例を備えた音声対話を生成するためのアプリですが、Meta 氏が認めているように、悪用される可能性も十分にあります。まさにそれが、ソーシャル メディアの巨人が Voicebox をまだ一般公開しない理由です。

以前の音声生成プラットフォームとは異なり、Voicebox は特別にトレーニングされていない音声生成タスクを実行できるとメタ氏は述べています。 テキスト入力とコンテキスト用の短いオーディオ クリップを使用して、AI ツールは、ソース クリップに登場した人物のように聞こえる、信憑性のある新しい音声の塊を作成できます。

「Voicebox が登場する以前は、音声生成 AI には、慎重に準備されたトレーニング データを使用して、タスクごとに特定のトレーニングが必要でした」と Meta AI は述べています。 「Voicebox は、生の音声と付随する文字起こしだけから学習する新しいアプローチを採用しています。」

生成 AI は、ユーザーのプロンプトに応じてテキスト、画像、またはその他のメディアを生成できるプログラムの一種です。 Meta AI によれば、Voicebox は英語、フランス語、ドイツ語、スペイン語、ポーランド語、ポルトガル語を含む XNUMX つの言語で音声を生成でき、現実世界で人々が自然に話す方法に近い音声を生成できるとのことです。

メタ氏は、このツールをテクノロジーツールを使用して言語を超えた会話を改善したり、より自然な音声のビデオゲームキャラクターの会話を提供したりするために使用できることを示唆しています。 しかし、Voicebox は、誰か (おそらく公人や有名人) が実際には言っていないことを言ったかのように聞こえる、コピーキャットの「ディープフェイク」ダイアログを作成するための、より速く、より経済的な方法のようにも見えます。

これはAI開発における画期的な進歩かもしれないが、Meta AIはその悪用の可能性も認めており、同社はVoiceboxの作品と人間を区別する分類器を開発したと述べた。 スパム フィルターと同様に、AI 分類子はデータをさまざまなグループまたはクラス (この場合は人間または AI によって生成されたもの) に分類するプログラムです。

メタ氏はブログ投稿でAI開発における透明性の必要性を強調し、研究コミュニティに対してオープンであることが重要だと述べた。 しかし、同社はまた、Voicebox技術が​​潜在的にマイナスな方法で利用される可能性があるため、Voiceboxを一般公開する計画はないとも述べた。

「音声生成モデルには興味深い使用例が数多くありますが、悪用の潜在的なリスクがあるため、現時点ではボイスボックス モデルやコードを一般公開していません」とメタ AI の広報担当者は語った。 解読する メールインチ

「私たちはAIコミュニティに対してオープンであり、最先端のAIを推進するために私たちの研究を共有することが重要であると信じていますが、オープンさと責任の間の適切なバランスをとることも必要です。」と広報担当者は続けた。

Meta はツールを機能的な状態でリリースする代わりに、同僚の研究者がその可能性を理解できるように音声サンプルと研究論文を共有しました。

AIリスクが浮上

昨年 XNUMX 月に OpenAI の ChatGPT が発表されて以来、人工知能ツール、特に AI チャットボットはより一般的になりましたが、人工知能の急速な進歩により、世界のリーダーたちはテクノロジーの悪用の可能性について警鐘を鳴らしています。

月曜日、国連事務総長は、 警告 生成AIについて真剣に考えます。

国連のアントニオ・グテーレス事務総長は記者会見で、「人工知能の最新形態である生成型AIに対する警鐘は耳をつんざくようなもので、それを設計した開発者たちの声が最も大きい」と述べた。 「科学者や専門家は、AIが核戦争のリスクと同等の人類存亡の脅威であると宣言し、行動するよう世界に呼びかけています。」

世界的な核戦争の脅威は憂慮すべきものかもしれないが、その可能性は依然として SF の領域にとどまり、 ハリウッド 大ヒット作。生成型 AI の悪用の可能性がさらに高いのは、 詐欺 例えば、ディープフェイク画像や音声を使って個人をターゲットにして被害者を騙し金銭をだまし取ること、あるいは国連が最近の報告書で述べたように、憎悪と憎悪を煽ることもある。 誤報 オンライン。

A ディープフェイク これは、人工知能を使用して作成され、虚偽のイベントを描写する、ますます一般的になっているタイプのビデオまたはオーディオ コンテンツですが、捏造であることを特定するのが非常に困難な方法で行われます。

4月にはCNNが 報告 詐欺師らがAI技術を利用してアリゾナ州の女性の15歳の娘の声を複製し、XNUMX代の少女を誘拐したと主張して身代金を要求したという。そしてXNUMX月には、AIが生成した元大統領の画像が公開された。 ドナルド·トランプ 逮捕されたことはソーシャルメディアで共有された後、急速に広まった。

暗号ニュースを常に把握し、受信トレイで毎日更新を入手してください。

タイムスタンプ:

より多くの 解読する