ディープフェイク民主主義: AI テクノロジーが選挙のセキュリティを複雑にする

ディープフェイク民主主義: AI テクノロジーが選挙のセキュリティを複雑にする

ディープフェイク民主主義: AI テクノロジーにより選挙セキュリティが複雑になる PlatoBlockchain データ インテリジェンス。垂直検索。あい。

人工知能 (AI) によって生成されたディープフェイクを含む最近の出来事 バイデン大統領になりすましたロボコール ニューハンプシャー州の有権者に予備選への棄権を促すこの内容は、悪意のある攻撃者が現代の生成AI(GenAI)プラットフォームを米国選挙を標的にする強力な武器としてますます見ているということをはっきりと思い出させるものとなっている。

ChatGPT、Google の Gemini (旧名 Bard)、またはその他の専用のダークウェブ大規模言語モデル (LLM) などのプラットフォームは、大規模影響キャンペーン、自動トローリング、およびディープフェイクコンテンツ。

実際、FBI長官クリストファー・レイは、 最近懸念の声が上がった 次の大統領選挙期間中に偽情報をまき散らす可能性のあるディープフェイクを使用した進行中の情報戦について、 国家の支援を受けた俳優たち 地政学的バランスを揺るがそうとする。

GenAI は「」の台頭も自動化できる可能性があります。協調性に欠ける行動」ネットワークは、不和を植え付け、選挙プロセスにおける国民の信頼を損なうことを目的として、フェイクニュース配信、説得力のあるソーシャルメディアプロフィール、その他の手段を通じて、偽情報キャンペーンの視聴者を開拓しようとしています。

選挙への影響: 重大なリスクと悪夢のシナリオ

Cyber​​Saint の最高イノベーション責任者であるパドリック・オライリー氏の観点からは、テクノロジーは急速に進化しているため、リスクは「重大」です。

「ディープフェイク技術を活用した新たな偽情報の亜種が見られるため、興味深いものであると同時に、おそらく少し憂慮すべきことになるでしょう」と彼は言う。

具体的には、AI が生成したコンテンツによるマイクロターゲティングがソーシャル メディア プラットフォームで急増するという「悪夢のシナリオ」があるとオライリー氏は述べています。それはよく知られた戦術です ケンブリッジアナリストのスキャンダルでは、同社は米国の有権者 230 億 XNUMX 万人の心理的プロフィール データを収集し、Facebook 経由で個人に高度にカスタマイズされたメッセージを提供し、個人の信念と投票に影響を与えようとしました。しかし、GenAI はそのプロセスを大規模に自動化し、人々を不快にさせるような「ボット」の特徴をほとんど持たない、説得力の高いコンテンツを作成できる可能性があります。

「盗まれたターゲティングデータ(ユーザーが誰であるか、その興味を示すパーソナリティスナップショット)が AI 生成コンテンツと融合されることは、大きなリスクです」と彼は説明します。 「2013年から2017年にかけて行われたロシアの偽情報キャンペーンは、他に何が起こる可能性があるのか​​、そして今後何が起こるのかを示唆しており、私たちはバイデンを特集した(このような)米国国民によって生成されたディープフェイクを知っています。 エリザベス·ウォーレンに設立された地域オフィスに加えて、さらにローカルカスタマーサポートを提供できるようになります。」

ソーシャルメディアと すぐに利用できるディープフェイク技術 すでに深く分断されているこの国において、米国国民の二極化を招く終末兵器となる可能性がある、と同氏は付け加えた。

「民主主義は特定の共有された伝統と情報を前提としていますが、ここでの危険は国民の間で分断が進み、スタンフォード大学の研究者レネー・ディレスタが言うところの『オーダーメードの現実』、つまり人々が『もう一つの事実』を信じることにつながることです」とオライリー氏は言う。

脅威アクターが分裂の種を蒔くために使用するプラットフォームは、おそらくほとんど役に立たないでしょう。たとえば、以前は Twitter として知られていたソーシャル メディア プラットフォーム X は、コンテンツの品質保証 (QA) を廃止したと彼は付け加えました。

「他のプラットフォームは、偽情報に対処するという定型的な保証を提供しているが、言論の自由の保護と規制の欠如により、依然として悪者にとってこの分野は大きく開かれたままになっている」と同氏は警告する。

AI が既存のフィッシング TTP を増幅

Tidal Cyber​​社のサイバー脅威インテリジェンス担当ディレクターのスコット・スモール氏によると、GenAIはすでに、より信憑性の高い標的を絞ったフィッシングキャンペーンを大規模に作成するために使用されているが、選挙のセキュリティという観点から見ると、この現象はより懸念すべき出来事だという。

「サイバー攻撃者が生成 AI を導入して、長年にわたって一貫した量を誇る選挙関連攻撃の主要な形式であるフィッシング攻撃やソーシャル エンジニアリング攻撃をより説得力のあるものにし、標的が悪意のあるコンテンツとやり取りする可能性が高くなると予想しています。 " 彼は説明する。

スモール氏は、AI の導入により、このような攻撃を開始するための参入障壁も低くなり、その要因として、キャンペーンへの侵入やなりすまし目的などで候補者のアカウントを乗っ取ろうとするキャンペーンの量が今年増加する可能性が高いと考えられます。

「犯罪者や国家の敵対者は、時事問題や人気のテーマに合わせてフィッシングやソーシャル エンジニアリングの誘いを定期的に行っており、これらの攻撃者はほぼ確実に、今年一般的に配布される選挙関連のデジタル コンテンツのブームに乗じて、悪意のあるメッセージを配信しようとするでしょう。」疑いを持たないユーザーにコンテンツを提供します」と彼は言います。

AI 選挙の脅威に対する防御

これらの脅威から守るために、選挙管理者と選挙運動は GenAI によるリスクとそれに対する防御方法を認識する必要があります。

「選挙管理者や候補者は、AI ベースのディープフェイクのために脅威アクターがサウンドバイトを引き出すことができるインタビューや記者会見を絶えず行っています」と、Optiv のサイバーリスク担当副社長の James Turgal 氏は述べています。 「したがって、コンテンツを確実に管理する責任を負う担当者またはチームを確実に配置することが企業の義務です。」

また、強化されたソーシャル エンジニアリングなどの AI を活用した脅威、その背後にいる攻撃者、不審なアクティビティへの対応方法について、ボランティアや職員がトレーニングを受けていることを確認する必要もあります。

そのために、スタッフはソーシャル エンジニアリングとディープフェイク ビデオのトレーニングに参加する必要があります。このトレーニングには、電子 (電子メール、テキスト、ソーシャル メディア プラットフォーム)、対面、電話ベースの攻撃など、あらゆる形式と攻撃ベクトルに関する情報が含まれます。

「これは、特にボランティアにとって非常に重要です。なぜなら、誰もが良好なサイバー衛生状態を保っているわけではないからです」とトゥルガル氏は言います。

さらに、選挙運動や選挙のボランティアは、ソーシャル メディアへの投稿を含め、オンラインや外部機関に安全に情報を提供する方法について訓練を受け、その際には注意を払う必要があります。

「サイバー攻撃者はこの情報を収集して、特定のターゲットに合わせてソーシャル エンジニアリングされたおとりを調整する可能性があります」と彼は警告します。

オライリーは、長期的な規制には次のようなものがあると述べている。 オーディオとビデオのディープフェイク用の透かし入れ 連邦政府がLLMの所有者と協力して保護を導入していることを指摘し、役立つだろう。

実際には、 連邦通信委員会 (FCC) はたった今宣言した 電話消費者保護法 (TCPA) では、AI によって生成された音声通話は「人工」として扱われており、音声クローン技術の利用は違法であり、全国の州検事総長にそのような詐欺行為に対抗するための新しいツールを提供しています。

「AIの進歩は非常に速いため、技術が進歩するにつれて提案されたルールが無効になり、目標を達成できない可能性があるという本質的な危険性が存在します」とオライリー氏は言う。 「ある意味、ここは西部開拓時代であり、AI は安全策がほとんどない状態で市場に登場しています。」

タイムスタンプ:

より多くの 暗い読書