Deepfake 民主:人工智能技术使选举安全变得复杂

Deepfake 民主:人工智能技术使选举安全变得复杂

Deepfake 民主:人工智能技术使选举安全变得复杂 PlatoBlockchain 数据智能。垂直搜索。人工智能。

最近发生的事件,包括人工智能 (AI) 生成的 Deepfake 机器人电话冒充拜登总统 敦促新罕布什尔州选民在初选中弃权,这清楚地提醒人们,恶意行为者越来越多地将现代生成人工智能(GenAI)平台视为针对美国选举的有力武器。

ChatGPT、Google 的 Gemini(以前称为 Bard)或任何数量的专门构建的暗网大型语言模型 (LLM) 等平台都可能在扰乱民主进程方面发挥作用,其攻击包括大规模影响力活动、自动恶意攻击和扩散深度伪造内容。

事实上,联邦调查局局长克里斯托弗·雷 最近表达的担忧 关于正在进行的使用深度伪造的信息战可能会在即将到来的总统竞选期间传播虚假信息,例如 国家支持的演员 试图动摇地缘政治平衡。

GenAI 还可以自动化“协调的不真实行为这些网络试图通过虚假新闻媒体、令人信服的社交媒体资料和其他途径为虚假信息活动培养受众,其目的是散布不和并破坏公众对选举过程的信任。

选举影响:重大风险和噩梦场景

从 Cyber​​Saint 首席创新官 Padraic O'Reilly 的角度来看,由于技术发展如此之快,风险是“巨大的”。

他说:“这肯定会很有趣,但也可能有点令人担忧,因为我们看到了利用深度造假技术的虚假信息的新变体。”

奥莱利表示,具体而言,“噩梦场景”是人工智能生成内容的微定位将在社交媒体平台上激增。这是熟悉的策略 剑桥分析公司丑闻,该公司收集了 230 亿美国选民的心理概况数据,以便通过 Facebook 向个人提供高度定制的消息,试图影响他们的信仰和选票。但 GenAI 可以大规模自动化该过程,并创建非常令人信服的内容,这些内容几乎没有(如果有的话)可能会让人们失去兴趣的“机器人”特征。

“被盗的目标数据(用户是谁及其兴趣的个性快照)与人工智能生成的内容合并是一个真正的风险,”他解释道。 “2013 年至 2017 年俄罗斯的虚假信息活动暗示了其他可能发生和将会发生的事情,我们知道美国公民(比如拜登)制作了深度造假,并且 伊丽莎白·沃伦设立的区域办事处外,我们在美国也开设了办事处,以便我们为当地客户提供更多的支持。“

社交媒体和 容易获得的 Deepfake 技术 他补充道,这可能成为美国公民在一个已经严重分裂的国家中两极分化的末日武器。

奥莱利说:“民主是以某些共同的传统和信息为基础的,这里的危险是公民之间日益分裂,导致斯坦福大学研究员蕾妮·迪雷斯塔所说的‘定制现实’,”也就是相信“另类事实”的人们。

威胁行为者用来散播分裂的平台可能起不了多大作用:他补充说,例如,社交媒体平台 X(以前称为 Twitter)已经破坏了其内容质量保证 (QA)。

“其他平台已经提供了样板保证,表示它们将解决虚假信息,但言论自由保护和缺乏监管仍然为不良行为者留下了广阔的空间,”他警告说。

人工智能增强了现有的网络钓鱼 TTP

Tidal Cyber​​ 网络威胁情报总监 Scott Small 表示,GenAI 已经被用来大规模策划更可信、更有针对性的网络钓鱼活动,但在选举安全的背景下,这种现象更令人担忧。

“我们预计网络对手会采用生成式人工智能来进行网络钓鱼和社会工程攻击(多年来数量一致的与选举相关的攻击的主要形式)更加令人信服,从而使目标更有可能与恶意内容进行交互, “他解释道。

Small 表示,人工智能的采用还降低了发起此类攻击的准入门槛,这一因素可能会增加今年试图渗透竞选活动或出于冒充目的接管候选人帐户的活动数量。

“犯罪分子和民族国家对手经常根据时事和流行主题调整网络钓鱼和社会工程诱饵,这些行为者几乎肯定会试图利用今年普遍分发的与选举相关的数字内容的繁荣,试图传播恶意内容向毫无戒心的用户提供内容,”他说。

防御人工智能选举威胁

为了防御这些威胁,选举官员和竞选活动必须了解 GenAI 驱动的风险以及如何防御这些风险。

Optiv 网络风险副总裁 James Turgal 表示:“选举官员和候选人不断接受采访和新闻发布会,威胁行为者可以从中提取基于人工智能的深度伪造的声音片段。” “因此,他们有责任确保有专人或团队负责确保对内容的控制。”

他们还必须确保志愿者和工作人员接受有关人工智能威胁的培训,例如增强的社会工程、背后的威胁行为者以及如何应对可疑活动。

为此,工作人员应参加社会工程和深度伪造视频培训,其中包括有关所有形式和攻击媒介的信息,包括电子(电子邮件、文本和社交媒体平台)、面对面和基于电话的尝试。

“这非常重要,尤其是对于志愿者来说,因为并不是每个人都有良好的网络卫生,”图加尔说。

此外,竞选和选举志愿者必须接受如何安全地在线和向外部实体提供信息(包括社交媒体帖子)的培训,并在这样做时要小心谨慎。

“网络威胁行为者可以收集这些信息,针对特定目标定制社会工程诱饵,”他警告说。

奥莱利表示,从长远来看,监管包括 音频和视频深度伪造的水印 将发挥重要作用,并指出联邦政府正在与法学硕士所有者合作以实施保护措施。

事实上,在 美国联邦通信委员会 (FCC) 刚刚宣布 根据《电话消费者保护法》(TCPA),人工智能生成的语音通话被视为“人造”语音通话,将语音克隆技术的使用视为非法,并为全国州检察长提供了打击此类欺诈活动的新工具。

“人工智能发展如此之快,以至于存在一种固有的危险,即随着技术的进步,任何拟议的规则都可能变得无效,从而可能无法实现目标,”奥莱利说。 “从某些方面来说,这就像狂野的西部,人工智能在几乎没有任何保障措施的情况下进入市场。”

时间戳记:

更多来自 暗读