Глубокая фейковая демократия: технология искусственного интеллекта усложняет безопасность выборов

Глубокая фейковая демократия: технология искусственного интеллекта усложняет безопасность выборов

Глубокая фальшивая демократия: технология искусственного интеллекта усложняет безопасность выборов. Разведка данных PlatoBlockchain. Вертикальный поиск. Ай.

Недавние события, в том числе дипфейк, созданный искусственным интеллектом (ИИ). робот-звонок, выдающий себя за президента Байдена призывая избирателей Нью-Гэмпшира воздержаться от участия в праймериз, служит суровым напоминанием о том, что злоумышленники все чаще рассматривают современные платформы генеративного искусственного интеллекта (GenAI) как мощное оружие для нацеливания на выборы в США.

Такие платформы, как ChatGPT, Google Gemini (ранее Bard) или любое количество специально созданных больших языковых моделей Dark Web (LLM), могут сыграть роль в подрыве демократического процесса, поскольку атаки охватывают кампании массового влияния, автоматический троллинг и распространение дипфейковый контент.

На самом деле, директор ФБР Кристофер Рэй недавно высказал обеспокоенность о продолжающейся информационной войне с использованием дипфейков, которые могут посеять дезинформацию в ходе предстоящей президентской кампании, поскольку поддерживаемые государством субъекты попытаться нарушить геополитический баланс.

GenAI также может автоматизировать рост «скоординированное недостоверное поведениеСети, которые пытаются привлечь аудиторию для своих кампаний дезинформации через фейковые новостные агентства, убедительные профили в социальных сетях и другие способы — с целью посеять раздор и подорвать общественное доверие к избирательному процессу.

Влияние на выборы: существенные риски и кошмарные сценарии

С точки зрения Падраика О'Рейли, директора по инновациям CyberSaint, риск «существенен», поскольку технология развивается очень быстро.

«Это обещает быть интересным и, возможно, немного тревожным, поскольку мы видим новые варианты дезинформации, использующие технологию дипфейков», — говорит он.

В частности, говорит О'Рейли, «кошмарный сценарий» заключается в том, что микротаргетинг с использованием контента, созданного искусственным интеллектом, будет распространяться на платформах социальных сетей. Это знакомая тактика из Кембриджский аналитический скандал, где компания собрала данные о психологических профилях 230 миллионов избирателей в США, чтобы предоставлять людям через Facebook узкоспециализированные сообщения в попытке повлиять на их убеждения и голоса. Но GenAI может автоматизировать этот процесс в большом масштабе и создавать очень убедительный контент, который будет иметь мало или вообще не иметь «ботских» характеристик, которые могут отпугнуть людей.

«Украденные данные таргетинга (снимки личности пользователя и его интересов), объединенные с контентом, созданным искусственным интеллектом, представляют собой реальный риск», — объясняет он. «Российские дезинформационные кампании 2013–2017 годов наводят на мысль о том, что еще может и произойдет, и мы знаем о дипфейках, созданных гражданами США [как тот, который] с участием Байдена, и Элизабет Уоррен".

Сочетание социальных сетей и легкодоступная технология дипфейка может стать оружием судного дня для поляризации граждан США в и без того глубоко разделенной стране, добавляет он.

«Демократия основана на определенных общих традициях и информации, и опасность здесь заключается в усилении балканизации среди граждан, что приводит к тому, что Стэнфордский исследователь Рене ДиРеста назвала «индивидуальными реалиями», — говорит О'Рейли, то есть людьми, верящими в «альтернативные факты».

Платформы, которые злоумышленники используют для посеяния разногласий, скорее всего, не принесут особой пользы: он добавляет, что, например, платформа социальных сетей X, ранее известная как Twitter, уничтожила систему обеспечения качества (QA) контента.

«Другие платформы предоставили шаблонные заверения, что они будут бороться с дезинформацией, но защита свободы слова и отсутствие регулирования по-прежнему оставляют широкое поле деятельности для злоумышленников», — предупреждает он.

ИИ усиливает существующие фишинговые TTP

GenAI уже используется для создания более правдоподобных и целенаправленных фишинговых кампаний в больших масштабах, но в контексте безопасности выборов это явление вызывает еще большее беспокойство, по словам Скотта Смолла, директора по разведке киберугроз в Tidal Cyber.

«Мы ожидаем, что киберпреступники будут применять генеративный искусственный интеллект, чтобы сделать фишинговые атаки и атаки социальной инженерии — ведущие формы атак, связанных с выборами, с точки зрения постоянного объема на протяжении многих лет — более убедительными, что повысит вероятность того, что цели будут взаимодействовать с вредоносным контентом. — объясняет он.

Смолл говорит, что внедрение ИИ также снижает входной барьер для запуска таких атак, и этот фактор, вероятно, увеличит в этом году объем кампаний, которые пытаются проникнуть в кампании или захватить учетные записи кандидатов в целях выдачи себя за другое лицо, среди других потенциальных возможностей.

«Преступники и противники национальных государств регулярно адаптируют приманки для фишинга и социальной инженерии к текущим событиям и популярным темам, и эти субъекты почти наверняка попытаются извлечь выгоду из бума цифрового контента, связанного с выборами, распространяемого в целом в этом году, чтобы попытаться доставить вредоносные контент для ничего не подозревающих пользователей», — говорит он.

Защита от угроз ИИ на выборах

Чтобы защититься от этих угроз, сотрудники избирательных комиссий и избирательные кампании должны знать о рисках, связанных с GenAI, и о том, как от них защититься.

«Чиновники избирательной комиссии и кандидаты постоянно дают интервью и пресс-конференции, из которых злоумышленники могут извлечь звуковые фрагменты для дипфейков на основе искусственного интеллекта», — говорит Джеймс Тургал, вице-президент по киберрискам в Optiv. «Поэтому они обязаны убедиться, что у них есть человек или команда, ответственная за обеспечение контроля над контентом».

Они также должны убедиться, что волонтеры и работники обучены угрозам, основанным на искусственном интеллекте, таким как усовершенствованная социальная инженерия, субъекты угроз, стоящие за ними, и тому, как реагировать на подозрительную активность.

С этой целью сотрудники должны участвовать в видеотренингах по социальной инженерии и дипфейкам, которые включают информацию обо всех формах и векторах атак, включая электронные (электронная почта, текстовые сообщения и платформы социальных сетей), личные и телефонные попытки.

«Это очень важно, особенно для волонтеров, потому что не у всех хорошая кибергигиена», — говорит Тургал.

Кроме того, волонтеры кампаний и выборов должны быть обучены тому, как безопасно предоставлять информацию в Интернете и внешним организациям, включая публикации в социальных сетях, и проявлять при этом осторожность.

«Субъекты киберугроз могут собирать эту информацию, чтобы адаптировать приманки с помощью социальной инженерии для конкретных целей», — предупреждает он.

О'Рейли говорит, что долгосрочное регулирование, включающее водяные знаки для дипфейков аудио и видео будет иметь важное значение, отметив, что федеральное правительство работает с владельцами LLM над внедрением мер защиты.

В самом деле, Федеральная комиссия по связи (FCC) только что объявила Голосовые вызовы, генерируемые искусственным интеллектом, считаются «искусственными» в соответствии с Законом о защите потребителей телефонной связи (TCPA), что делает использование технологии клонирования голоса незаконным и предоставляет генеральным прокурорам штатов по всей стране новые инструменты для борьбы с такой мошеннической деятельностью.

«ИИ развивается настолько быстро, что существует неизбежная опасность того, что любые предлагаемые правила могут стать неэффективными по мере развития технологий и потенциально не достичь цели», — говорит О'Рейли. «В каком-то смысле это Дикий Запад, и ИИ выходит на рынок с очень небольшими гарантиями».

Отметка времени:

Больше от Темное чтение