Deepfake Democracy: технологія AI ускладнює безпеку виборів

Deepfake Democracy: технологія AI ускладнює безпеку виборів

Deepfake Democracy: технологія ШІ ускладнює безпеку виборів PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Останні події, зокрема глибокий фейк, створений штучним інтелектом (ШІ). автоматичний дзвінок, що видає себе за президента Байдена закликаючи виборців у Нью-Гемпширі утриматися від первинних виборів, служить яскравим нагадуванням про те, що зловмисники все частіше розглядають сучасні генеративні платформи штучного інтелекту (GenAI) як потужну зброю для націлювання на вибори в США.

Такі платформи, як ChatGPT, Gemini від Google (раніше Bard), або будь-яка кількість спеціально створених великих мовних моделей Dark Web (LLM) можуть зіграти певну роль у підриві демократичного процесу з атаками, що охоплюють кампанії масового впливу, автоматичний тролінг і розповсюдження глибокий фейковий контент.

Насправді директор ФБР Крістофер Рей нещодавно висловлені занепокоєння про триваючу інформаційну війну з використанням дипфейків, які можуть посіяти дезінформацію під час майбутньої президентської кампанії, як підтримувані державою актори спроби похитнути геополітичні баланси.

GenAI також може автоматизувати зростання "скоординована неавтентична поведінка» мережі, які намагаються створити аудиторію для своїх кампаній з дезінформації за допомогою фейкових новин, переконливих профілів у соціальних мережах та іншими способами — з метою посіяти розбрат і підірвати довіру суспільства до виборчого процесу.

Вплив на вибори: значні ризики та кошмарні сценарії

З точки зору Падрейка О'Рейлі, директора з інновацій CyberSaint, ризик є «значним», оскільки технологія розвивається дуже швидко.

«Це обіцяє бути цікавим і, можливо, трохи тривожним, оскільки ми бачимо нові варіанти дезінформації, що використовує технологію deepfake», — говорить він.

Зокрема, каже О'Райлі, «кошмарний сценарій» полягає в тому, що мікротаргетинг із контентом, створеним ШІ, пошириться на платформах соціальних мереж. Це знайома тактика з Скандал Кембріджі Аналітіка, де компанія зібрала дані про психологічні профілі 230 мільйонів виборців США, щоб обслуговувати строго підібрані повідомлення через Facebook для людей, намагаючись вплинути на їхні переконання — і голоси. Але GenAI міг би масштабно автоматизувати цей процес і створювати дуже переконливий контент, який мав би небагато, якщо взагалі мав би ознаки «бота», які могли б відштовхнути людей.

«Викрадені цільові дані [моментальні знімки особистості користувача та його інтереси], об’єднані з контентом, створеним штучним інтелектом, становлять реальний ризик», — пояснює він. «Російські дезінформаційні кампанії 2013–2017 років свідчать про те, що ще може статися і станеться, і ми знаємо про дипфейки, створені громадянами США [як той] із зображенням Байдена, і Елізабет Уоррен».

Поєднання соціальних мереж і легкодоступна технологія deepfake може стати зброєю кінця світу для поляризації громадян США у вже глибоко розділеній країні, додає він.

«Демократія ґрунтується на певних спільних традиціях та інформації, і небезпека тут полягає в посиленні балканізації громадян, що призводить до того, що Стенфордський дослідник Рене ДіРеста назвала «реальністю на замовлення», — каже О'Рейлі, він же люди, які вірять в «альтернативні факти».

Платформи, які зловмисники використовують, щоб посіяти розбіжності, ймовірно, мало допоможуть: він додає, що, наприклад, платформа соціальних медіа X, раніше відома як Twitter, порушила систему забезпечення якості (QA) контенту.

«Інші платформи надали стандартні гарантії, що вони боротимуться з дезінформацією, але захист свободи слова та відсутність регулювання все ще залишають поле відкритим для зловмисників», – застерігає він.

AI посилює наявні фішингові TTP

За словами Скотта Смолла, директора відділу розвідки кіберзагроз у Tidal Cyber, GenAI вже використовується для створення більш правдоподібних цілеспрямованих фішингових кампаній, але в контексті безпеки виборів це явище викликає більше занепокоєння.

«Ми очікуємо, що кіберзловмисники запровадять генеративний штучний інтелект, щоб зробити фішингові атаки та атаки соціальної інженерії — провідні форми атак, пов’язаних з виборами, з огляду на постійний обсяг протягом багатьох років — більш переконливі, підвищуючи ймовірність того, що цілі взаємодітимуть зі шкідливим вмістом, – пояснює він.

Смолл каже, що впровадження штучного інтелекту також знижує бар’єр для запуску таких атак, фактор, який, ймовірно, збільшить обсяг кампаній цього року, які намагаються проникнути в кампанії або заволодіти обліковими записами кандидатів з метою видавання себе за іншу особу, серед іншого.

«Злочинці та вороги національних держав регулярно адаптують фішингові та соціальні інженерні приманки до поточних подій і популярних тем, і ці актори майже напевно намагатимуться отримати вигоду від буму цифрового контенту, пов’язаного з виборами, який поширюється в цілому цього року, щоб спробувати доставити зловмисний контент. контент для нічого не підозрюючих користувачів», – каже він.

Захист від загроз ШІ на виборах

Щоб захиститися від цих загроз, представники виборчих кампаній і виборчі кампанії повинні знати про ризики, створені GenAI, і знати, як від них захиститися.

«Офіційні особи та кандидати постійно дають інтерв’ю та прес-конференції, щоб загрозливі суб’єкти могли отримати звукові фрагменти для глибоких фейків на основі штучного інтелекту», — каже Джеймс Тургал, віце-президент із кіберризиків Optiv. «Тому вони зобов’язані переконатися, що у них є особа або команда, відповідальна за забезпечення контролю над контентом».

Вони також повинні переконатися, що волонтери та працівники пройшли навчання щодо загроз на основі штучного інтелекту, таких як розширена соціальна інженерія, суб’єкти загроз, які стоять за ними, і те, як реагувати на підозрілу активність.

З цією метою співробітники повинні брати участь у тренінгах із соціальної інженерії та відеопідробки, які містять інформацію про всі форми та вектори атак, у тому числі електронні (електронна пошта, текстові повідомлення та соціальні медіа-платформи), особисті спроби та спроби по телефону.

«Це дуже важливо — особливо для волонтерів — тому що не всі мають належну кібергігієну», — каже Тургал.

Крім того, волонтери передвиборчої кампанії та виборів повинні пройти навчання, як безпечно надавати інформацію в Інтернеті та стороннім організаціям, зокрема публікації в соціальних мережах, і бути обережними, роблячи це.

«Суб’єкти кіберзагрози можуть збирати цю інформацію, щоб адаптувати соціально створені приманки для конкретних цілей», – застерігає він.

О'Райлі каже, що довгострокове регулювання включає водяні знаки для аудіо та відео дипфейків матиме важливе значення, зазначаючи, що федеральний уряд працює з власниками LLM, щоб запровадити захист.

У самому справі, Федеральна комісія зв’язку (FCC) щойно оголосила Голосові дзвінки, згенеровані штучним інтелектом, вважаються «штучними» відповідно до Закону про захист споживачів телефонних зв’язків (TCPA), що робить використання технології клонування голосу незаконним і надає генеральним прокурорам по всій країні нові інструменти для боротьби з такими шахрайськими діями.

«Штучний інтелект рухається настільки швидко, що існує невід’ємна небезпека того, що будь-які запропоновані правила можуть стати неефективними з розвитком технологій, потенційно не досягнувши мети», — говорить О'Райлі. «У певному сенсі це Дикий Захід, і штучний інтелект виходить на ринок із дуже невеликими гарантіями».

Часова мітка:

Більше від Темне читання