Переформатування ландшафту загроз: кібератаки Deepfake тут PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Зміна ландшафту загроз: кібератаки Deepfake тут

Шкідливі кампанії з використанням технологій deepfake набагато ближчі, ніж багато хто може припустити. Крім того, пом’якшити та виявити їх важко.

Нове дослідження використання та зловживання дипфейками кіберзлочинцями показує, що всі необхідні елементи для широкого використання технології наявні та легко доступні на підпільних ринках і відкритих форумах. Дослідження Trend Micro показує, що багато фішингу з підтримкою deepfake, компрометації бізнес-електронної пошти (BEC) і рекламного шахрайства вже відбуваються і швидко змінюючи ландшафт загроз.

Більше не гіпотетична загроза

«Від гіпотетичних і підтверджених загроз [атаки з підтримкою глибоких підробок] перейшли до стадії, коли незрілі злочинці можуть використовувати такі технології», — каже Володимир Кропотов, дослідник безпеки з Trend Micro і головний автор звіт на тему, який постачальник безпеки випустив цього тижня. 

«Ми вже бачимо, як дипфейки інтегруються в атаки на фінансові установи, шахрайство та спроби видати себе за політиків», — каже він, додаючи, що лякає те, що багато з цих атак використовують особистість реальних людей — часто зібраних із вмісту, який вони публікують у соціальних мережах. медійні мережі.

Одним із головних висновків дослідження Trend Micro є доступність інструментів, зображень і відео для генерації глибоких фейків. Наприклад, постачальник засобів безпеки виявив, що численні форуми, включаючи GitHub, пропонують вихідний код для розробки глибоких фейків усім, хто цього хоче. Подібним чином доступно достатньо високоякісних зображень і відео звичайних людей і громадських діячів, щоб зловмисники могли створювати мільйони підроблених ідентифікацій або видавати себе за політиків, бізнес-лідерів та інших відомих особистостей.

На підпільних форумах також зростає попит на послуги deepfake і людей, які мають досвід у цій темі. Trend Micro знайшов оголошення від злочинців, які шукали ці навички для здійснення шахрайства з криптовалютою та шахрайства з окремими фінансовими рахунками. 

«Актори вже можуть видавати себе за політиків, керівників високого рівня та знаменитостей і викрадати їх», — йдеться у звіті Trend Micro. «Це може значно підвищити рівень успіху певних атак, таких як фінансові схеми, короткочасні кампанії з дезінформації, маніпуляції громадською думкою та вимагання».

Велика кількість ризиків

Також зростає ризик того, що викрадені або відтворені особисті дані, які належать звичайним людям, будуть використані для обману жертв, які видають себе за іншу особу, або для здійснення зловмисних дій під їхніми особами. 

У багатьох дискусійних групах Trend Micro виявив, що користувачі активно обговорюють способи використання глибоких фейків для обходу банківських та інших засобів перевірки рахунків, особливо тих, що включають відео та методи перевірки віч-на-віч.

Наприклад, злочинці можуть використати особу жертви та використати її глибоке фейкове відео, щоб відкрити банківські рахунки, які пізніше можуть бути використані для відмивання грошей. Вони також можуть захоплювати облікові записи, видавати себе за керівників вищого рівня в організаціях, щоб ініціювати шахрайські грошові перекази або створювати підроблені докази для вимагання окремих осіб, повідомляє Trend Micro. 

Такі пристрої, як Alexa від Amazon і iPhone, які використовують розпізнавання голосу чи обличчя, незабаром можуть потрапити в список цільових пристроїв для атак на основі deepfake, зазначив постачальник засобів безпеки.

«Оскільки багато компаній все ще працюють у віддаленому або змішаному режимі, існує підвищений ризик уособлення персоналу під час конференц-дзвінків які можуть вплинути на внутрішні та зовнішні бізнес-комунікації та чутливі бізнес-процеси та фінансові потоки», — каже Кропотов.

Trend Micro не єдиний, хто б’є на сполох щодо глибоких фейків. Нещодавнє онлайн-опитування, проведене VMware серед 125 фахівців з кібербезпеки та реагування на інциденти, також виявило, що загрози з підтримкою deepfake з’являються не просто так — вони вже тут. Приголомшливі 66% — на 13% більше, ніж у 2021 році — респондентів сказали, що протягом останніх 12 місяців стикалися з інцидентом безпеки, пов’язаним із використанням deepfake.

«Приклади глибоких фейкових атак, які [вже] були свідками, включають голосові дзвінки генерального директора фінансовому директору що призводить до банківського переказу, а також дзвінки співробітників в ІТ для ініціювання скидання пароля», — каже Рік МакЕлрой, головний спеціаліст з кібербезпеки VMware.

Кілька засобів пом’якшення атак Deepfake, і виявити їх важко

Взагалі кажучи, такі типи атак можуть бути ефективними, оскільки поки що немає технологічних виправлень, щоб вирішити цю проблему, каже МакЕлрой. 

«Враховуючи зростання використання та витонченість створення дипфейків, я вважаю це однією з найбільших загроз для організацій з точки зору шахрайства та шахрайства», — попереджає він. 

Найефективніший спосіб зменшити загрозу в даний час полягає в тому, щоб підвищити обізнаність про проблему серед фінансових, виконавчих та ІТ-команд, які є головними цілями цих атак соціальної інженерії. 

«Організації можуть розглянути низькотехнологічні методи, щоб розірвати коло. Це може включати використання виклику та парольної фрази серед керівників під час виведення грошей з організації або проведення двоетапного та перевіреного процесу затвердження», — говорить він.

Гіл Даба, співзасновник і генеральний директор Piaano, також рекомендує суворий контроль доступу як пом'якшувальний захід. Жоден користувач не повинен мати доступу до великих масивів особистих даних, і організаціям необхідно встановлювати обмеження на швидкість, а також виявлення аномалій, каже він.

«Навіть такі системи, як бізнес-аналітика, які вимагають аналізу великих даних, мають мати доступ лише до замаскованих даних», — зазначає Дабах, додаючи, що жодні конфіденційні особисті дані не повинні зберігатися у відкритому вигляді, а такі дані, як ідентифікаційна інформація, мають бути токенізовані та захищені.

Тим часом на фронті виявлення — розробки технологій, таких як штучний інтелект Генеративні змагальні мережі (GAN) ускладнили виявлення глибоких фейків. «Це означає, що ми не можемо покладатися на вміст, що містить «артефактні» підказки про те, що відбулися зміни», — говорить Лу Штайнберг, співзасновник і керуючий партнер CTM Insights.

Щоб виявити маніпуляційний контент, організаціям потрібні відбитки пальців або підписи, які доводять, що щось не змінилося, додає він.

«Ще краще взяти мікровідбитки пальців на частини вмісту та мати можливість визначити, що змінилося, а що ні», — каже він. «Це дуже цінно, коли зображення було відредаговано, але ще більше, коли хтось намагається приховати зображення від виявлення».

Три широкі категорії загроз

Стайнберг каже, що загрози deepfake діляться на три великі категорії. Перший – це кампанії з дезінформації, які здебільшого передбачають редагування легітимного вмісту з метою зміни сенсу. Як приклад, Стейнберг вказує на те, що актори національної держави використовують фейкові зображення та відео в соціальних мережах або вставляють когось на фото, якого не було спочатку — те, що часто використовується для таких речей, як неявна реклама продукту або порно з помсти.

Інша категорія передбачає тонкі зміни зображень, логотипів та іншого вмісту, щоб обійти автоматизовані інструменти виявлення, такі як ті, що використовуються для виявлення підроблених логотипів продуктів, зображень, які використовуються у фішингових кампаніях, або навіть інструментів для виявлення дитячої порнографії.

Третя категорія включає синтетичні або складені дипфейки, які отримують із колекції оригіналів, щоб створити щось абсолютно нове, каже Стейнберг. 

«Ми почали спостерігати це зі звуком кілька років тому, використовуючи комп’ютерне синтезоване мовлення для подолання голосових відбитків у кол-центрах фінансових послуг», — каже він. «Відео зараз використовується для таких речей, як сучасна версія компромісу ділової електронної пошти або для того, щоб завдати шкоди репутації, якщо хтось «скаже» те, чого ніколи не говорив».

Часова мітка:

Більше від Темне читання