Фінансовий директор Deepfake обдурив бізнес Гонконгу на 25 мільйонів доларів

Фінансовий директор Deepfake обдурив бізнес Гонконгу на 25 мільйонів доларів

Фінансовий директор Deepfake обдурив бізнес Гонконгу за 25 мільйонів доларів PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Повідомляється, що фінансовий спеціаліст транснаціональної компанії з Гонконгу був викрадений шахраєм на 25 мільйонів доларів (200 мільйонів гонконгських доларів) грошей компанії, коли шахраї під час відеоконференції створили дипфейк його фінансового директора з Лондона.

Гонконгець приєднався до відеочату, в якому з’явився його фінансовий директор, але він виглядав трохи збоку. Настільки, що працівник спочатку запідозрив це. Але його нерви були заспокоєні, коли інші колеги, яких він впізнав, здавалося, приєдналися до виклику, поліція Гонконгу як повідомляється пояснив

Фальшивий фінансовий директор дедалі наполегливіше благав виконати грошові перекази, і жертва виконувала вказівки, надані під час дзвінка, зрештою здійснивши 15 переказів на п’ять місцевих банківських рахунків.

Повідомляється, що створені штучним інтелектом відео були створені на основі минулих справжніх онлайн-конференцій. Щоб додати афері глибини та достовірності, зловмисники використовували WhatsApp, електронну пошту та відеоконференції один на один із співробітниками Гонконгу.

«Я вважаю, що шахрай заздалегідь завантажив відео, а потім використав штучний інтелект, щоб додати підроблені голоси для використання під час відеоконференції», — повідомив старший суперінтендант міської поліції барон Чан Шун-чжин.

Що саме сталося під час доленосного дзвінка, сперечаються. Деякі звіти свідчать про те, що лише один учасник дзвінка був справжнім, тоді як інші стверджують, що кілька учасників були людьми.

Усі погоджуються, що з’явилися люди, створені штучним інтелектом, і що, на жаль, неназваного фінансового спеціаліста обдурили. Ця реальність була відкрита жертвою лише після того, як він зв’язався з (також неназваною) головним офісом корпорації.

Місцеве ЗМІ Стандартний оголошений інцидент перша шахрайська відеоконференція deepfake у Гонконгу.

У більш простий і невинний час – приблизно півтора року тому – дослідник Sophos Джон Шаєр сказав Рег deepfakes не становили великої загрози.

За словами Шаєра, шахраї віддавали перевагу більш простим і дешевим атакам, таким як старомодний фішинг.

Незалежно від того, чи це викликано привабливістю більших фінансових стимулів, чи під впливом останніх значних досягнень у технології штучного інтелекту, які полегшують їх створення, здається, що ера байдужості до deepfakes швидко зникає.

Хоча шахрайство з фінансовим директором із глибоким підробленням може бути першим у Гонконзі, де використовується відеоконференція, це не єдине шахрайство з використанням цієї технології. Відповідно до CNN, на брифінгу в п’ятницю поліція Гонконгу повідомила, що вони здійснили шість арештів у зв’язку з іншими шахрайствами з deepfake і що штучний інтелект deepfake використовувався принаймні 20 разів, щоб обдурити програмне забезпечення для розпізнавання облич.

Проблема діпфейків теж глобальна. Сенатори США минулого тижня введені двопартійний законопроект, який дозволить жертвам, зображеним у беззгодних порнографічних дипфейках, створених ШІ, подавати до суду на творців відео.

Цей крок був зроблений після відверто сексуальних зображень Тейлор Свіфт, створених ШІ поширені у соціальних мережах, зокрема в X/Twitter, де вони набрали десятки мільйонів переглядів до того, як сайт, що належить Маску, заблокував пошук поп-ікони.

Індія мала подібні проблеми коли в листопаді в Інтернеті з’явилося відео індійської акторки Рашміки Манданни, згенероване штучним інтелектом, але воно все одно є особистим і професійним порушенням.

Міністр ІТ Індії Раджив Чандрасекар як повідомляється наприкінці січня попередили, що платформи соціальних мереж будуть притягнуті до відповідальності за глибокі фейки, які їхні користувачі публікують. ®

Часова мітка:

Більше від Реєстр