Глибокі підробки штучного інтелекту також становлять загрозу для бізнесу — ось чому — розшифруйте

Глибокі підробки штучного інтелекту також становлять загрозу для бізнесу — ось чому — розшифруйте

Глибокі підробки штучного інтелекту також становлять загрозу для бізнесу — ось чому — розшифруйте дані PlatoBlockchain Intelligence. Вертикальний пошук. Ai.

У той час як технічні гіганти змагаються за надання штучного інтелекту масам і володіння ринком, що розвивається, гонка озброєнь штучного інтелекту сприяє збільшенню кількості «підроблених» відео та аудіоконтенту, який часто виглядає або звучить переконливо законним, але насправді є шахрайським спотворенням. Згідно з новим звітом, вони також впливають на бізнес.

Deepfakes — це створені штучним інтелектом творіння, такі як зображення, відео та аудіо, які маніпулюють, щоб ввести людей в оману. Шахраї використовують дипфейки для шахрайства, вимагання, або завдати шкоди репутації. Поширення генеративний ШІ інструменти полегшили шахраям створення підробленого вмісту, ніж будь-коли.

Знаменитостей та інших публічних діячів вставляють у штучні, а іноді й відверті кадри без їхньої згоди таким чином, що іноді стає вірусним або може викликати паніку в соціальних мережах. У звіті, наданому Розшифрувати, глобальна бухгалтерська фірма КПМГ написав, що бізнес-сектор також не застрахований від загрози deepfake.

Контент Deepfake можна використовувати в атаках соціальної інженерії та інших типах кібератак, націлених на компанії, пише KPMG, в той час як такий контент може також вплинути на репутацію компаній та їх керівників. Неправдиві відомості про представників компанії також можуть використовуватися в схемах для обману клієнтів або для переконання працівників надати інформацію чи переказати гроші незаконним особам.

КПМГ навів приклад 2020 року про керівника філії компанії в Гонконзі, якого обдурили, щоб він переказав шахраям кошти компанії на суму 35 мільйонів доларів, оскільки повірив, що його бос телефонував і наказав йому це зробити. Натомість це було клоноване штучним інтелектом відтворення голосу керівника — усе це було частиною складної схеми шахрайства з фірми.

«Наслідки кібератак із використанням синтетичного контенту — цифрового контенту, створеного або обробленого з підлими цілями — можуть бути масштабними, дорогими та мати різноманітні соціально-економічні наслідки, зокрема фінансові, репутаційні, сервісні та геополітичні, серед іншого», — йдеться у звіті.

Deepfeke кадри з Дональдом Трампом арештований на початку цього року, Франциск в розкішному одязі Balenciaga, і Елон Маск реклама криптошахрайства стала вірусною за останній рік, оскільки технологія deepfake вдосконалилася завдяки розвитку інструментів ШІ.

«Незалежно від того, чи це дешеві фейки, чи глибокі фейки, економічна модель значно змінилася через генеративні моделі штучного інтелекту», — пише KPMG.

Крім публічних діячів, згаданих вище, відомі знаменитості, чиї образи були викрадені та застосовані до підроблених кадрів, включають актрису Емму Вотсон і музиканта Тейлор Свіфт. Але KPMG б’є на сполох саме про потенційний вплив на підприємства та їх інколи видатних лідерів.

«Як фактор ризику, глибокий фейковий контент викликає занепокоєння не лише у соціальних мережах, сайтах знайомств та індустрії розваг — тепер це проблема зали засідань», — заявили в KPMG. «Наприклад, майже всі респонденти (92%) нещодавнього опитування KPMG щодо генеративного штучного інтелекту серед 300 керівників у різних галузях і регіонах кажуть, що їхнє занепокоєння щодо ризиків впровадження генеративного штучного інтелекту є помірним або дуже значним».

Не лише компанії та знаменитості мають справу зі зростанням як якості, так і кількості глибоких фейкових відео в Інтернеті. Уряди та регулятори також враховують потенційний вплив на суспільство та вибори, тоді як розробники таких інструментів ШІ зважують їхній потенційний негативний вплив.

Минулого тижня Федеральна виборча комісія США, передбачаючи використання дипфейків на виборах 2024 року, просунулася вперед із клопотати заборонити використання штучного інтелекту в передвиборній рекламі.

У разі схвалення агентство внесе зміни до чинних правил щодо шахрайського введення в оману «повноважень кампанії» та роз’яснить, що заборона стосується навмисно оманливої ​​реклами кампанії ШІ.

«Регуляторні органи повинні продовжувати розуміти та враховувати вплив нових загроз на існуючі правила», — сказав Метью Міллер, директор служби кібербезпеки KPMG. Розшифрувати. «Запропоновані вимоги до маркування та нанесення водяних знаків на контент, створений штучним інтелектом, можуть мати позитивний вплив».

У липні дослідники з MIT запропонований додавання змін коду до великих дифузійних моделей, щоб зменшити ризик глибоких фейків, шляхом додавання крихітних змін, які важко побачити, але в кінцевому підсумку змінюють роботу моделей, змушуючи їх генерувати зображення, які не виглядають справжніми. Мета, між тим, нещодавно затримав інструмент ШІ через його глибокий фейковий потенціал.

Ажіотаж навколо творчого потенціалу генеративних інструментів штучного інтелекту був пом’якшений усвідомленням того, що вони так само можуть створювати можливості для шкідливого вмісту. Зрештою, на тлі швидкого вдосконалення таких інструментів, Міллер закликав усіх бути пильними щодо потенційного підробленого вмісту.

«Громадськість повинна зберігати постійну пильність під час взаємодії через цифрові канали», — сказав він Розшифруйте. «Усвідомлення ситуації та здоровий глузд відіграють важливу роль у запобіганні інциденту. Якщо щось «здається не так», це, швидше за все, є зловмисною діяльністю».

Будьте в курсі криптовалютних новин, отримуйте щоденні оновлення на свою поштову скриньку.

Часова мітка:

Більше від Розшифрувати