Intel каже, що може відсортувати живих людей від глибоких фейків у реальному часі PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Intel каже, що може відсортувати живих людей від глибоких фейків у режимі реального часу

Intel стверджує, що розробила модель штучного інтелекту, яка може в режимі реального часу виявляти, чи відео використовує технологію deepfake, шукаючи тонкі зміни кольору, які були б очевидними, якби об’єкт був живою людиною.

Гігант виробництва чіпів стверджує, що FakeCatcher здатний повертати результати за мілісекунди та має 96-відсотковий рівень точності.

Там було неспокій в останні роки над так званими deepfake videos, які використовують алгоритми AI для створення підроблених кадрів людей. Основне занепокоєння зосереджувалося на тому, що його потенційно використовували, щоб зробити так, щоб політики чи знаменитості висловлювали заяви або робили те, чого вони насправді не говорили чи не робили.

«Відео Deepfeke зараз всюди. Ви, мабуть, уже бачили їх; відео зі знаменитостями, які роблять або говорять те, чого вони насправді ніколи не робили», – сказав науковий співробітник Intel Labs Ілке Демір. І це стосується навіть не лише знаменитостей простих громадян були жертвами.

За словами виробника чіпів, деякі детектори на основі глибокого навчання аналізують необроблені відеодані, щоб спробувати знайти сигнальні ознаки, які б ідентифікували їх як підробку. На відміну від цього, FakeCatcher використовує інший підхід, включаючи аналіз реальних відео на предмет візуальних ознак, які вказують на те, що об’єкт реальний.

Це включає в себе незначні зміни кольору пікселів відео внаслідок потоку крові від серця, що перекачує кров по всьому тілу. Ці сигнали кровотоку збираються з усього обличчя, а алгоритми перетворюють їх на просторово-часові карти, зазначає Intel, що дозволяє моделі глибокого навчання визначати, чи є відео реальним чи ні. Деякі інструменти виявлення вимагають завантаження відеоконтенту для аналізу, а потім години очікування результатів.

Однак не виходить за рамки можливості уявити, що будь-хто, хто має мотиви створювати підробки відео, зможе розробити алгоритми, які можуть обдурити FakeCatcher, маючи достатньо часу та ресурсів.

Природно, Intel досить широко використовувала власні технології при розробці FakeCatcher, включаючи набір інструментів OpenVINO з відкритим кодом для оптимізації моделей глибокого навчання та OpenCV для обробки зображень і відео в реальному часі. Команди розробників також використовували платформу Open Visual Cloud, щоб забезпечити інтегрований стек програмного забезпечення для процесорів Intel Xeon Scalable. Програмне забезпечення FakeCatcher може запускати до 72 різних потоків виявлення одночасно на процесорах Xeon Scalable 3-го покоління.

За словами Intel, існує кілька потенційних варіантів використання FakeCatcher, зокрема запобігання користувачам завантажувати шкідливі глибокі фейкові відео в соціальні мережі та допомога новинним організаціям уникати трансляції маніпульованого контенту. ®

Часова мітка:

Більше від Реєстр