Виявляти Deepfakes стане важче: генеральний директор Secta Labs - Розшифруйте

Виявляти Deepfakes стане важче: генеральний директор Secta Labs – Розшифруйте

Стане важче виявляти Deepfakes: генеральний директор Secta Labs - розшифровує дані PlatoBlockchain Intelligence. Вертикальний пошук. Ai.

Оскільки генератори зображень штучного інтелекту стають все більш досконалими, виявлення дипфейків стає більш складним, ніж будь-коли. Правоохоронні органи та світові лідери продовжують бити на сполох щодо небезпеки штучного інтелекту deepfakes у соціальних мережах і в зонах конфлікту.

«Ми вступаємо в епоху, коли більше не можемо повірити в те, що бачимо», — сказав Марко Як, співзасновник і генеральний директор Secta Labs. Розшифрувати в інтерв'ю. «Зараз це легше, тому що глибокі підробки ще не такі хороші, і іноді ви бачите, що це очевидно».

За словами Джака, ми ще не так далеко — можливо, протягом року — від того моменту, коли здатність розрізнити підроблене зображення з першого погляду стане неможливою. І він повинен знати: Джак є генеральним директором компанії, що займається створенням зображень штучного інтелекту.

Як співзасновник Лабораторії Секти у 2022 році; стартап generative AI, що базується в Остіні, зосереджується на створенні високоякісних зображень, згенерованих штучним інтелектом. Користувачі можуть завантажувати свої фотографії та перетворювати їх на знімки голови та аватари, створені штучним інтелектом.

 

Як пояснює Джак, Secta Labs розглядає користувачів як власників моделей штучного інтелекту, створених на основі їхніх даних, тоді як компанія є лише зберігачами, які допомагають створювати зображення з цих моделей. 

Потенційне зловживання більш просунутими моделями штучного інтелекту змусило світових лідерів закликати до негайного дію на регулювання штучного інтелекту та змусив компанії вирішити не публікувати свої передові інструменти для громадськості.

Минулого тижня після оголошення свого нового Голосовий ящик Голосова платформа, створена за допомогою ШІ, Meta заявила, що не буде оприлюднювати ШІ.

«Хоча ми вважаємо, що важливо бути відкритими для спільноти штучного інтелекту та ділитися нашими дослідженнями, щоб просувати сучасні технології штучного інтелекту», — сказав представник Meta. Розшифрувати в електронному листі. «Також необхідно знайти правильний баланс між відкритістю та відповідальністю».

Раніше цього місяця Федеральне бюро розслідувань США попередили шахрайства зі здирництвом AI deepfake і злочинців, які використовують фотографії та відео, взяті з соціальних мереж, для створення підробленого вмісту.

Відповідь у боротьбі з дипфейками, сказав Джак, може полягати не в здатності розпізнати дипфейк, а в здатності викрити дипфейк.

«Штучний інтелект — це перший спосіб виявити [дипфейк], — сказав Джак. «Є люди, які створюють штучний інтелект, у який можна вставити зображення, як відео, і штучний інтелект зможе сказати вам, чи було воно створене штучним інтелектом».

Генеративний штучний інтелект і потенційне використання згенерованих штучним інтелектом зображень у кіно та на телебаченні є гострою темою в індустрії розваг. САГ-АФТРА учасники проголосували перед початком переговорів щодо контракту, щоб дозволити страйк, значний концерн, штучний інтелект.

Джак додав, що проблема полягає в розгортанні гонки озброєнь штучного інтелекту, оскільки технологія стає все більш просунутою, а зловмисники створюють більш просунуті дипфейки, щоб протистояти технології, призначеній для їх виявлення.

Визнаючи, що блокчейн надмірно використовували (дехто може сказати, що його розкручували) як рішення реальних проблем, Джак сказав, що технологія та криптографія можуть вирішити проблему deepfake.

Але хоча технологія може вирішити багато проблем за допомогою глибоких фейків, Джек сказав, що ключем може бути більш низькотехнологічне рішення, мудрість натовпу.

«Одна з речей, які я бачив у Twitter, і що я вважаю гарною ідеєю, — це нотатки спільноти, де люди можуть додавати примітки, щоб надати контексту чиємусь твіту», — сказав Джек. «Твіт може бути дезінформацією, як і дипфейк», — сказав він. Джак додав, що корпораціям соціальних медіа було б корисно подумати про способи залучення своїх спільнот до перевірки автентичності поширеного вмісту.

«Блокчейн може вирішити конкретні проблеми, але криптографія може допомогти ідентифікувати походження зображення», — сказав він. «Це може бути практичним рішенням, оскільки воно стосується перевірки джерела, а не вмісту зображення, незалежно від того, наскільки складним є deepfake».

Будьте в курсі криптовалютних новин, отримуйте щоденні оновлення на свою поштову скриньку.

Часова мітка:

Більше від Розшифрувати