Корпорація Майкрософт представляє технологію deepfake, яка занадто хороша для випуску

Корпорація Майкрософт представляє технологію deepfake, яка занадто хороша для випуску

Microsoft unveils deepfake tech that's too good to release PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Цього тижня корпорація Майкрософт продемонструвала VASA–1, структуру для створення відеозаписів людей, які розмовляють із нерухомого зображення, зразка аудіо та текстового сценарію, і справедливо стверджує, що це надто небезпечно, щоб оприлюднити його для громадськості.

Ці створені за допомогою штучного інтелекту відео, у яких людей можна переконливо анімувати, щоб вони вимовляли замовлені слова клонованим голосом, — це саме те, що Федеральна торгова комісія США попереджали про минулого місяця, після попереднього пропонуючи правило щоб запобігти використанню технології ШІ для шахрайства з видаванням себе за іншу особу.

Команда Microsoft визнає це багато в своїх оголошення, який пояснює, що технологія не випускається через етичні міркування. Вони наполягають на тому, що представляють дослідження для створення віртуальних інтерактивних персонажів, а не для того, щоб видати себе за когось. Таким чином, продукт або API не планується.

«Наше дослідження зосереджено на створенні візуальних афективних навичок для віртуальних аватарів штучного інтелекту, спрямованих на позитивні додатки», — заявляють бофіни Редмонда. «Це не призначено для створення контенту, який використовується для введення в оману або обману.

«Однак, як і інші пов’язані методи створення контенту, його все ще потенційно можна використати зловживати для видавання себе за людей. Ми виступаємо проти будь-якої поведінки, спрямованої на створення оманливого або шкідливого вмісту про реальних осіб, і зацікавлені у застосуванні нашої техніки для вдосконалення виявлення підробок».

Кевін Сурас, голова Token, бізнес біометричної автентифікації, який часто доповідає про генеративний ШІ, сказав Реєстр в електронному листі про те, що, незважаючи на те, що попередні технологічні демонстрації облич були анімовані з нерухомого кадру та клонованого голосового файлу, демонстрація Microsoft відображає сучасний рівень.

«Наслідки для персоналізації електронних листів та інших ділових засобів масової комунікації неймовірні», — висловив думку він. «Навіть анімація старих зображень. Певною мірою це просто розвага, а іншою – це надійні бізнес-додатки, якими ми всі будемо користуватися в найближчі місяці й роки».

«Забава» дипфейків полягала в тому, що 96 відсотків порно без згоди оцінюється [PDF] у 2019 році фірмою з кібербезпеки Deeptrace.

Тим не менш, дослідники Microsoft припускають, що здатність створювати людей, що виглядають реалістично, і вкладати слова в їхні уста, має позитивні переваги.

«Така технологія обіцяє збагатити цифрове спілкування, збільшити доступність для тих, хто має комунікативні порушення, трансформувати освіту, методи з інтерактивним навчанням ШІ та забезпечити терапевтичну підтримку та соціальну взаємодію в охороні здоров’я», — пропонують вони в дипломну роботу який не містить слів «порно» чи «дезінформація».

Хоча можна сперечатися, відео, створене штучним інтелектом, не зовсім те саме, що дипфейк, останнє певний за допомогою цифрових маніпуляцій, на відміну від генеративного методу, різниця стає несуттєвою, коли переконливу підробку можна створити без «вирізання та вставлення».

Відповідаючи на запитання, що він думає про те, що Microsoft не випускає цю технологію для громадськості, побоюючись її неправильного використання, Сурас висловив сумнів щодо життєздатності обмежень.

«Майкрософт та інші наразі стрималися, поки не вирішать проблеми конфіденційності та використання», — сказав він. «Як хтось регулюватиме, хто використовує це з правильних причин?»

Сурас додав, що вже існують такі ж складні моделі з відкритим вихідним кодом EMO. «Можна отримати вихідний код із GitHub і створити на його основі сервіс, який, мабуть, буде конкурувати з результатами Microsoft», — зазначив він. «Через природу простору з відкритим кодом, регулювати його в будь-якому випадку буде неможливо».

Тим не менш, країни в усьому світі намагаються регулювати людей, створених ШІ. Канада, Китай, А UK, серед інших країн, у всіх є правила, які можуть застосовуватися до дипфейків, деякі з яких виконують ширші політичні цілі. Великобританія лише цього тижня зробив це незаконним для створення відверто сексуального зображення deepfake без згоди. Обмін такими зображеннями вже був заборонений Законом Великобританії про онлайн-безпеку від 2023 року.

У січні двопартійна група законодавців США введені Закон про припинення відверто підроблених зображень і редагування без згоди 2024 року (Закон про НЕПІДХІД), законопроект, який дає можливість жертвам несанкціонованих глибоких фейків подавати цивільний позов до суду.

А у вівторок, 16 квітня, Комітет Сенату США з питань юстиції, підкомітет з питань конфіденційності, технологій і права провели слухання під назвою «Нагляд за AI: Election Deepfakes».

У підготовленому коментарі Ріджул Гупта, генеральний директор DeepMedia, компанії з виявлення глибоких фейків, сказав:

Найбільш тривожним аспектом глибоких фейків є їхня здатність надавати зловмисникам правдоподібне заперечення, дозволяючи їм відкидати справжній вміст як фальшивий. Ця ерозія суспільної довіри вражає саму суть нашої соціальної структури та основи нашої демократії. Людський мозок, налаштований вірити тому, що він бачить і чує, особливо вразливий до обману глибоких фейків. Оскільки ці технології стають дедалі складнішими, вони загрожують підірвати спільне відчуття реальності, яке лежить в основі нашого суспільства, створюючи атмосферу невизначеності та скептицизму, коли громадяни змушені сумніватися в правдивості кожної інформації, з якою вони стикаються.

Але подумайте про маркетингові програми. ®

Часова мітка:

Більше від Реєстр