Intel заявляет, что может отличить живых людей от дипфейков в режиме реального времени PlatoBlockchain Data Intelligence. Вертикальный поиск. Ай.

Intel заявляет, что может отличить живых людей от дипфейков в режиме реального времени

Intel утверждает, что разработала модель искусственного интеллекта, которая может в режиме реального времени определять, использует ли видео технологию дипфейка, ища тонкие изменения цвета, которые были бы очевидны, если бы объект был живым человеком.

FakeCatcher утверждает, что гигант по производству микросхем способен возвращать результаты за миллисекунды и иметь точность 96 процентов.

Там было беспокойство в последние годы из-за так называемых дипфейк-видео, в которых алгоритмы искусственного интеллекта используются для создания поддельных кадров с людьми. Основное беспокойство было сосредоточено на том, что он потенциально может использоваться для того, чтобы политики или знаменитости выглядели так, будто они озвучивают заявления или делают то, чего они на самом деле не говорили и не делали.

«Видео дипфейков сейчас повсюду. Вы, вероятно, уже видели их; видео знаменитостей, делающих или говорящих то, чего они на самом деле никогда не делали», — сказал научный сотрудник Intel Labs Илке Демир. И это касается не только знаменитостей, даже обычные граждане были жертвами.

По словам производителя чипов, некоторые детекторы, основанные на глубоком обучении, анализируют необработанные видеоданные, чтобы попытаться найти контрольные признаки, которые позволили бы идентифицировать их как подделку. Напротив, FakeCatcher использует другой подход, включающий анализ реальных видео на наличие визуальных признаков, указывающих на то, что объект реален.

Это включает в себя тонкие изменения цвета в пикселях видео из-за кровотока от сердца, перекачивающего кровь по всему телу. По словам Intel, эти сигналы кровотока собираются со всего лица, и алгоритмы переводят их в пространственно-временные карты, что позволяет модели глубокого обучения определять, является ли видео реальным или нет. Некоторые инструменты обнаружения требуют, чтобы видеоконтент был загружен для анализа, а затем ждал результатов несколько часов.

Тем не менее, не исключено, что любой, у кого есть мотивы для создания подделок видео, может разработать алгоритмы, которые могут обмануть FakeCatcher, при наличии достаточного времени и ресурсов.

Вполне естественно, что Intel широко использовала свои собственные технологии при разработке FakeCatcher, включая набор инструментов с открытым исходным кодом OpenVINO для оптимизации моделей глубокого обучения и OpenCV для обработки изображений и видео в реальном времени. Команды разработчиков также использовали платформу Open Visual Cloud для создания интегрированного программного стека для процессоров Intel Xeon Scalable. Программное обеспечение FakeCatcher может одновременно запускать до 72 различных потоков обнаружения на процессорах Xeon Scalable 3-го поколения.

По данным Intel, существует несколько потенциальных вариантов использования FakeCatcher, в том числе предотвращение загрузки пользователями вредоносных дипфейковых видео в социальные сети и помощь новостным организациям в предотвращении трансляции манипулируемого контента. ®

Отметка времени:

Больше от Регистр