Intel dice que puede separar a los seres humanos vivos de los deepfakes en tiempo real con PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

Intel dice que puede separar a los seres humanos vivos de los deepfakes en tiempo real

Intel afirma que ha desarrollado un modelo de IA que puede detectar en tiempo real si un video está usando tecnología deepfake al buscar cambios sutiles en el color que serían evidentes si el sujeto fuera un ser humano vivo.

El gigante de la fabricación de chips afirma que FakeCatcher es capaz de devolver resultados en milisegundos y tiene una tasa de precisión del 96 por ciento.

No ha habido preocupación en los últimos años por los llamados videos deepfake, que utilizan algoritmos de IA para generar imágenes falsas de personas. La principal preocupación se ha centrado en que se utilice potencialmente para hacer que los políticos o las celebridades parezcan estar expresando declaraciones o haciendo cosas que en realidad no dijeron ni hicieron.

“Los videos deepfake están en todas partes ahora. Probablemente ya los hayas visto; videos de celebridades que hacen o dicen cosas que en realidad nunca hicieron”, dijo Ilke Demir, científica investigadora del personal de Intel Labs. Y no solo afecta a las celebridades, incluso ciudadanos comunes han sido víctimas.

Según el fabricante de chips, algunos detectores basados ​​en el aprendizaje profundo analizan los datos de video sin procesar para tratar de encontrar señales que los identifiquen como falsos. Por el contrario, FakeCatcher adopta un enfoque diferente, que implica el análisis de videos reales en busca de señales visuales que indiquen que el sujeto es real.

Esto incluye cambios sutiles en el color de los píxeles de un video debido al flujo sanguíneo del corazón que bombea sangre por todo el cuerpo. Estas señales de flujo sanguíneo se recopilan de toda la cara y los algoritmos las traducen en mapas espaciotemporales, dijo Intel, lo que permite que un modelo de aprendizaje profundo detecte si un video es real o no. Algunas herramientas de detección requieren que se cargue contenido de video para su análisis y luego esperar horas para obtener resultados, afirmó.

Sin embargo, no está fuera del alcance de la posibilidad imaginar que cualquier persona con los motivos para crear videos falsos podría desarrollar algoritmos que puedan engañar a FakeCatcher, con suficiente tiempo y recursos.

Naturalmente, Intel ha hecho un uso extensivo de sus propias tecnologías en el desarrollo de FakeCatcher, incluido el kit de herramientas de código abierto OpenVINO para optimizar los modelos de aprendizaje profundo y OpenCV para procesar imágenes y videos en tiempo real. Los equipos de desarrolladores también utilizaron la plataforma Open Visual Cloud para proporcionar una pila de software integrada para los procesadores escalables Xeon de Intel. El software FakeCatcher puede ejecutar hasta 72 flujos de detección diferentes simultáneamente en procesadores escalables Xeon de tercera generación.

Según Intel, hay varios casos de uso potenciales para FakeCatcher, incluida la prevención de que los usuarios carguen videos falsos dañinos en las redes sociales y ayudar a las organizaciones de noticias a evitar la transmisión de contenido manipulado. ®

Sello de tiempo:

Mas de El registro