A Intel diz que pode separar os seres humanos vivos dos deepfakes em tempo real PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Intel diz que pode separar os seres humanos vivos dos deepfakes em tempo real

A Intel afirma ter desenvolvido um modelo de IA que pode detectar em tempo real se um vídeo está usando a tecnologia deepfake, procurando mudanças sutis na cor que seriam evidentes se o sujeito fosse um ser humano vivo.

O FakeCatcher é reivindicado pela gigante da fabricação de chips por ser capaz de retornar resultados em milissegundos e ter uma taxa de precisão de 96%.

Tem havido interesse nos últimos anos sobre os chamados vídeos deepfake, que usam algoritmos de IA para gerar imagens falsas de pessoas. A principal preocupação centrou-se no fato de ser potencialmente usado para fazer com que políticos ou celebridades pareçam estar fazendo declarações ou fazendo coisas que na verdade não disseram ou fizeram.

“Os vídeos deepfake estão em toda parte agora. Você provavelmente já os viu; vídeos de celebridades fazendo ou dizendo coisas que nunca fizeram”, disse Ilke Demir, cientista da equipe de pesquisa da Intel Labs. E não está afetando apenas celebridades, mesmo Cidadãos comuns foram vítimas.

De acordo com o fabricante de chips, alguns detectores baseados em aprendizado profundo analisam os dados brutos do vídeo para tentar encontrar sinais indicadores que o identifiquem como falso. Em contraste, o FakeCatcher adota uma abordagem diferente, envolvendo a análise de vídeos reais em busca de pistas visuais que indiquem que o assunto é real.

Isso inclui mudanças sutis na cor dos pixels de um vídeo devido ao fluxo sanguíneo do coração bombeando o sangue pelo corpo. Esses sinais de fluxo sanguíneo são coletados de todo o rosto e os algoritmos os traduzem em mapas espaço-temporais, disse a Intel, permitindo que um modelo de aprendizado profundo detecte se um vídeo é real ou não. Algumas ferramentas de detecção exigem que o conteúdo do vídeo seja carregado para análise e depois espere horas pelos resultados, afirmou.

No entanto, não é impossível imaginar que qualquer pessoa com motivos para criar falsificações de vídeo possa desenvolver algoritmos que possam enganar o FakeCatcher, com tempo e recursos suficientes.

A Intel naturalmente fez uso extensivo de suas próprias tecnologias no desenvolvimento do FakeCatcher, incluindo o kit de ferramentas de código aberto OpenVINO para otimizar modelos de aprendizagem profunda e OpenCV para processar imagens e vídeos em tempo real. As equipes de desenvolvedores também usaram a plataforma Open Visual Cloud para fornecer uma pilha de software integrada para os processadores Xeon Scalable da Intel. O software FakeCatcher pode executar até 72 fluxos de detecção diferentes simultaneamente em processadores escalonáveis ​​Xeon de 3ª geração.

De acordo com a Intel, existem vários casos de uso em potencial para o FakeCatcher, incluindo impedir que os usuários enviem vídeos deepfake prejudiciais para as mídias sociais e ajudar as organizações de notícias a evitar a transmissão de conteúdo manipulado. ®

Carimbo de hora:

Mais de O registro