Intel afferma di poter separare gli esseri umani viventi dai deepfake in tempo reale tramite PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Intel afferma di poter separare gli esseri umani viventi dai deepfake in tempo reale

Intel afferma di aver sviluppato un modello di intelligenza artificiale in grado di rilevare in tempo reale se un video utilizza la tecnologia deepfake cercando sottili cambiamenti di colore che sarebbero evidenti se il soggetto fosse un essere umano vivo.

FakeCatcher è affermato dal gigante della produzione di chip di essere in grado di restituire risultati in millisecondi e di avere un tasso di precisione del 96%.

C'è stata preoccupazione negli ultimi anni sui cosiddetti video deepfake, che utilizzano algoritmi di intelligenza artificiale per generare filmati falsi di persone. La preoccupazione principale era incentrata sul fatto che fosse potenzialmente utilizzato per far sembrare che politici o celebrità stessero esprimendo dichiarazioni o facendo cose che in realtà non hanno detto o fatto.

“I video deepfake sono ovunque ora. Probabilmente li hai già visti; video di celebrità che fanno o dicono cose che in realtà non hanno mai fatto", ha affermato Ilke Demir, ricercatore dello staff di Intel Labs. E non riguarda solo le celebrità, anche comuni cittadini sono state vittime.

Secondo il produttore di chip, alcuni rilevatori basati sul deep learning analizzano i dati video grezzi per cercare di trovare segni rivelatori che li identificherebbero come falsi. Al contrario, FakeCatcher adotta un approccio diverso, coinvolgendo l'analisi di video reali per segnali visivi che indicano che il soggetto è reale.

Ciò include sottili cambiamenti di colore nei pixel di un video dovuti al flusso sanguigno dal cuore che pompa il sangue in tutto il corpo. Questi segnali del flusso sanguigno vengono raccolti da tutto il viso e gli algoritmi li traducono in mappe spaziotemporali, ha affermato Intel, consentendo a un modello di deep learning di rilevare se un video è reale o meno. Alcuni strumenti di rilevamento richiedono che i contenuti video vengano caricati per l'analisi, quindi attendere ore per i risultati, ha affermato.

Tuttavia, non è al di là del regno delle possibilità immaginare che chiunque abbia i motivi per creare falsi video possa essere in grado di sviluppare algoritmi in grado di ingannare FakeCatcher, con tempo e risorse sufficienti.

Intel ha naturalmente fatto ampio uso delle proprie tecnologie nello sviluppo di FakeCatcher, incluso il toolkit open source OpenVINO per l'ottimizzazione dei modelli di deep learning e OpenCV per l'elaborazione di immagini e video in tempo reale. I team di sviluppo hanno inoltre utilizzato la piattaforma Open Visual Cloud per fornire uno stack software integrato per i processori Xeon Scalable di Intel. Il software FakeCatcher può eseguire fino a 72 diversi flussi di rilevamento contemporaneamente su processori scalabili Xeon di terza generazione.

Secondo Intel, ci sono diversi potenziali casi d'uso per FakeCatcher, incluso impedire agli utenti di caricare video deepfake dannosi sui social media e aiutare le testate giornalistiche a evitare la trasmissione di contenuti manipolati. ®

Timestamp:

Di più da Il registro