Intel siger, at det kan sortere de levende mennesker fra deepfakes i realtid PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Intel siger, at det kan sortere de levende mennesker fra deepfakes i realtid

Intel hævder, at det har udviklet en AI-model, der i realtid kan registrere, om en video bruger deepfake-teknologi ved at lede efter subtile farveændringer, som ville være tydelige, hvis motivet var et levende menneske.

FakeCatcher hævdes af chipfremstillingsgiganten at være i stand til at returnere resultater på millisekunder og at have en nøjagtighed på 96 procent.

Der har været bekymring de seneste år over såkaldte deepfake-videoer, som bruger AI-algoritmer til at generere falske optagelser af mennesker. Den største bekymring har centreret sig om, at det potentielt bliver brugt til at få politikere eller berømtheder til at se ud til at udtale udtalelser eller gøre ting, som de faktisk ikke sagde eller gjorde.

"Deepfake-videoer er overalt nu. Du har sikkert allerede set dem; videoer af berømtheder, der gør eller siger ting, de faktisk aldrig har gjort,” sagde Intel Labs stabsforsker Ilke Demir. Og det påvirker ikke kun berømtheder, endda almindelige borgere har været ofre.

Ifølge chipproducenten analyserer nogle deep learning-baserede detektorer de rå videodata for at forsøge at finde kontrollamper, der kunne identificere det som en falsk. I modsætning hertil tager FakeCatcher en anden tilgang, der involverer at analysere rigtige videoer for visuelle signaler, der indikerer, at motivet er ægte.

Dette omfatter subtile farveændringer i pixels i en video på grund af blodgennemstrømning fra hjertet, der pumper blod rundt i kroppen. Disse blodstrømssignaler opsamles fra hele ansigtet, og algoritmer oversætter disse til rumlige kort, sagde Intel, hvilket gør det muligt for en dyb læringsmodel at opdage, om en video er ægte eller ej. Nogle detektionsværktøjer kræver, at videoindhold uploades til analyse, og derefter venter timer på resultater, hævdes det.

Det er dog ikke uden for mulighederne at forestille sig, at enhver med motiverne til at lave videoforfalskninger måske er i stand til at udvikle algoritmer, der kan narre FakeCatcher, givet nok tid og ressourcer.

Intel har naturligt nok gjort udstrakt brug af sine egne teknologier i udviklingen af ​​FakeCatcher, herunder OpenVINO open source-værktøjssættet til optimering af deep learning-modeller og OpenCV til behandling af billeder og videoer i realtid. Udviklerteamene brugte også Open Visual Cloud-platformen til at levere en integreret softwarestak til Intels Xeon Scalable-processorer. FakeCatcher-softwaren kan køre op til 72 forskellige detektionsstrømme samtidigt på 3rd Gen Xeon Scalable-processorer.

Ifølge Intel er der flere potentielle use cases for FakeCatcher, herunder at forhindre brugere i at uploade skadelige deepfake-videoer til sociale medier og hjælpe nyhedsorganisationer med at undgå at udsende manipuleret indhold. ®

Tidsstempel:

Mere fra Registret