Intel säger att de kan sortera de levande människorna från deepfakes i realtid PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Intel säger att de kan sortera de levande människorna från deepfakes i realtid

Intel hävdar att de har utvecklat en AI-modell som kan upptäcka i realtid om en video använder deepfake-teknik genom att leta efter subtila färgförändringar som skulle vara uppenbara om motivet var en levande människa.

FakeCatcher hävdar av chipstillverkningsjätten att kunna returnera resultat på millisekunder och ha en noggrannhetsgrad på 96 procent.

Det har funnits oro de senaste åren över så kallade deepfake-videor, som använder AI-algoritmer för att generera falska bilder av människor. Den största oro har fokuserat på att det potentiellt används för att få politiker eller kändisar att verka uttala sig eller göra saker som de faktiskt inte har sagt eller gjort.

"Deepfake-videor finns överallt nu. Du har säkert redan sett dem; videor av kändisar som gör eller säger saker som de aldrig faktiskt har gjort, säger Ilke Demir, forskare vid Intel Labs. Och det påverkar inte bara kändisar, ens vanliga medborgare har varit offer.

Enligt chiptillverkaren analyserar några djupinlärningsbaserade detektorer rå videodata för att försöka hitta kontrollampa tecken som skulle identifiera den som en falsk. Däremot tar FakeCatcher ett annat tillvägagångssätt, som involverar att analysera riktiga videor för visuella signaler som indikerar att motivet är verkligt.

Detta inkluderar subtila färgförändringar i pixlarna i en video på grund av blodflödet från hjärtat som pumpar blod runt i kroppen. Dessa blodflödessignaler samlas in från hela ansiktet och algoritmer översätter dessa till spatiotemporala kartor, sa Intel, vilket möjliggör en djupinlärningsmodell för att upptäcka om en video är verklig eller inte. Vissa upptäcktsverktyg kräver att videoinnehåll laddas upp för analys och sedan väntar timmar på resultat, hävdade det.

Det är dock inte bortom möjligheten att föreställa sig att alla med motiv att skapa videoförfalskningar skulle kunna utveckla algoritmer som kan lura FakeCatcher, givet tillräckligt med tid och resurser.

Intel har naturligt nog i stor utsträckning använt sin egen teknik för att utveckla FakeCatcher, inklusive OpenVINO open source-verktygssats för optimering av djupinlärningsmodeller och OpenCV för bearbetning av bilder och videor i realtid. Utvecklarteamen använde också Open Visual Cloud-plattformen för att tillhandahålla en integrerad mjukvarustack för Intels Xeon Scalable-processorer. FakeCatcher-mjukvaran kan köra upp till 72 olika detektionsströmmar samtidigt på 3:e generationens Xeon-skalbara processorer.

Enligt Intel finns det flera potentiella användningsfall för FakeCatcher, inklusive att förhindra användare från att ladda upp skadliga deepfake-videor till sociala medier och att hjälpa nyhetsorganisationer att undvika att sända manipulerat innehåll. ®

Tidsstämpel:

Mer från Registret