Intel says it can sort the living human beings from the deepfakes in real time PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Intel spune că poate sorta ființele umane vii de deepfakes în timp real

Intel susține că a dezvoltat un model AI care poate detecta în timp real dacă un videoclip utilizează tehnologia deepfake, căutând modificări subtile de culoare care ar fi evidente dacă subiectul ar fi o ființă umană vie.

FakeCatcher este susținut de gigantul producției de cipuri că este capabil să returneze rezultate în milisecunde și că are o rată de precizie de 96%.

Nu a fost îngrijorare în ultimii ani, despre așa-numitele videoclipuri deepfake, care folosesc algoritmi AI pentru a genera imagini false ale oamenilor. Principala preocupare s-a concentrat pe faptul că poate fi folosită pentru a face politicienii sau celebritățile să pară că exprimă declarații sau fac lucruri pe care nu le-au spus sau nu le-au făcut.

„Videoclipurile deepfake sunt peste tot acum. Probabil le-ați văzut deja; videoclipuri cu celebrități care fac sau spun lucruri pe care nu le-au făcut niciodată”, a spus cercetătorul de la Intel Labs, Ilke Demir. Și nu afectează doar celebritățile, chiar și cetăţeni de rând au fost victime.

Potrivit producătorului de cipuri, unii detectori bazați pe învățarea profundă analizează datele video brute pentru a încerca să găsească semne care să le identifice ca fiind fals. În schimb, FakeCatcher adoptă o abordare diferită, implicând analiza videoclipurilor reale pentru indicii vizuale care indică faptul că subiectul este real.

Aceasta include modificări subtile de culoare în pixelii unui videoclip datorită fluxului de sânge din inimă care pompează sânge în jurul corpului. Aceste semnale de flux sanguin sunt colectate de pe toată suprafața feței, iar algoritmii le traduc în hărți spațio-temporale, a spus Intel, permițând unui model de învățare profundă să detecteze dacă un videoclip este real sau nu. Unele instrumente de detectare necesită încărcarea conținutului video pentru analiză, apoi ore de așteptare pentru rezultate, a susținut acesta.

Cu toate acestea, nu este dincolo de tărâmul posibilității să ne imaginăm că oricine are motive pentru a crea falsuri video ar putea să dezvolte algoritmi care să-l păcălească pe FakeCatcher, având suficient timp și resurse.

În mod firesc, Intel a folosit pe scară largă propriile tehnologii în dezvoltarea FakeCatcher, inclusiv setul de instrumente open-source OpenVINO pentru optimizarea modelelor de învățare profundă și OpenCV pentru procesarea imaginilor și videoclipurilor în timp real. Echipele de dezvoltatori au folosit, de asemenea, platforma Open Visual Cloud pentru a oferi o stivă software integrată pentru procesoarele Intel Xeon Scalable. Software-ul FakeCatcher poate rula până la 72 de fluxuri de detectare diferite simultan pe procesoarele scalabile Xeon de a treia generație.

Potrivit Intel, există mai multe cazuri potențiale de utilizare pentru FakeCatcher, inclusiv împiedicarea utilizatorilor să încarce videoclipuri deepfake dăunătoare pe rețelele sociale și ajutarea organizațiilor de știri să evite difuzarea conținutului manipulat. ®

Timestamp-ul:

Mai mult de la Registrul