Intel says it can sort the living human beings from the deepfakes in real time PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Intel pravi, da lahko v realnem času loči živa človeška bitja od globokih ponaredkov

Intel trdi, da je razvil model AI, ki lahko v realnem času zazna, ali videoposnetek uporablja tehnologijo deepfake, tako da išče subtilne spremembe barve, ki bi bile očitne, če bi bil subjekt živo človeško bitje.

Velikan izdelave čipov trdi, da je FakeCatcher sposoben vrniti rezultate v milisekundah in da ima 96-odstotno stopnjo natančnosti.

Prišlo je skrb v zadnjih letih nad tako imenovanimi deepfake videoposnetki, ki uporabljajo algoritme umetne inteligence za ustvarjanje lažnih posnetkov ljudi. Glavna skrb je bila osredotočena na to, da se lahko uporabi za to, da se zdi, da politiki ali slavne osebe dajejo izjave ali počnejo stvari, ki jih dejansko niso rekli ali naredili.

»Deepfake videi so zdaj povsod. Verjetno ste jih že videli; videoposnetki zvezdnikov, ki delajo ali govorijo stvari, ki jih v resnici nikoli niso,« je povedal Ilke Demir, raziskovalec iz osebja Intel Labs. In to ne vpliva samo na znane osebnosti navadni državljani so bile žrtve.

Po mnenju izdelovalca čipov nekateri detektorji, ki temeljijo na globokem učenju, analizirajo neobdelane video podatke, da bi poskušali najti znake, ki bi jih prepoznali kot ponaredek. V nasprotju s tem ima FakeCatcher drugačen pristop, ki vključuje analizo resničnih videoposnetkov za vizualne znake, ki kažejo, da je subjekt resničen.

To vključuje subtilne spremembe barve v slikovnih pikah videoposnetka zaradi pretoka krvi iz srca, ki črpa kri po telesu. Ti signali krvnega pretoka se zbirajo s celega obraza in algoritmi jih prevedejo v prostorsko-časovne zemljevide, pravi Intel, kar omogoča modelu globokega učenja, da zazna, ali je video resničen ali ne. Nekatera orodja za zaznavanje zahtevajo nalaganje video vsebine za analizo, nato pa ure čakanja na rezultate, trdijo.

Vendar pa si ne moremo predstavljati, da bi kdorkoli z motivi za ustvarjanje ponaredkov videoposnetkov lahko razvil algoritme, ki bi lahko preslepili FakeCatcher, če bi imel dovolj časa in sredstev.

Intel je seveda v veliki meri uporabljal lastne tehnologije pri razvoju FakeCatcherja, vključno z odprtokodnim kompletom orodij OpenVINO za optimizacijo modelov globokega učenja in OpenCV za obdelavo slik in videov v realnem času. Ekipe razvijalcev so uporabile tudi platformo Open Visual Cloud za zagotavljanje integriranega sklada programske opreme za Intelove procesorje Xeon Scalable. Programska oprema FakeCatcher lahko izvaja do 72 različnih tokov zaznavanja hkrati na procesorjih Xeon Scalable 3. generacije.

Po mnenju Intela obstaja več možnih primerov uporabe za FakeCatcher, vključno s preprečevanjem uporabnikom, da bi naložili škodljive globoko ponarejene videoposnetke v družbene medije, in pomočjo novinarskim organizacijam, da se izognejo predvajanju manipulirane vsebine. ®

Časovni žig:

Več od Register