Deepfake v realnem času je mogoče premagati s stranskim pogledom PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Globoke ponaredke v realnem času je mogoče premagati s stranskim pogledom

Zdi se, da imajo globoko ponarejeni videoposnetki v realnem času, ki so napovedani kot nosilci nove dobe internetne negotovosti, temeljno napako: ne prenesejo stranskih profilov.

To je zaključek iz a poročilo [PDF] iz Metaphysic.ai, ki je specializiran za 3D avatarje, tehnologijo deepfake in upodabljanje 3D slik iz 2D fotografij. V testih, ki jih je izvedel s priljubljeno aplikacijo deepfake v realnem času DeepFaceLive, je močan zavoj na stran takoj pokazal, da oseba na zaslonu ni to, za kar se zdi. 

Pri preizkusu je bilo uporabljenih več modelov – več iz skupnosti deepfake in modelov, vključenih v DeepFaceLive – vendar je 90-stopinjski pogled na obraz povzročil utripanje in popačenje, saj je omrežje za poravnavo obraza, ki se uporablja za ocenjevanje poz, težko ugotovilo, kaj vidi. 

Par slik iz testov Metaphysic, ki prikazujeta deepfake Jima Carreyja in rezultat obračanja na stran.

»Večina algoritmov za poravnavo obraza, ki temeljijo na 2D, dodeli le 50-60 odstotkov števila točk iz pogleda od spredaj na pogled iz profila,« je povedal sodelavec Metaphysic.ai Martin Anderson, ki je napisal študijo blog post.

Ne da bi lahko videla dovolj referenčnih točk, programska oprema preprosto ne ve, kako projicirati svoj lažni obraz.

Iztirjenje globokih ponaredkov

V samo nekaj letih so globoke ponaredke napredovale od tega, da lahko dodajo obraze na slike, do tega, da počnejo isto v vnaprej posnetem videu. Najnovejši napredek omogoča zamenjavo obraza v realnem času, kar je povzročilo več globokih ponaredkov, ki se uporabljajo pri spletnih goljufijah in kibernetskem kriminalu.

A študija iz VMware je ugotovil, da sta dve tretjini vprašanih naleteli na zlonamerne globinske ponaredke kot del napada, kar je 13-odstotno povečanje v primerjavi s prejšnjim letom. Upoštevajte, da študija VMware ni navedla, ali so bili napadi deepfake, s katerimi so se anketiranci srečali, vnaprej posneti ali v realnem času, in je imela samo velikost vzorca 125 ljudi.

FBI je junija opozoril na prevarante, ki uporabljajo tehnologijo deepfake med razgovori za službo na daljavo. Tisti, ki uporabljajo to tehniko, so bili opaženi na razgovorih za občutljiva delovna mesta, ki bi jim omogočila dostop do podatkov o strankah in lastniških informacij podjetij, je dejal FBI. 

Videoposnetki Deepfake so bili uporabljeni tudi za pretentanje programske opreme za prepoznavanje obrazov v živo, po spletnemu startupu Sensity AI, ki se bori proti goljufijam. Sensityjevi testi so ugotovili, da je bilo devet od desetih aplikacij prodajalcev uspešno odklenjenih z uporabo globoko ponarejenega videa, ki se pretaka iz mobilnega telefona.

Strahovi glede tehnologije so postali dovolj resni, da je Evropska unija sprejemati zakone naložitev kazni podjetjem, ki se ne borijo v zadostni meri proti ponaredkom in drugim virom dezinformacij. Kitajska je tudi pripravila deepfake zakoni ki grozijo z zakonsko kaznijo za zlorabo tehnologije, pa tudi z zahtevo po izdaji dovoljenja za kakršno koli zakonito uporabo globokih ponaredkov, ki jih Kitajska imenuje "globoka sinteza". 

Rešitev za koliko časa?

Po poročilu družbe Metaphysic tudi tehnologija, kot je Nvidia polje nevralnega sevanja (NeRF), ki lahko ustvari 3D-sceno iz le nekaj fotografij, trpi zaradi omejitev, zaradi katerih je težko razviti dober pogled stranskega profila. 

NeRF-ji »lahko teoretično ekstrapolirajo poljubno število obraznih kotov iz samo peščice slik. [Vendar] težave v zvezi z ločljivostjo, mobilnostjo obraza in časovno stabilnostjo ovirajo NeRF pri izdelavi bogatih podatkov, potrebnih za usposabljanje modela samodejnega kodirnika, ki lahko dobro obravnava slike profila,« je zapisal Anderson. Obrnili smo se na Nvidio, da bi izvedeli več, vendar še nismo prejeli odgovora. 

Bralci bodo opazili, da so demonstracije Metaphysica vključevale samo obraze slavnih, od katerih je bilo na film in fotografije ujetih veliko profilnih pogledov. Neznani med nami pa po drugi strani verjetno ne bodo imeli pri roki veliko posnetkov stranskega profila.

"Razen če ste bili kdaj aretirani, je verjetno, da nimate niti ene takšne slike, bodisi na družbenih omrežjih ali v zbirki brez povezave," je zapisal Anderson.

Gaurav Oberoi, programski inženir in ustanovitelj zagonskega podjetja AI Lexion, je pri raziskovanju globokih ponaredkov leta 2018 ugotovil skoraj enako. objavi na njegovem blogu, je Oberoi podrobno opisal, kako so globoke ponaredke komika Johna Oliverja, prekrite z večernim voditeljem Jimmyjem Fallonom, dobro delovale, vendar ne v profilu.

"Na splošno se morajo slike vašega cilja približati orientaciji, izrazom obraza in osvetlitvi v videoposnetkih, v katere jih želite vstaviti," je dejal Oberoi. "Torej, če gradite orodje za zamenjavo obraza za povprečnega človeka, glede na to, da bo večina njegovih fotografij obrnjenih spredaj, omejite zamenjave obraza na večinoma naprej obrnjene videoposnetke."

To dejansko pomeni, da prevaranti, ki uporabljajo globoke ponaredke v realnem času, verjetno ne bodo imeli podatkov, potrebnih za ustvarjanje stranskega pogleda profila, ki ga ni takoj prepoznati kot ponarejenega (pod pogojem, da ne uporabljajo dobro fotografiranega obraza slavne osebe). . 

Dokler ne vemo, da so globoko ponarejevalci našli način, kako se izogniti tej pomanjkljivosti, je dobro, da sprejmete politiko, da osebo na drugi strani Zooma prosite, naj vam pokaže stranski pogled na svoj obraz – slavni ali ne. ®

Časovni žig:

Več od Register