Reaalajas süvavõltsinguid saab võita, kui vaatab PlatoBlockchain Data Intelligence. Vertikaalne otsing. Ai.

Reaalajas tehtud süvavõltsingud saab lüüa kõrvalpilguga

Reaalajas süvavõltsitud videotel, mida kuulutati kui Interneti ebakindluse uue ajastu esilekutsumist, näib olevat põhiline viga: nad ei saa hakkama külgprofiilidega.

See on järeldus a aru [PDF] saidilt Metaphysic.ai, mis on spetsialiseerunud 3D-avataridele, sügavvõltstehnoloogiale ja 3D-fotodelt 2D-piltide renderdamisele. Testides kasutas see populaarset reaalajas sügavvõltsimisrakendust DeepFaceLive, tegi kõva pööramine küljele selgelt selgeks, et ekraanil olev inimene ei olnud see, kes ta näis olevat. 

Testis kasutati mitut mudelit – mitut sügavvõltsitud kommuunidest ja DeepFaceLive’i kaasatud mudelitest –, kuid 90-kraadine näovaade põhjustas virvendust ja moonutusi, kuna pooside hindamiseks kasutatud näojoonduse võrgustik nägi vaeva, et aru saada, mida see näeb. 

Paar pilti Metaphysicu testidest, millel on võltsitud Jim Carrey ja külili pööramise tulemus.

"Enamik 2D-põhiseid näo joondamise algoritme määrab ainult 50–60 protsenti maamärkide arvust esikülje vaatest profiilivaatele," ütles Metaphysic.ai kaastöötaja Martin Anderson, kes kirjutas uuringu blogi postitus.

Nägemata piisavalt võrdluspunkte, ei tea tarkvara lihtsalt oma võltsnägu projitseerida.

Süvavõltsingute rööbastelt mahajätmine

Vaid mõne aastaga on sügavad võltsingud arenenud nii, et nad suudavad nägusid piltidele asetada, et teha sama eelsalvestatud videos. Viimased edusammud võimaldavad reaalajas nägude vahetamist, mille tulemusena on võrgupettustes ja küberkuritegevuses kasutatud rohkem süvavõltsinguid.

A õppima VMware leidis, et kaks kolmandikku vastajatest kohtasid rünnaku osana pahatahtlikke süvavõltsinguid, mis on 13 protsenti rohkem kui eelmisel aastal. Pange tähele, et VMware uuring ei täpsustanud, kas vastajate kohtatud sügavvõltsitud rünnakud olid eelsalvestatud või reaalajas ning valimi suurus oli ainult 125 inimest.

FBI hoiatas juunis süvavõltstehnoloogiat kasutavate petturite eest kaugtööintervjuude ajal. Seda tehnikat kasutavaid inimesi on märgatud tundlike töökohtade küsitlemisel, mis annaks neile juurdepääsu kliendiandmetele ja ettevõtete omandiõigusega kaitstud teabele, teatas FBI. 

Deepfake videoid on kasutatud ka reaalajas näotuvastustarkvara petmiseks, vastavalt võrgupettustega võitleva idufirma Sensity AI jaoks. Sensity testid näitasid, et üheksa müüja rakendust kümnest avati edukalt mobiiltelefonist voogesitatud sügavalt võltsitud video abil.

Hirm tehnoloogia pärast on Euroopa Liidu jaoks muutunud piisavalt tõsiseks seadusi vastu võtta trahvide määramine ettevõtetele, kes ei suuda piisavalt võidelda süvavõltsingute ja muude desinformatsiooni allikate vastu. Hiina tegi ka drafti sügavad võltsseadused mis ähvardavad seadusliku karistusega tehnoloogia väärkasutamise eest ning nõuavad loa andmist süvavõltsingute mis tahes seaduslikuks kasutamiseks, mida Hiina nimetab "sügavaks sünteesiks". 

Kui kauaks lahendus?

Metaphysicu aruande kohaselt isegi tehnoloogia nagu Nvidia neuraalne kiirgusväli (NeRF), mis suudab luua 3D-stseeni vaid mõnest pildist, kannatab piirangute tõttu, mis muudavad hea külgprofiilvaate loomise keeruliseks. 

NeRF-id "saavad teoreetiliselt ekstrapoleerida suvalise arvu näonurki vaid käputäiest piltidest. [Kuid] eraldusvõime, näo liikuvuse ja ajalise stabiilsusega seotud probleemid takistavad NeRF-il toota rikkalikke andmeid, mis on vajalikud profiilipiltidega hästi toimetuleva autokodeerija mudeli koolitamiseks, ”kirjutas Anderson. Võtsime lisateabe saamiseks ühendust Nvidiaga, kuid pole veel vastu võtnud. 

Lugejad panevad tähele, et Metaphysicu demonstratsioonid hõlmasid ainult kuulsuste nägusid, kellest on filmile ja fotodele jäädvustatud palju profiilivaateid. Seevastu meie seas mittekuulsatel pole tõenäoliselt palju külgprofiili kaadreid.

"Kui teid ei ole mingil hetkel vahistatud, pole teil tõenäoliselt isegi üht sellist pilti ei sotsiaalmeedias ega võrguühenduseta kogus," kirjutas Anderson.

Tarkvarainsener ja tehisintellekti idufirma Lexion asutaja Gaurav Oberoi leidis 2018. aastal süvavõltsinguid uurides paljuski sama. postitada oma blogisse, Oberoi kirjeldas, kuidas koomik John Oliveri võltsingud hilisõhtuse saatejuhi Jimmy Falloni peale kattuvad hästi, kuid mitte profiilis.

"Üldiselt peavad teie sihtmärgi treeningpildid vastama orientatsioonile, näoilmetele ja valgustusele videotes, millesse soovite need kleepida," ütles Oberoi. "Nii et kui loote tavainimeste jaoks näovahetustööriista, piirake näovahetust peamiselt ettepoole suunatud videotega, kuna enamik neist on näoga näoga."

See tähendab tegelikult seda, et reaalajas süvavõltsinguid kasutavatel petturitel ei ole tõenäoliselt andmeid, mis on vajalikud külgprofiilivaate loomiseks, mida ei saaks kohe võltsina ära tunda (eeldusel, et nad ei kasuta hästi pildistatud kuulsuse nägu). . 

Kuni me ei tea, et sügavvõltsijad on leidnud viisi sellest puudusest ülesaamiseks, on hea mõte võtta kasutusele poliitika, mille kohaselt palutakse Zoomi teises otsas oleval inimesel näidata teile oma nägu külgvaadet – kas see on kuulus või mitte. ®

Ajatempel:

Veel alates Register