Reaaliaikaiset syväväärennökset voidaan voittaa sivuttain katsomalla PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Reaaliaikaiset syväväärennökset voidaan voittaa sivuttain katsomalla

Reaaliaikaisilla deepfake-videoilla, joita ilmoitettiin Internetin uuden epävarmuuden aikakauden tuojiksi, näyttää olevan perustavanlaatuinen puute: ne eivät pysty käsittelemään sivuprofiileja.

Tämä on päätelmä kohdassa a raportti [PDF] Metaphysic.ai:lta, joka on erikoistunut 3D-avatareihin, syväväärennösteknologiaan ja 3D-kuvien renderöintiin 2D-kuvista. Testeissä se suoritti suosittua reaaliaikaista syväfake-sovellusta DeepFaceLive, kova käännös sivulle teki selväksi, että näytöllä oleva henkilö ei ollut sitä, miltä hän näytti. 

Testissä käytettiin useita malleja – useita deepfake-yhteisöistä ja DeepFaceLiveen sisältyneistä malleista – mutta 90 asteen näkymä kasvoista aiheutti välkkymistä ja vääristymiä, kun asentojen arvioimiseen käytetty Facial Alignment Network kamppaili selvittääkseen, mitä se näki. 

Pari kuvaa Metaphysicin testeistä, joissa näkyy syvästi väärennetty Jim Carrey ja sivulle kääntymisen tulos.

"Useimmat 2D-pohjaiset kasvojen kohdistusalgoritmit osoittavat vain 50-60 prosenttia maamerkkien määrästä etusivunäkymästä profiilinäkymään", sanoi Metaphysic.ai:n avustaja Martin Anderson, joka kirjoitti tutkimuksen blogi.

Näkymättä tarpeeksi viitepisteitä ohjelmisto ei yksinkertaisesti osaa projisoida väärennettyjä kasvojaan.

Suistuvat syvät väärennökset

Vain muutamassa vuodessa syväväärennökset ovat edenneet kasvojen päällekkäisyydestä kuvien päälle saman tekemiseen valmiiksi tallennetuissa videoissa. Viimeisimmät edistysaskeleet mahdollistavat reaaliaikaisen kasvojen vaihdon, mikä on johtanut siihen, että verkkopetoksissa ja verkkorikollisuudessa on käytetty enemmän syväväärennöksiä.

A opiskella VMware havaitsi, että kaksi kolmasosaa vastaajista kohtasi haitallisia syväväärennöksiä osana hyökkäystä, mikä on 13 prosenttia enemmän kuin edellisenä vuonna. Huomaa, että VMware-tutkimus ei täsmentänyt, olivatko vastaajien kohtaamat deepfake-hyökkäykset ennalta tallennettuja vai reaaliaikaisia, ja otoskoko oli vain 125 henkilöä.

FBI varoitti kesäkuussa huijareista, jotka käyttävät deepfake-tekniikkaa etätyöhaastattelujen aikana. Tekniikkaa käyttävien on havaittu haastattelemassa arkaluonteisia töitä, jotka antaisivat heille pääsyn asiakastietoihin ja yritysten omaan tietoon, FBI sanoi. 

Deepfake-videoita on myös käytetty huijaamaan reaaliaikaisia ​​kasvojentunnistusohjelmistoja, mukaan verkossa petoksia vastaan ​​taistelevalle startup-yritykselle Sensity AI. Sensityn testit havaitsivat, että yhdeksän kymmenestä toimittajan sovelluksesta avattiin onnistuneesti käyttämällä matkapuhelimesta suoratoistettua syvää fake-muokattua videota.

Teknologiaa koskevat pelot ovat tulleet niin vakaviksi, että Euroopan unioni voi tehdä sen lakien hyväksyminen sakkojen määrääminen yrityksille, jotka eivät torju riittävästi syväväärennöksiä ja muita disinformaation lähteitä. Myös Kiina valmisteli syvät väärennetyt lait jotka uhkaavat laillisella rangaistuksella tekniikan väärinkäytöstä sekä vaativat luvan myöntämistä syvälle väärennösten lailliseen käyttöön, jota Kiina kutsuu "syväksi synteesiksi". 

Ratkaisu kuinka kauan?

Metaphysicin raportin mukaan jopa Nvidian kaltainen tekniikka hermoston säteilykenttä (NeRF), joka voi luoda 3D-kohtauksen vain muutamista still-kuvista, kärsii rajoituksista, jotka tekevät hyvän sivuprofiilinäkymän luomisen hankalaksi. 

NeRF:t "voivat teoriassa ekstrapoloida minkä tahansa määrän kasvojen kulmia vain muutamasta kuvasta. [Kuitenkin] erottelukykyyn, kasvojen liikkuvuuteen ja ajalliseen vakauteen liittyvät ongelmat estävät NeRF:ää tuottamasta runsaasti dataa, jota tarvitaan sellaisen automaattisen kooderimallin kouluttamiseen, joka pystyy käsittelemään profiilikuvia hyvin", Anderson kirjoitti. Olemme ottaneet yhteyttä Nvidiaan saadaksemme lisätietoja, mutta emme ole vielä saaneet vastausta. 

Lukijat huomaavat, että Metaphysicin mielenosoitukset sisälsivät vain julkkiskasvoja, joista on tallennettu runsaasti profiilinäkymiä filmille ja valokuville. Sen sijaan ei-kuuluisilla keskuudessamme ei todennäköisesti ole paljon sivuprofiilikuvia käsillä.

"Ellei sinua ole pidätetty jossain vaiheessa, on todennäköistä, että sinulla ei ole yhtäkään tällaista kuvaa, joko sosiaalisessa mediassa tai offline-kokoelmassa", Anderson kirjoitti.

Gaurav Oberoi, ohjelmistosuunnittelija ja tekoälyn startup Lexionin perustaja, havaitsi paljolti saman tutkiessaan syväväärennöksiä vuonna 2018. postata blogissaan, Oberoi kuvaili, kuinka koomikko John Oliverin syvät väärennökset myöhäisillan juontaja Jimmy Fallonin päälle toimivat hyvin, mutta eivät profiilissa.

"Yleensä harjoituskuvien on vastattava kohdettasi suuntaa, ilmeitä ja valaistusta videoissa, joihin haluat liittää ne", Oberoi sanoi. "Jos siis rakennat kasvojen vaihtotyökalua tavallisille ihmisille, koska suurin osa heistä on kasvot menosuuntaan päin, rajaa kasvojen vaihto enimmäkseen eteenpäin suunnattuihin videoihin."

Tämä tarkoittaa käytännössä sitä, että reaaliaikaisia ​​syväväärennöksiä käyttävillä huijareilla ei todennäköisesti ole tarvittavia tietoja sivuprofiilinäkymän luomiseen, jota ei voida heti tunnistaa väärennökseksi (edellyttäen, että he eivät käytä hyvin valokuvattua julkkisnaamaa). . 

Ennen kuin tiedämme, että deepfakerit ovat löytäneet tavan kiertää tämä puute, on hyvä idea noudattaa käytäntöä pyytää Zoomin toisessa päässä olevaa henkilöä näyttämään sinulle sivukuva hänen kasvoistaan ​​- kuuluisa tai ei. ®

Aikaleima:

Lisää aiheesta Rekisteri