Kuinka havaita AI Deepfakesia sosiaalisessa mediassa

Kuinka havaita AI Deepfakesia sosiaalisessa mediassa

Kuinka havaita AI Deep -väärennöksiä sosiaalisessa mediassa PlatoBlockchain Data Intelligencessä. Pystysuuntainen haku. Ai.

Kiinalaisen sosiaalisen median Weibo-alustalla viime viikolla julkaistu video näyttää amerikkalaisen poptähti Taylor Swiftin puhuvan sujuvaa mandariinikiinaa. Vain se ei ollut 33-vuotias laulaja leikkeessä. Se oli syväfake-video, joka on luotu kiinalaisen start-up-yrityksen HeyGenin tekoälytyökalulla.

Lokakuun 21. päivästä lähtien, jolloin Swiftin deepfake oli ensimmäinen yhteinen, video on kerännyt yli kuusi miljoonaa katselukertaa. Mutta se on myös käynnistänyt keskustelua mahdollisista sudenkuoppista, joita syntyy, kun tekoäly kehittyy, mikä vaikeuttaa todellisen ja väärennetyn identiteetin tai sisällön erottamista toisistaan.

Deepfakeja – realistisia mutta väärennettyjä kuvia tai videoita, joita käytetään esiintymään jonkun muuna, mukaan lukien hänen äänensä – voidaan käyttää luomaan vääriä digitaalisia identiteettejä, joita kyberrikolliset voivat hyödyntää petoksissa. Kuvat ja videot näyttävät ja puhuvat täsmälleen samalla tavalla kuin kohteena oleva henkilö.

Toukokuussa esimerkiksi kiinalainen liikemies menetti 4.3 miljoonaa yuania [612,000 XNUMX dollaria] sen jälkeen, kun huijari käytti kasvoja vaihtavaa tekoälyä esiintyäkseen ystävänä. Taylor Swift -deepfake ei menettänyt rahaa, mutta tässä on huomioitava, jotta vältytään huijauksilta sosiaalisessa mediassa.

Tarkista tekoälyn julkkisten suositukset

Huijarit käyttävät yleensä luotettujen henkilöiden tekoälyä houkutellakseen uhrejaan. Viime kuukausina lukemattomia tekoälyjulkkiksia on ilmestynyt huijaamaan ihmisiä väärillä merkinnöillä. Väärennetyt versiot ikoneista, kuten Elon Musk ja Beyonce, on suunnattu väärennettyjen tuotemerkkien mainostamiseen.

Ilmeisesti monet väärät mainokset sijoittuvat korkeammalle Googlen hakutuloksissa todennäköisesti siksi, että yritys ei tee tarpeeksi suodattaakseen vilpillistä sisältöä.

Tekoälyn luoman väärennetyn sisällön aikakaudella on kuitenkin erittäin tärkeää lähestyä liian hyviä ollakseen totta videoita kriittisellä silmällä. Poikkeukselliset väitteet vaativat poikkeuksellisia todisteita. Jos törmäät virusvideoihin, jotka vaikuttavat sensaatiomaisista, käytä aikaa niiden aitouden ja lähteiden tarkistamiseen.

"Jos haluat neuvoja tuotteesta tai palvelusta, katso arvosteluja tai etsi asiantuntija, joka on perehtynyt ja voi todistaa sen", sanoo kuluttajatekniikan asiantuntija ja radiojuontaja Kim Komando.

"Toinen älykäs askel: Googlea mainoksessa oleva tuote ja toimija sekä sana "arvostelu". Jos joku saa palkkaa tuotteen tukemisesta, sosiaalisessa mediassa ei leiju vain yksi satunnainen mainos, hän lisäsi artikkelissa. julkaistu New York Postin toimesta.

Lue myös: Taylor Swift, Emma Watson ja muut, jotka on kohdistettu tekoälypornohuippuihin

Kiinnitä huomiota yksityiskohtiin

Deepfake-tekniikka on erityisen pelottavaa, koska se on niin realistinen. AI-työkalut, kuten Vakaa diffuusio voi manipuloida ääniä ja suun liikkeitä, jolloin ihmisten on helppo uskoa video- tai äänitallenteen aitoudeksi.

Muista Ghostwriterin tekoälyn luoma Drake and The Weeknd laulu, joka huijasi miljoonat ihmiset, mukaan lukien musiikin suoratoistopalvelut, ajattelemaan, että se oli uusi julkaisu? Alex Kim, tekoälypohjaisen sähköisen kaupankäynnin kiihdytin Ricen perustaja ja toimitusjohtaja, ehdottaa seuraavaa:

"Kiinnitä huomiota kaikkiin epätavallisiin epäjohdonmukaisuuksiin katsomassasi videossa. Deepfakeja käyttävät sisällöntuottajat yrittävät yleensä säästää aikaa, joten yksityiskohtien hienosäätö ei ole asia, johon he investoivat aikaa, Kim kertoi MetaNewsille.

"Tämä tarkoittaa, että kaikki yhteensopimattomat ilmeet, epäluonnolliset liikkeet, outoja esineitä, äänien yhteensopimattomuutta tai huulten synkronointia todennäköisesti esiintyy syvällä väärennetyssä videossa", Kim sanoi ja lisäsi:

"Kiinnitä erityistä huomiota silmiin, sillä syväväärennökset kamppailevat näiden kanssa eniten."

Kiinalaisen liikemiehen tapaus on muistutus siitä, että deepfake-tekniikka on tehokas työkalu, jota voidaan käyttää hyvään tai pahaan. Sääntelyviranomaiset ovat alkaneet kiinnittää enemmän huomiota tekoälyn vaaroihin sen jälkeen, kun OpenAI lanseerasi ChatGPT-viruschatbotin marraskuussa, mikä laukaisi maailmanlaajuisen tekoälykilpailun.

Kuten MetaNews aiemmin raportoituAsiantuntijat ehdottavat uusien teknologioiden kehittämistä, jotka voivat havaita ja estää väärennettyjen henkilöllisyyksien käytön. Tämä voi sisältää biometristen tietojen, kuten kasvojentunnistuksen tai sormenjälkien skannauksen, käytön käyttäjien henkilöllisyyden tarkistamiseen verkossa.

Tarkista tausta vihjeiden varalta

Vaikka jotkut sovellukset käyttävät vesileimat Tekoälyn luoman sisällön tunnistamiseksi se ei ole niin ilmeistä muille. Käyttäjien on skannattava kuvien tai videoiden tausta löytääkseen vihjeitä tekoälyn syväväärennösmateriaalista, Alex Kimin mukaan. Rice.win Toimitusjohtaja.

"Jos tausta liikkuu epäluonnollisesti tai valaistus ei vastaa etualalla olevia varjoja, se on luultavasti syvä väärennös", Kim sanoi. "Yksityiskohdat, kuten materiaalien rakenne tai sen puute, ovat muita merkkejä."

"Etsi pikseloitumista tai epäselvyyttä sieltä, missä niitä ei pitäisi olla, varsinkin jos se tapahtuu ihmiskohteessa. Luonnollisia yksityiskohtia, kuten hiusrajaa, korvia, nenää tai kasvonpiirteitä, on vaikea saada irti syvästä väärennöksestä, ainakin vakuuttavasti.

Tekoälyteknologiaa, joka on suurimmaksi osaksi edelleen ilmainen ja helposti saatavilla, käyttävät huonot toimijat monin tavoin. Kuvia korkean profiilin naisjulkkiksista, kuten Taylor Swiftistä ja Emma Watsonista, on manipuloitu tekoälyn avulla syväväärennösten luomiseen. pornografista sisältöä.

Yhdysvaltalaisen Massachusetts Institute of Technologyn (MIT) uusi tekoälytyökalu lupaa hillitä syväväärennöksiä. Ihmiset voivat käyttää PhotoGuard tehdä "pieniä, näkymättömiä parannuksia pitääkseen [heidän] kuvat turvassa syvältä väärennöksiltä ja ilkeiltä muokkauksilta – lupaava kultainen standardi verkkoturvallisuudessa."

Alex Kim kertoi MetaNewsille, että ilmeisin ja yleisin tapa tunnistaa väärennetyt tekoälyvideot sosiaalisessa mediassa on ottaa huomioon kanavat, joilla niitä isännöidään.

"Haluat katsoa, ​​kuinka paljon kanava on lähettänyt viestejä viime aikoina ja onko sisällöntuotannossa esiintynyt suuria piikkejä tai nousuja", Kim sanoi. "Jos julkaistuissa videoissa on suuri piikki, joka näyttää huonolta, huonolaatuiselta tai oudolta, se on melko varma merkki siitä, että sisällöntuottaja käyttää deepfakeja."

Aikaleima:

Lisää aiheesta MetaNews