Kako opaziti AI Deepfakes na družbenih medijih

Kako opaziti AI Deepfakes na družbenih medijih

Kako opaziti AI Deepfakes na družbenih medijih PlatoBlockchain Data Intelligence. Navpično iskanje. Ai.

Videoposnetek, ki je bil prejšnji teden objavljen na kitajski platformi družbenih medijev Weibo, prikazuje ameriško pop zvezdnico Taylor Swift, ki tekoče govori mandarinščino. Le da na posnetku ni bila 33-letna pevka. To je bil videoposnetek deepfake, ki ga je ustvarilo orodje AI kitajskega zagonskega podjetja HeyGen.

Od 21. oktobra, ko je bil Swiftin deepfake prvi deli, video je zbral več kot šest milijonov ogledov. Sprožil pa je tudi razpravo o morebitnih pasteh, ki se pojavijo, ko umetna inteligenca postane naprednejša, zaradi česar je težko razlikovati med resnično in lažno identiteto ali vsebino.

Globinske ponaredke – realistične, a ponarejene slike ali videoposnetke, ki se uporabljajo za lažno predstavljanje nekoga drugega, vključno z njihovim glasom – je mogoče uporabiti za ustvarjanje lažnih digitalnih identitet, nekaj, kar bi kiberkriminalci lahko izkoristili za goljufijo. Slike in videoposnetki izgledajo in govorijo točno tako kot ciljna oseba.

Maja na primer kitajski poslovnež izgubil 4.3 milijona juanov [612,000 $], potem ko je goljuf uporabil umetno inteligenco za zamenjavo obrazov, da bi posnemal svojega prijatelja. V globokem ponarejanju Taylor Swift ni prišlo do izgube denarja, toda tukaj je, na kaj morate biti pozorni, da se izognete goljufanju na družbenih medijih.

Preverite podpore slavnih osebnosti z umetno inteligenco

Prevaranti bodo običajno uporabili AI deepfake zaupanja vrednih posameznikov, da bi zvabili svoje žrtve. V zadnjih mesecih se je pojavilo nešteto lažnih slavnih osebnosti z umetno inteligenco, ki ljudi pretentajo z lažnimi zaznamki. Lažne različice ikon, kot sta Elon Musk in Beyonce, so namenjene promociji lažnih blagovnih znamk.

Očitno je veliko lažnih oglasov uvrščenih višje v rezultatih iskanja v Googlu, verjetno zato, ker podjetje ne naredi dovolj za filtriranje goljufive vsebine.

Vendar pa je v dobi lažnih vsebin, ki jih ustvari umetna inteligenca, ključnega pomena, da se videoposnetkov, ki so preveč dobri, da bi bili resnični, lotimo kritično. Izredne trditve zahtevajo izredne dokaze. Če naletite na virusne videoposnetke, ki se zdijo senzacionalni, si vzemite čas in preverite njihovo pristnost in vire.

»Če želite nasvet o izdelku ali storitvi, si oglejte ocene ali poiščite strokovnjaka, ki je dobro seznanjen in lahko to dokaže,« pravi strokovnjak za potrošniško tehnologijo in radijska voditeljica Kim Komando.

»Še en pameten korak: v Googlu vnesite izdelek in akterja v oglasu, skupaj z besedo 'recenzija'. Če je nekdo plačan za podporo izdelka, po družbenih omrežjih ne plava samo en naključen oglas,« je dodala v članku objavljeno pri New York Postu.

Preberite tudi: Taylor Swift, Emma Watson in drugi so tarča AI pornografije

Bodite pozorni na podrobnosti

Tehnologija Deepfake je še posebej strašljiva, ker je tako realistična. Orodja AI, kot je npr Stabilna difuzija lahko manipulira z glasovi in ​​gibi ust, zaradi česar ljudje zlahka verjamejo, da je video ali zvočni posnetek pristen.

Spomnite se Ghostwriterjevega umetne inteligence Drake in pesem The Weeknd, ki je prevaral milijone ljudi, vključno s storitvami pretakanja glasbe, da so mislili, da gre za novo izdajo? Da bi opazili deepfake, Alex Kim, soustanovitelj in izvršni direktor pospeševalnika e-trgovine Rice, ki temelji na umetni inteligenci, predlaga:

»Bodite pozorni na kakršne koli nenavadne nedoslednosti v videu, ki ga gledate. Ustvarjalci vsebine, ki uporabljajo globoke ponaredke, običajno poskušajo prihraniti čas, zato natančno prilagajanje podrobnosti ni nekaj, v kar bi vložili čas,« je povedal Kim za MetaNews.

"To pomeni, da bodo kakršni koli neusklajeni obrazni izrazi, nenaravni gibi, nenavadni artefakti, neusklajenost glasu ali sinhronizacija ustnic verjetno prisotni na globoko ponarejenem videu," je dejala Kim in dodala:

"Bodite posebno pozorni na oči, saj se deepfaki najbolj spopadajo s temi."

Primer kitajskega poslovneža nas opominja, da je tehnologija deepfake močno orodje, ki se lahko uporablja v dobro ali zlo. Regulatorji so začeli posvečati več pozornosti nevarnostim umetne inteligence, odkar je OpenAI novembra lansiral svoj virusni klepetalni robot ChatGPT, kar je sprožilo svetovno tekmo za umetno inteligenco.

Kot MetaNews prej poročali, strokovnjaki predlagajo razvoj novih tehnologij, ki lahko zaznajo in preprečijo uporabo lažnih identitet. To bi lahko vključevalo uporabo biometričnih podatkov, kot je prepoznavanje obraza ali skeniranje prstnih odtisov, za preverjanje identitete uporabnikov na spletu.

Preverite ozadje za namige

Medtem ko nekatere aplikacije uporabljajo vodnih žigov za prepoznavanje vsebine, ustvarjene z umetno inteligenco, pri drugih ni tako očitno. Po mnenju Alexa Kima, Rice.win Direktor.

"Če se ozadje giblje nenaravno ali se osvetlitev ne ujema s sencami v ospredju, je verjetno deepfake," je dejala Kim. "Podrobnosti, kot je tekstura materialov ali pomanjkanje le-teh, so drugi znaki."

»Poiščite pikselacijo ali zamegljenost tam, kjer je ne bi smelo biti, še posebej, če se to zgodi na človeškem subjektu. Naravne podrobnosti, kot so linije las, ušesa, nosovi ali poteze obraza, je težko poudariti v deepfakeu, vsaj prepričljivo.«

Tehnologijo umetne inteligence, ki večinoma ostaja brezplačna in lahko dostopna, slabi akterji uporabljajo na številne načine. Slike odmevnih zvezdnic, vključno s Taylor Swift in Emmo Watson, so bile spremenjene z uporabo umetne inteligence za ustvarjanje deepfake pornografska vsebina.

Novo orodje AI s tehnološkega inštituta Massachusetts (MIT) v ZDA obljublja zajezitev globokih ponaredkov. Ljudje lahko uporabljajo PhotoGuard narediti "majhne, ​​nevidne popravke, da bodo [njihove] slike zaščitene pred globokimi ponaredki in grdimi urejanji - obetaven zlati standard v spletni varnosti."

Alex Kim je za MetaNews povedal, da je najbolj očiten in pogost način za prepoznavanje lažnih videoposnetkov z umetno inteligenco na družbenih omrežjih upoštevanje kanalov, na katerih gostujejo.

"Želeli boste pogledati, koliko je kanal objavljal v zadnjem času in ali je prišlo do velikih skokov ali vzponov pri ustvarjanju vsebine," je dejal Kim. "Če pride do velikega skoka v objavljenih videoposnetkih, ki se zdijo napačni, nizkokakovostni ali čudni, je to precej zanesljiv znak, da ustvarjalec uporablja deepfake."

Časovni žig:

Več od MetaNovice