Va deveni mai greu să detectezi Deepfakes: CEO-ul Secta Labs - Decrypt

Va deveni mai greu să detectezi Deepfakes: CEO-ul Secta Labs – Decrypt

It Will Get Harder to Detect Deepfakes: Secta Labs CEO - Decrypt PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Pe măsură ce generatoarele de imagini AI devin mai avansate, identificarea deepfake-urilor devine mai dificilă ca niciodată. Oamenii de aplicare a legii și liderii globali continuă să tragă un semnal de alarmă cu privire la pericolele generate de inteligența artificială deepfakes pe rețelele de socializare și în zonele de conflict.

„Intrăm într-o eră în care nu mai putem crede ceea ce vedem”, a declarat Marko Jak, co-fondator și CEO al Secta Labs. decriptaţi într-un interviu. „În acest moment, este mai ușor pentru că falsurile profunde nu sunt încă atât de bune și, uneori, poți vedea că este evident.”

Potrivit lui Jak, nu suntem atât de departe – poate într-un an – de punctul în care abilitatea de a discerne o imagine falsă la prima vedere nu mai este posibilă. Și ar trebui să știe: Jak este CEO al unei companii generatoare de imagini AI.

Jak a co-fondat Secta Labs în 2022; startup-ul AI generativ din Austin se concentrează pe crearea de imagini de înaltă calitate generate de AI. Utilizatorii pot încărca fotografii cu ei înșiși și le pot transforma în capturi și avatare generate de AI.

 

După cum explică Jak, Secta Labs văd utilizatorii drept proprietari ai modelelor AI generate din datele lor, în timp ce compania este doar custode care ajută la crearea imaginilor din aceste modele. 

Potențiala utilizare greșită a modelelor AI mai avansate i-a determinat pe liderii mondiali să ceară imediată acțiune privind reglementarea AI și a determinat companiile să decidă să nu-și lanseze instrumentele avansate pentru public.

Săptămâna trecută după ce și-a anunțat noul Mesagerie vocala Platforma vocală generată de AI, Meta a spus că nu va elibera AI-ul publicului.

„Deși credem că este important să fim deschiși cu comunitatea AI și să împărtășim cercetările noastre pentru a avansa stadiul tehnicii în AI”, a spus purtătorul de cuvânt al Meta. decriptaţi într-un e-mail. „De asemenea, este necesar să găsim echilibrul corect între deschidere și responsabilitate.”

La începutul acestei luni, Biroul Federal de Investigații al SUA a avertizat a înșelătoriilor de extorcare și a criminalilor care folosesc fotografii și videoclipuri preluate de pe rețelele sociale pentru a crea conținut fals.

Răspunsul în lupta împotriva deepfake-urilor, a spus Jak, s-ar putea să nu fie în a putea identifica un deepfake, ci în a putea expune un deepfake.

„AI este primul mod în care poți descoperi [un deepfake]”, a spus Jak. „Există oameni care construiesc inteligență artificială în care poți pune o imagine într-un videoclip și AI-ul îți poate spune dacă a fost generat de AI.”

Inteligența artificială generativă și utilizarea potențială a imaginilor generate de inteligența artificială în film și televiziune este un subiect aprins în industria divertismentului. SAG-AFTRA membrii au votat înainte de a intra în negocieri de contract pentru a autoriza o grevă, o preocupare semnificativă, inteligența artificială.

Jak a adăugat că provocarea este cursa înarmărilor AI care se desfășoară pe măsură ce tehnologia devine mai avansată și actorii răi creează deepfake-uri mai avansate pentru a contracara tehnologia concepută pentru a le detecta.

Recunoscând că blockchain-ul a fost suprautilizat – unii ar putea spune supra-exagerat – ca soluție pentru problemele din lumea reală, Jak a spus că tehnologia și criptografiile ar putea rezolva problema deepfake-ului.

Dar, în timp ce tehnologia poate rezolva multe probleme cu deepfake-urile, Jak a spus că o soluție mai low-tech, înțelepciunea mulțimii, ar putea fi cheia.

„Unul dintre lucrurile pe care le-am văzut pe Twitter, care cred că a fost o idee bună, este notele comunității, unde oamenii pot adăuga câteva note pentru a da context tweet-ului cuiva”, a spus Jak. „Un tweet poate fi dezinformare la fel cum poate fi un deepfake”, a spus el. Jak a adăugat că ar fi de folos corporațiile din rețelele sociale să se gândească la modalități de a-și valorifica comunitățile pentru a valida dacă conținutul difuzat este autentic.

„Blockchain poate aborda probleme specifice, dar criptografia ar putea ajuta la autentificarea originii unei imagini”, a spus el. „Aceasta ar putea fi o soluție practică, deoarece se ocupă mai degrabă de verificarea sursei decât de conținutul imaginii, indiferent de cât de sofisticat este deepfake.”

Fiți la curent cu știrile cripto, primiți actualizări zilnice în căsuța dvs. de e-mail.

Timestamp-ul:

Mai mult de la decriptaţi