Det bliver sværere at opdage Deepfakes: Secta Labs CEO - Decrypt

Det bliver sværere at opdage Deepfakes: Secta Labs CEO – Decrypt

It Will Get Harder to Detect Deepfakes: Secta Labs CEO - Decrypt PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Efterhånden som AI-billedgeneratorer bliver mere avancerede, bliver det mere udfordrende end nogensinde at se deepfakes. Retshåndhævelse og globale ledere fortsætter med at slå alarm om farerne ved AI-genereret deepfakes på sociale medier og i konfliktzoner.

"Vi er på vej ind i en æra, hvor vi ikke længere kan tro på, hvad vi ser," fortalte Marko Jak, medstifter og administrerende direktør for Secta Labs. Dekryptér i et interview. "Lige nu er det nemmere, fordi de dybe forfalskninger ikke er så gode endnu, og nogle gange kan du se, at det er indlysende."

Ifølge Jak er vi ikke så langt - måske inden for et år - fra det tidspunkt, hvor evnen til at gennemskue et falsk billede ved første øjekast ikke længere er mulig. Og han burde vide: Jak er administrerende direktør for en AI-image generator virksomhed.

Jak var med til at stifte Secta Labs i 2022; den Austin-baserede generative AI-startup fokuserer på at skabe AI-genererede billeder af høj kvalitet. Brugere kan uploade billeder af sig selv og omdanne dem til AI-genererede hovedbilleder og avatarer.

 

Som Jak forklarer, ser Secta Labs brugere som ejere af de AI-modeller, der er genereret ud fra deres data, mens virksomheden blot er custodians, der hjælper med at skabe billeder fra disse modeller. 

Det potentielle misbrug af mere avancerede AI-modeller har fået verdens ledere til at opfordre til øjeblikkeligt Action om AI-regulering og fik virksomheder til at beslutte ikke at frigive deres avancerede værktøjer til offentligheden.

Sidste uge efter at have annonceret sin nye Stemme kasse AI-genereret stemmeplatform, Meta sagde, at den ikke ville frigive AI til offentligheden.

"Selvom vi mener, det er vigtigt at være åben over for AI-fællesskabet og dele vores forskning for at fremme det nyeste inden for AI," fortalte Meta-talsmanden. Dekryptér i en e-mail. "Det er også nødvendigt at finde den rette balance mellem åbenhed og ansvar."

Tidligere på måneden, US Federal Bureau of Investigation advarede af AI dybfalske afpresningssvindel og kriminelle, der bruger billeder og videoer taget fra sociale medier til at skabe falsk indhold.

Svaret i at bekæmpe deepfakes, sagde Jak, er måske ikke i at kunne spotte en deepfake, men i at kunne afsløre en deepfake.

"AI er den første måde, du kan få øje på [en deepfake]," sagde Jak. "Der er mennesker, der bygger kunstig intelligens, som du kan sætte et billede ind i som en video, og AI'en kan fortælle dig, om det er genereret af AI."

Generativ AI og den potentielle brug af AI-genererede billeder i film og tv er et ophedet emne i underholdningsindustrien. SAG-AFTRA medlemmer stemte, før de gik ind i kontraktforhandlinger, for at godkende en strejke, en væsentlig bekymring, kunstig intelligens.

Jak tilføjede, at udfordringen er AI-våbenkapløbet, der udfolder sig, efterhånden som teknologien bliver mere avanceret, og dårlige skuespillere skaber mere avancerede deepfakes for at imødegå teknologi designet til at opdage dem.

I erkendelse af, at blockchain er blevet overudnyttet - nogle vil måske sige overhyped - som en løsning på problemer i den virkelige verden, sagde Jak, at teknologien og kryptografi kunne løse problemet med deepfake.

Men selvom teknologi kan løse mange problemer med deepfakes, sagde Jak, at en mere lavteknologisk løsning, visdom fra mængden, kan være nøglen.

"En af de ting, jeg så, at Twitter gjorde, hvilket jeg synes var en god idé, er fællesskabsnoterne, som er hvor folk kan tilføje nogle noter for at give kontekst til en persons tweet," sagde Jak. "Et tweet kan være misinformation ligesom en deepfake kan være," sagde han. Jak tilføjede, at det ville gavne sociale medieselskaber at tænke på måder at udnytte deres fællesskaber til at validere, om det cirkulerede indhold er autentisk.

"Blockchain kan løse specifikke problemer, men kryptografi kan hjælpe med at autentificere et billedes oprindelse," sagde han. "Dette kunne være en praktisk løsning, da det omhandler kildebekræftelsen snarere end billedindhold, uanset hvor sofistikeret den deepfake er."

Hold dig opdateret med kryptonyheder, få daglige opdateringer i din indbakke.

Tidsstempel:

Mere fra Dekryptér