Det kommer att bli svårare att upptäcka Deepfakes: Secta Labs VD - Dekryptera

Det kommer att bli svårare att upptäcka Deepfakes: Secta Labs VD – Decrypt

Det kommer att bli svårare att upptäcka Deepfakes: Secta Labs CEO - Decrypt PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

I takt med att AI-bildgeneratorer blir mer avancerade blir det mer utmanande än någonsin att upptäcka deepfakes. Brottsbekämpande och globala ledare fortsätter att slå larm om farorna med AI-genererad deepfakes på sociala medier och i konfliktområden.

"Vi går in i en era där vi inte längre kan tro vad vi ser," berättade Marko Jak, medgrundare och VD för Secta Labs. Avkryptera i en intervju. "Just nu är det lättare eftersom de djupa förfalskningarna inte är så bra ännu, och ibland kan du se att det är uppenbart."

Enligt Jak är vi inte så långt – kanske inom ett år – från den punkt då förmågan att urskilja en falsk bild vid första anblicken inte längre är möjlig. Och han borde veta: Jak är VD för ett AI-bildgeneratorföretag.

Jak var med och grundade Secta Labs år 2022; den Austin-baserade generativa AI-startupen fokuserar på att skapa högkvalitativa AI-genererade bilder. Användare kan ladda upp bilder på sig själva och förvandla dem till AI-genererade headshots och avatarer.

 

Som Jak förklarar ser Secta Labs användare som ägare till AI-modellerna som genereras från deras data, medan företaget bara är vårdnadshavare som hjälper till att skapa bilder från dessa modeller. 

Det potentiella missbruket av mer avancerade AI-modeller har fått världsledare att uppmana till omedelbart handling om AI-reglering och fick företag att besluta att inte släppa sina avancerade verktyg till allmänheten.

Förra veckan efter att tillkännage sin nya Röstlåda AI-genererad röstplattform, Meta sa att den inte skulle släppa AI till allmänheten.

"Medan vi tror att det är viktigt att vara öppen med AI-gemenskapen och att dela vår forskning för att främja den senaste tekniken inom AI," sa Meta-talesmannen Avkryptera i ett mejl. "Det är också nödvändigt att hitta rätt balans mellan öppenhet och ansvar."

Tidigare denna månad, US Federal Bureau of Investigation varnade av AI djupfalska utpressningsbedrägerier och brottslingar som använder foton och videor tagna från sociala medier för att skapa falskt innehåll.

Svaret för att bekämpa deepfake, sa Jak, kanske inte är att kunna upptäcka en deepfake utan i att kunna avslöja en deepfake.

"AI är det första sättet du kan upptäcka [en deepfake]," sa Jak. "Det finns människor som bygger artificiell intelligens som du kan lägga in en bild i som en video och AI:n kan berätta för dig om den genererades av AI."

Generativ AI och den potentiella användningen av AI-genererade bilder i film och tv är ett hett ämne inom underhållningsbranschen. SAG-AFTRA medlemmar röstade innan de inledde kontraktsförhandlingarna för att godkänna en strejk, ett betydande problem, artificiell intelligens.

Jak tillade att utmaningen är att AI-kapprustningen utvecklas i takt med att tekniken blir mer avancerad och dåliga skådespelare skapar mer avancerade djupförfalskningar för att motverka teknik som är utformad för att upptäcka dem.

Jak erkände att blockchain har överanvänts – vissa kanske säger överhypad – som en lösning på verkliga problem, och sa att tekniken och kryptografin kan lösa problemet med deepfake.

Men även om teknik kan lösa många problem med deepfakes, sa Jak att en mer lågteknologisk lösning, publikens visdom, kan vara nyckeln.

"En av de saker jag såg att Twitter gjorde, vilket jag tycker var en bra idé är community-anteckningarna, som är där folk kan lägga till några anteckningar för att ge sammanhang till någons tweet," sa Jak. "En tweet kan vara desinformation precis som en deepfake kan vara," sa han. Jak tillade att det skulle gynna sociala medieföretag att tänka på sätt att utnyttja sina samhällen för att validera om det cirkulerade innehållet är autentiskt.

"Blockkedja kan lösa specifika problem, men kryptografi kan hjälpa till att autentisera en bilds ursprung", sa han. "Detta kan vara en praktisk lösning, eftersom det handlar om källverifiering snarare än bildinnehåll, oavsett hur sofistikerat deepfakeet."

Håll dig uppdaterad om kryptonyheter, få dagliga uppdateringar i din inkorg.

Tidsstämpel:

Mer från Avkryptera