Diventerà più difficile individuare i deepfake: CEO di Secta Labs - Decrypt

Diventerà più difficile rilevare i deepfake: CEO di Secta Labs – Decrypt

It Will Get Harder to Detect Deepfakes: Secta Labs CEO - Decrypt PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Man mano che i generatori di immagini AI diventano più avanzati, individuare i deepfake sta diventando più impegnativo che mai. Le forze dell'ordine e i leader globali continuano a lanciare l'allarme sui pericoli dell'IA generata deepfakes sui social media e nelle zone di conflitto.

"Stiamo entrando in un'era in cui non possiamo più credere a ciò che vediamo", ha dichiarato Marko Jak, co-fondatore e CEO di Secta Labs. decrypt in un colloquio. "In questo momento, è più facile perché i falsi profondi non sono ancora così buoni, e a volte puoi vedere che è ovvio."

Secondo Jak, non siamo così lontani, forse entro un anno, dal punto in cui la capacità di discernere a prima vista un'immagine falsa non è più possibile. E dovrebbe saperlo: Jak è l'amministratore delegato di un'azienda produttrice di immagini AI.

Jak ha co-fondato Secta Labs nel 2022; la startup di IA generativa con sede ad Austin si concentra sulla creazione di immagini generate dall'IA di alta qualità. Gli utenti possono caricare foto di se stessi e trasformarle in ritratti e avatar generati dall'intelligenza artificiale.

 

Come spiega Jak, Secta Labs vede gli utenti come i proprietari dei modelli di intelligenza artificiale generati dai loro dati, mentre la società è semplicemente un custode che aiuta a creare immagini da questi modelli. 

Il potenziale uso improprio di modelli di intelligenza artificiale più avanzati ha portato i leader mondiali a chiedere l'immediato azione sulla regolamentazione dell'IA e ha indotto le aziende a decidere di non rilasciare al pubblico i loro strumenti avanzati.

La scorsa settimana dopo aver annunciato il suo nuovo casella vocale Piattaforma vocale generata dall'intelligenza artificiale, Meta ha affermato che non rilascerà l'intelligenza artificiale al pubblico.

"Sebbene crediamo sia importante essere aperti con la comunità dell'IA e condividere la nostra ricerca per far avanzare lo stato dell'arte nell'IA", ha detto il portavoce di Meta decrypt in una e-mail. "È anche necessario trovare il giusto equilibrio tra apertura e responsabilità".

All'inizio di questo mese, il Federal Bureau of Investigation degli Stati Uniti avvertito di truffe di estorsione deepfake AI e criminali che utilizzano foto e video presi dai social media per creare contenuti falsi.

La risposta nella lotta contro i deepfake, ha detto Jak, potrebbe non essere nell'essere in grado di individuare un deepfake, ma nell'essere in grado di esporre un deepfake.

"L'intelligenza artificiale è il primo modo per individuare [un deepfake]", ha detto Jak. "Ci sono persone che costruiscono un'intelligenza artificiale in cui puoi inserire un'immagine come un video e l'IA può dirti se è stata generata dall'IA".

L'intelligenza artificiale generativa e il potenziale utilizzo delle immagini generate dall'intelligenza artificiale nei film e in televisione è un argomento caldo nell'industria dell'intrattenimento. SAG-AFTRA i membri hanno votato prima di avviare trattative contrattuali per autorizzare uno sciopero, una preoccupazione significativa, l'intelligenza artificiale.

Jak ha aggiunto che la sfida è la corsa agli armamenti dell'IA che si sta svolgendo man mano che la tecnologia diventa più avanzata e i malintenzionati creano deepfake più avanzati per contrastare la tecnologia progettata per rilevarli.

Riconoscendo che la blockchain è stata abusata - qualcuno potrebbe dire esageratamente - come soluzione per problemi del mondo reale, Jak ha affermato che la tecnologia e la crittografia potrebbero risolvere il problema del deepfake.

Ma mentre la tecnologia può risolvere molti problemi con i deepfake, Jak ha affermato che una soluzione più low-tech, la saggezza della folla, potrebbe essere la chiave.

"Una delle cose che ho visto che ha fatto Twitter, che penso sia stata una buona idea, sono le note della community, dove le persone possono aggiungere alcune note per dare un contesto al tweet di qualcuno", ha detto Jak. "Un tweet può essere disinformazione proprio come può esserlo un deepfake", ha detto. Jak ha aggiunto che sarebbe vantaggioso per le società di social media pensare a modi per sfruttare le loro comunità per convalidare se il contenuto diffuso è autentico.

"Blockchain può risolvere problemi specifici, ma la crittografia potrebbe aiutare ad autenticare l'origine di un'immagine", ha affermato. "Questa potrebbe essere una soluzione pratica, poiché si occupa della verifica della fonte piuttosto che del contenuto dell'immagine, indipendentemente da quanto sofisticato sia il deepfake".

Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta.

Timestamp:

Di più da decrypt