La polizia sudcoreana utilizza uno strumento di rilevamento deepfake prima delle elezioni

La polizia sudcoreana utilizza uno strumento di rilevamento deepfake prima delle elezioni

La polizia sudcoreana implementa lo strumento di rilevamento deepfake prima delle elezioni PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Nel contesto del forte aumento dei deepfake a sfondo politico, l'Agenzia nazionale di polizia della Corea del Sud (KNPA) ha sviluppato e implementato uno strumento per rilevare contenuti generati dall'intelligenza artificiale da utilizzare in potenziali indagini criminali.

Secondo il National Office of Investigation (NOI) del KNPA, il programma di deep learning è stato addestrato su circa 5.2 milioni di dati provenienti da 5,400 cittadini coreani. Può determinare se un video (sul quale non è stato pre-addestrato) è reale o meno in soli 10-80 minuti, con un tasso di precisione di circa l'XNUMX%. Lo strumento genera automaticamente un foglio dei risultati che la polizia può utilizzare nelle indagini penali.

Lo riferiscono i media coreani, questi risultati verranno utilizzati per informare le indagini ma non come prova diretta nei processi penali. La polizia darà spazio anche alla collaborazione con esperti di intelligenza artificiale nel mondo accademico e imprenditoriale.

Gli esperti di sicurezza dell’intelligenza artificiale hanno chiesto l’uso dell’intelligenza artificiale per sempre, compreso il rilevamento di disinformazione e deepfake.

“Questo è il punto: l’intelligenza artificiale può aiutarci ad analizzare [contenuti falsi] su qualsiasi scala”, ha dichiarato Gil Shwed, CEO di Check Point, a Dark Reading in un’intervista questa settimana. Sebbene l’intelligenza artificiale sia la malattia, ha detto, è anche la cura: “[Il rilevamento delle frodi] richiedeva tecnologie molto complesse, ma con l’intelligenza artificiale puoi fare la stessa cosa con una quantità minima di informazioni – non solo buone e grandi quantità di informazioni”. informazione."

Il problema dei deepfake in Corea

Mentre il resto del mondo attende in attesa dei deepfake invadere le stagioni elettorali, i coreani hanno già affrontato il problema da vicino e sul personale.

Il canarino nella miniera di carbone si è verificato durante le elezioni provinciali del 2022, quando un video si è diffuso sui social media e mostrava il presidente Yoon Suk Yeol che appoggiava un candidato locale per il partito al governo.

Questo tipo di inganno è diventato ultimamente più diffuso. Il mese scorso, la Commissione elettorale nazionale del paese ha rivelato che tra il 29 gennaio e il 16 febbraio rilevati 129 deepfake in violazione delle leggi elettorali – una cifra che dovrebbe solo aumentare con l’avvicinarsi del giorno delle elezioni del 10 aprile. Tutto questo nonostante una legge rivista entrata in vigore il 29 gennaio, secondo la quale l’uso di video, foto o audio deepfake in relazione alle elezioni può far guadagnare a un cittadino fino a sette anni di prigione e multe fino a 50 milioni di won. (circa $ 37,500). 

Non solo disinformazione

Shwed di Check Point ha avvertito che, come ogni nuova tecnologia, l’intelligenza artificiale ha i suoi rischi. “Quindi sì, ci sono cose brutte che possono accadere e dobbiamo difenderci da esse”, ha detto.

Le informazioni false non sono tanto il problema, ha aggiunto. "Il problema più grande nei conflitti umani in generale è che non vediamo il quadro completo: scegliamo gli elementi [nelle notizie] che vogliamo vedere e poi, sulla base di essi, prendiamo una decisione", ha detto.

“Non si tratta di disinformazione, ma di ciò in cui credi. E in base a ciò in cui credi, scegli quali informazioni vuoi vedere. Non il contrario."

Timestamp:

Di più da Lettura oscura