Južnokorejska policija pred volitvami uporablja orodje za odkrivanje ponaredkov Deepfake

Južnokorejska policija pred volitvami uporablja orodje za odkrivanje ponaredkov Deepfake

South Korean Police Deploy Deepfake Detection Tool Prior to Elections PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Sredi strmega porasta politično motiviranih globokih ponaredkov je Južnokorejska nacionalna policijska agencija (KNPA) razvila in uvedla orodje za odkrivanje vsebine, ustvarjene z umetno inteligenco, za uporabo v morebitnih kazenskih preiskavah.

Po podatkih nacionalnega preiskovalnega urada KNPA (NOI) je bil program globokega učenja usposobljen na približno 5.2 milijona podatkov, pridobljenih od 5,400 korejskih državljanov. Lahko ugotovi, ali je videoposnetek (za katerega ni bil vnaprej usposobljen) resničen ali ne v samo petih do desetih minutah, s približno 10-odstotno stopnjo natančnosti. Orodje samodejno ustvari preglednico z rezultati, ki jo lahko policija uporabi v kazenskih preiskavah.

Kot poročajo korejski mediji, bodo ti rezultati uporabljeni za informiranje preiskav, ne bodo pa uporabljeni kot neposreden dokaz v kazenskih sojenjih. Policija bo omogočila tudi sodelovanje s strokovnjaki za umetno inteligenco v akademskih in poslovnih krogih.

Strokovnjaki za varnost umetne inteligence so pozvali k uporabi umetne inteligence za dobro, vključno z odkrivanjem dezinformacij in globokih ponaredkov.

"To je bistvo: AI nam lahko pomaga analizirati [lažne vsebine] v katerem koli obsegu," je Gil Shwed, izvršni direktor podjetja Check Point, povedal za Dark Reading v intervjuju ta teden. Čeprav je umetna inteligenca bolezen, je dejal, je tudi zdravilo: »[Odkrivanje goljufij] je včasih zahtevalo zelo zapletene tehnologije, toda z umetno inteligenco lahko naredite isto stvar z minimalno količino informacij – ne samo z dobrimi in velikimi količinami informacij. informacije.”

Korejski problem Deepfake

Medtem ko preostali svet čaka v pričakovanju globokih ponaredkov vdor volilnih sezon, so se Korejci s težavo že spopadli od blizu in osebno.

Kanarček v rudniku premoga se je zgodil med pokrajinskimi volitvami leta 2022, ko se je po družbenih omrežjih razširil videoposnetek, ki prikazuje predsednika Yoon Suk Yeola, kako podpira lokalnega kandidata za vladajočo stranko.

Ta vrsta prevare je v zadnjem času vse bolj razširjena. Prejšnji mesec je državna volilna komisija razkrila, da je med 29. januarjem in 16. februarjem zaznal 129 deepfakov v nasprotju z volilno zakonodajo – številka, za katero se pričakuje, da bo le še naraščala, ko se bo bližal dan volitev 10. april. Vse to kljub revidiranemu zakonu, ki je začel veljati 29. januarja in navaja, da lahko uporaba globoko lažnih videoposnetkov, fotografij ali zvoka v povezavi z volitvami državljanu prinese do sedem let zapora in denarno kazen do 50 milijonov vonov. (okoli 37,500 $). 

Ne samo dezinformacije

Shwed iz Check Pointa je opozoril, da ima, tako kot vsaka nova tehnologija, tudi umetna inteligenca svoja tveganja. "Torej, da, obstajajo slabe stvari, ki se lahko zgodijo, in pred njimi se moramo braniti," je dejal.

Lažne informacije niso tolikšen problem, je dodal. »Največja težava v človeških konfliktih na splošno je, da ne vidimo celotne slike – izberemo elemente [v novicah], ki jih želimo videti, in nato na podlagi njih sprejmemo odločitev,« je dejal.

»Ne gre za dezinformacije, temveč za to, v kaj verjamete. In na podlagi tega, v kar verjamete, izberete, katere informacije želite videti. Ne obratno.”

Časovni žig:

Več od Temno branje