Etelä-Korean poliisi ottaa käyttöön Deepfake Detection Tool -työkalun ennen vaaleja

Etelä-Korean poliisi ottaa käyttöön Deepfake Detection Tool -työkalun ennen vaaleja

Etelä-Korean poliisi ottaa käyttöön Deepfake Detection Toolin ennen vaaleja PlatoBlockchain Data Intelligencen. Pystysuuntainen haku. Ai.

Poliittisesti motivoituneiden syväväärennösten jyrkän kasvun keskellä Etelä-Korean kansallinen poliisivirasto (KNPA) on kehittänyt ja ottanut käyttöön työkalun tekoälyn tuottaman sisällön havaitsemiseen mahdollisissa rikostutkinnassa käytettäväksi.

KNPA:n National Office of Investigationin (NOI) mukaan syväoppimisohjelmaa opetettiin noin 5.2 miljoonalla tiedolla, jotka olivat peräisin 5,400 10 Korean kansalaiselta. Se voi määrittää vain 80–XNUMX minuutissa, onko video (jolle sitä ei ole esiopetettu) todellinen vai ei, noin XNUMX prosentin tarkkuudella. Työkalu luo automaattisesti tulostaulukon, jota poliisi voi käyttää rikostutkinnassa.

Korean median mukaan, näitä tuloksia käytetään tutkimuksissa, mutta niitä ei käytetä suorina todisteina rikosoikeudenkäynneissä. Poliisi tekee myös tilaa yhteistyölle korkeakoulujen ja yritysten tekoälyasiantuntijoiden kanssa.

Tekoälyn turvallisuusasiantuntijat ovat vaatineet tekoälyn käyttöä hyväksi, mukaan lukien väärän tiedon ja syväväärennösten havaitseminen.

"Tämä on pointti: tekoäly voi auttaa meitä analysoimaan [väärellistä sisältöä] missä tahansa mittakaavassa", Check Pointin toimitusjohtaja Gil Shwed kertoi Dark Readingille haastattelussa tällä viikolla. Vaikka tekoäly on sairaus, hän sanoi, se on myös parannuskeino: "[Petoksen havaitseminen] vaati ennen hyvin monimutkaisia ​​​​tekniikoita, mutta tekoälyllä voit tehdä saman asian pienellä määrällä tietoa – ei vain hyvää ja suuria määriä tiedot."

Korean Deepfake-ongelma

Kun muu maailma odottaa syvää väärennöksiä valtaavat vaalikaudetKorealaiset ovat jo käsitelleet ongelmaa läheltä ja henkilökohtaisesti.

Kanariansaarna hiilikaivoksessa tapahtui vuoden 2022 maakuntavaalien aikana, kun sosiaalisessa mediassa levisi video, joka näytti presidentti Yoon Suk Yeolin kannattavan paikallista hallituspuolueen ehdokasta.

Tämäntyyppinen petos on yleistynyt viime aikoina. Viime kuussa maan kansallinen vaalilautakunta paljasti, että 29. tammikuuta ja 16. helmikuuta välisenä aikana havaitsi 129 syvävää väärennystä vastoin vaalilakeja – luvun, jonka odotetaan vain nousevan 10. huhtikuun vaalipäivän lähestyessä. Kaikki tämä huolimatta 29. tammikuuta voimaan tulleesta uudistetusta laista, jonka mukaan syväfake-videoiden, -kuvien tai -äänen käyttö vaalien yhteydessä voi saada kansalaisen jopa seitsemän vuoden vankeusrangaistuksen ja jopa 50 miljoonan wonin sakot. (noin 37,500 XNUMX dollaria). 

Ei vain disinformaatiota

Check Pointin Shwed varoitti, että kuten kaikilla uudella tekniikalla, tekoälyllä on riskinsä. "Joten kyllä, pahoja asioita voi tapahtua, ja meidän on puolustauduttava niitä vastaan", hän sanoi.

Väärennetyt tiedot eivät ole niin suuri ongelma, hän lisäsi. "Suurin ongelma inhimillisissä konflikteissa yleensä on se, että emme näe kokonaiskuvaa - valitsemme elementit [uutisissa], jotka haluamme nähdä, ja sitten teemme niiden perusteella päätöksen", hän sanoi.

”Kyse ei ole disinformaatiosta, vaan siitä, mihin uskot. Ja sen perusteella, mihin uskot, valitset, mitä tietoja haluat nähdä. Ei toisinpäin."

Aikaleima:

Lisää aiheesta Pimeää luettavaa