Südkoreanische Polizei setzt Deepfake-Erkennungstool vor Wahlen ein

Südkoreanische Polizei setzt Deepfake-Erkennungstool vor Wahlen ein

Südkoreanische Polizei setzt Deepfake-Erkennungstool vor Wahlen ein PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Angesichts des steilen Anstiegs politisch motivierter Deepfakes hat die südkoreanische Nationale Polizeibehörde (KNPA) ein Tool zur Erkennung von KI-generierten Inhalten zur Verwendung bei möglichen strafrechtlichen Ermittlungen entwickelt und eingesetzt.

Nach Angaben des National Office of Investigation (NOI) der KNPA wurde das Deep-Learning-Programm anhand von etwa 5.2 Millionen Daten von 5,400 koreanischen Bürgern trainiert. Es kann in nur fünf bis zehn Minuten mit einer Genauigkeit von etwa 10 % feststellen, ob ein Video (für das es nicht vorab trainiert wurde) echt ist oder nicht. Das Tool generiert automatisch ein Ergebnisblatt, das die Polizei bei strafrechtlichen Ermittlungen verwenden kann.

Wie koreanische Medien berichtenDiese Ergebnisse werden als Grundlage für Ermittlungen verwendet, jedoch nicht als direkte Beweise in Strafverfahren. Die Polizei wird auch Raum für die Zusammenarbeit mit KI-Experten aus Wissenschaft und Wirtschaft schaffen.

KI-Sicherheitsexperten fordern den dauerhaften Einsatz von KI, einschließlich der Erkennung von Fehlinformationen und Deepfakes.

„Das ist der Punkt: KI kann uns helfen, [falsche Inhalte] in jedem Maßstab zu analysieren“, sagte Gil Shwed, CEO von Check Point, diese Woche in einem Interview mit Dark Reading. Obwohl KI die Krankheit sei, sagte er, sei sie auch das Heilmittel: „Früher erforderte die Erkennung von Betrug sehr komplexe Technologien, aber mit KI kann man dasselbe mit einer minimalen Menge an Informationen erreichen – nicht nur mit guten und großen Mengen.“ Information."

Koreas Deepfake-Problem

Während der Rest der Welt auf Deepfakes wartet eindringende Wahlsaison, Koreaner haben sich bereits hautnah mit dem Problem auseinandergesetzt.

Der Kanarienvogel im Kohlebergwerk ereignete sich während der Provinzwahlen im Jahr 2022, als in den sozialen Medien ein Video verbreitet wurde, das zu zeigen schien, wie Präsident Yoon Suk Yeol einen lokalen Kandidaten für die Regierungspartei unterstützt.

Diese Art der Täuschung kommt in letzter Zeit immer häufiger vor. Letzten Monat gab die Nationale Wahlkommission des Landes bekannt, dass sie zwischen dem 29. Januar und dem 16. Februar 129 Deepfakes entdeckt Dies stellt einen Verstoß gegen die Wahlgesetze dar – eine Zahl, die voraussichtlich noch steigen wird, je näher der Wahltag am 10. April rückt. All dies trotz eines überarbeiteten Gesetzes, das am 29. Januar in Kraft trat und besagt, dass die Verwendung von Deepfake-Videos, -Fotos oder -Audio im Zusammenhang mit Wahlen einem Bürger bis zu sieben Jahre Gefängnis und Geldstrafen von bis zu 50 Millionen Won einbringen kann (ca. 37,500 $). 

Nicht nur Desinformation

Shwed von Check Point warnte, dass KI wie jede neue Technologie Risiken birgt. „Also ja, es können schlimme Dinge passieren und wir müssen uns dagegen wehren“, sagte er.

Gefälschte Informationen seien nicht so sehr das Problem, fügte er hinzu. „Das größte Problem bei menschlichen Konflikten im Allgemeinen besteht darin, dass wir nicht das ganze Bild sehen – wir wählen die Elemente [in den Nachrichten] aus, die wir sehen wollen, und treffen dann auf der Grundlage dieser eine Entscheidung“, sagte er.

„Es geht nicht um Desinformation, sondern darum, woran Sie glauben. Und basierend auf dem, woran Sie glauben, wählen Sie aus, welche Informationen Sie sehen möchten. Nicht umgekehrt."

Zeitstempel:

Mehr von Dunkle Lektüre