La police sud-coréenne déploie un outil de détection des Deepfakes avant les élections

La police sud-coréenne déploie un outil de détection des Deepfakes avant les élections

La police sud-coréenne déploie un outil de détection de Deepfake avant les élections PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Face à une forte augmentation des deepfakes à motivation politique, l'Agence nationale de police de Corée du Sud (KNPA) a développé et déployé un outil de détection du contenu généré par l'IA à utiliser dans d'éventuelles enquêtes criminelles.

Selon le Bureau national d'enquête (NOI) de la KNPA, le programme d'apprentissage profond a été formé sur environ 5.2 millions de données provenant de 5,400 10 citoyens coréens. Il peut déterminer si une vidéo (sur laquelle il n'a pas été pré-entraîné) est réelle ou non en seulement cinq à 80 minutes, avec un taux de précision d'environ XNUMX %. L'outil génère automatiquement une feuille de résultats que la police peut utiliser dans le cadre d'enquêtes criminelles.

Comme le rapportent les médias coréens, ces résultats seront utilisés pour éclairer les enquêtes mais ne seront pas utilisés comme preuve directe dans les procès criminels. La police fera également un espace pour collaborer avec des experts en IA du monde universitaire et du monde des affaires.

Les experts en sécurité de l’IA ont appelé à l’utilisation de l’IA à des fins bénéfiques, notamment pour détecter la désinformation et les deepfakes.

"C'est là le point : l'IA peut nous aider à analyser les [faux contenus] à n'importe quelle échelle", a déclaré Gil Shwed, PDG de Check Point, à Dark Reading dans une interview cette semaine. Bien que l’IA soit le mal, a-t-il déclaré, elle est aussi le remède : « [La détection de la fraude] nécessitait autrefois des technologies très complexes, mais avec l’IA, vous pouvez faire la même chose avec un minimum d’informations – pas seulement de bonnes et grandes quantités d’informations. information."

Le problème du deepfake en Corée

Pendant que le reste du monde attend les deepfakes envahir les périodes électorales, les Coréens ont déjà été confrontés au problème de près et personnellement.

Le canari dans la mine de charbon s'est produit lors des élections provinciales de 2022, lorsqu'une vidéo diffusée sur les réseaux sociaux semblait montrer le président Yoon Suk Yeol soutenant un candidat local du parti au pouvoir.

Ce type de tromperie est récemment devenu plus répandu. Le mois dernier, la Commission électorale nationale du pays a révélé qu'entre le 29 janvier et le 16 février, détecté 129 deepfakes en violation des lois électorales – un chiffre qui ne fera qu’augmenter à l’approche du jour des élections du 10 avril. Tout cela malgré une loi révisée entrée en vigueur le 29 janvier, stipulant que l'utilisation de vidéos, de photos ou d'audio deepfakes en relation avec des élections peut valoir à un citoyen jusqu'à sept ans de prison et des amendes allant jusqu'à 50 millions de won. (environ 37,500 XNUMX $). 

Pas seulement de la désinformation

Shwed de Check Point a averti que, comme toute nouvelle technologie, l'IA comporte ses risques. « Alors oui, de mauvaises choses peuvent arriver et nous devons nous défendre contre elles », a-t-il déclaré.

Les fausses informations ne constituent pas vraiment un problème, a-t-il ajouté. « Le plus gros problème dans les conflits humains en général est que nous n'avons pas une vue d'ensemble : nous choisissons les éléments [dans l'actualité] que nous voulons voir, puis, en fonction de ceux-ci, nous prenons une décision », a-t-il déclaré.

« Il ne s'agit pas de désinformation, mais de ce en quoi vous croyez. Et en fonction de ce en quoi vous croyez, vous choisissez les informations que vous souhaitez voir. Pas l’inverse.

Horodatage:

Plus de Lecture sombre