La policía de Corea del Sur implementa una herramienta de detección de deepfake antes de las elecciones

La policía de Corea del Sur implementa una herramienta de detección de deepfake antes de las elecciones

La policía de Corea del Sur implementa una herramienta de detección de deepfake antes de las elecciones PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

En medio de un fuerte aumento de los deepfakes por motivos políticos, la Agencia Nacional de Policía de Corea del Sur (KNPA) ha desarrollado e implementado una herramienta para detectar contenido generado por IA para su uso en posibles investigaciones criminales.

Según la Oficina Nacional de Investigación (NOI) de KNPA, el programa de aprendizaje profundo se entrenó en aproximadamente 5.2 millones de datos procedentes de 5,400 ciudadanos coreanos. Puede determinar si un vídeo (en el que no ha sido entrenado previamente) es real o no en sólo cinco a 10 minutos, con una tasa de precisión de alrededor del 80%. La herramienta genera automáticamente una hoja de resultados que la policía puede utilizar en investigaciones criminales.

Según lo informado por los medios coreanos., estos resultados se utilizarán para informar las investigaciones, pero no se utilizarán como prueba directa en juicios penales. La policía también dejará espacio para la colaboración con expertos en IA del mundo académico y empresarial.

Los expertos en seguridad de IA han pedido el uso de la IA para siempre, incluida la detección de información errónea y falsificaciones profundas.

"Este es el punto: la IA puede ayudarnos a analizar [contenido falso] a cualquier escala", dijo Gil Shwed, director ejecutivo de Check Point, a Dark Reading en una entrevista esta semana. Aunque la IA es la enfermedad, dijo, también es la cura: “[La detección del fraude] solía requerir tecnologías muy complejas, pero con la IA se puede hacer lo mismo con una cantidad mínima de información, no solo buenas y grandes cantidades de información. información."

El problema de los deepfake en Corea

Mientras el resto del mundo espera con anticipación los deepfakes Invadiendo las temporadas electorales, los coreanos ya han estado lidiando con el problema de manera cercana y personal.

El canario en la mina de carbón ocurrió durante las elecciones provinciales de 2022, cuando se difundió un vídeo en las redes sociales que parecía mostrar al presidente Yoon Suk Yeol respaldando a un candidato local del partido gobernante.

Este tipo de engaño últimamente se ha vuelto más frecuente. El mes pasado, la Comisión Electoral Nacional del país reveló que entre el 29 de enero y el 16 de febrero, detectado 129 deepfakes en violación de las leyes electorales, una cifra que sólo se espera que aumente a medida que se acerca el día de las elecciones del 10 de abril. Todo esto a pesar de una ley revisada que entró en vigor el 29 de enero, que establece que el uso de videos, fotografías o audio deepfake en relación con las elecciones puede acarrear a un ciudadano hasta siete años de prisión y multas de hasta 50 millones de wones. (alrededor de 37,500 dólares). 

No sólo desinformación

Shwed, de Check Point, advirtió que, como cualquier tecnología nueva, la IA tiene sus riesgos. “Así que sí, pueden suceder cosas malas y debemos defendernos de ellas”, dijo.

La información falsa no es tanto el problema, añadió. "El mayor problema en los conflictos humanos en general es que no vemos el panorama completo: elegimos los elementos [en las noticias] que queremos ver y luego, en base a ellos, tomamos una decisión", dijo.

“No se trata de desinformación, se trata de en qué crees. Y en función de lo que crees, eliges qué información quieres ver. No de la otra manera."

Sello de tiempo:

Mas de Lectura oscura