Polícia sul-coreana implanta ferramenta de detecção de deepfake antes das eleições

Polícia sul-coreana implanta ferramenta de detecção de deepfake antes das eleições

Polícia sul-coreana implanta ferramenta de detecção de deepfake antes das eleições PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Em meio a um aumento acentuado de deepfakes com motivação política, a Agência Nacional de Polícia da Coreia do Sul (KNPA) desenvolveu e implantou uma ferramenta para detectar conteúdo gerado por IA para uso em possíveis investigações criminais.

De acordo com o Escritório Nacional de Investigação (NOI) da KNPA, o programa de aprendizagem profunda foi treinado em aproximadamente 5.2 milhões de dados provenientes de 5,400 cidadãos coreanos. Ele pode determinar se um vídeo (no qual não foi pré-treinado) é real ou não em apenas cinco a 10 minutos, com uma taxa de precisão de cerca de 80%. A ferramenta gera automaticamente uma planilha de resultados que a polícia pode usar em investigações criminais.

Conforme relatado pela mídia coreana, estes resultados serão utilizados para informar as investigações, mas não serão utilizados como prova direta em julgamentos criminais. A polícia também abrirá espaço para colaboração com especialistas em IA no meio acadêmico e empresarial.

Especialistas em segurança de IA pediram o uso da IA ​​para o bem, incluindo a detecção de desinformação e deepfakes.

“Este é o ponto: a IA pode nos ajudar a analisar [conteúdo falso] em qualquer escala”, disse Gil Shwed, CEO da Check Point, à Dark Reading em entrevista esta semana. Embora a IA seja a doença, disse ele, também é a cura: “[A detecção de fraudes] costumava exigir tecnologias muito complexas, mas com a IA você pode fazer a mesma coisa com uma quantidade mínima de informações - não apenas boas e grandes quantidades de informações. Informação."

O problema deepfake da Coreia

Enquanto o resto do mundo espera em antecipação aos deepfakes invadindo períodos eleitorais, Os coreanos já têm lidado com o problema de perto e pessoalmente.

O canário na mina de carvão ocorreu durante as eleições provinciais em 2022, quando um vídeo se espalhou nas redes sociais que parecia mostrar o Presidente Yoon Suk Yeol a apoiar um candidato local do partido no poder.

Este tipo de engano tornou-se ultimamente mais prevalente. No mês passado, a Comissão Nacional Eleitoral do país revelou que entre 29 de janeiro e 16 de fevereiro, detectou 129 deepfakes em violação das leis eleitorais - um número que só deverá aumentar à medida que se aproxima o dia das eleições de 10 de Abril. Tudo isso apesar de uma lei revisada que entrou em vigor em 29 de janeiro, afirmando que o uso de vídeos, fotos ou áudio falsos em conexão com eleições pode render a um cidadão até sete anos de prisão e multas de até 50 milhões de won. (cerca de US$ 37,500). 

Não apenas desinformação

Shwed, da Check Point, alertou que, como qualquer nova tecnologia, a IA tem os seus riscos. “Então, sim, há coisas ruins que podem acontecer e precisamos nos defender contra elas”, disse ele.

Informações falsas não são tanto o problema, acrescentou. “O maior problema no conflito humano em geral é que não vemos o quadro completo – escolhemos os elementos [nas notícias] que queremos ver e depois, com base neles, tomamos uma decisão”, disse ele.

“Não se trata de desinformação, trata-se daquilo em que você acredita. E com base no que você acredita, você escolhe quais informações deseja ver. Não o contrário."

Carimbo de hora:

Mais de Leitura escura