Deepfakes no ano eleitoral global de 2024: uma arma de engano em massa?

Deepfakes no ano eleitoral global de 2024: uma arma de engano em massa?

Segurança Digital

À medida que imagens, vídeos e clipes de áudio fabricados de pessoas reais se tornam populares, a perspectiva de uma onda de desinformação alimentada por IA é motivo de preocupação crescente

Deepfakes no ano eleitoral global de 2024: uma arma de engano em massa?

As notícias falsas dominaram as manchetes eleitorais desde que virou uma grande história durante a corrida à Casa Branca em 2016. Mas oito anos depois, existe uma ameaça indiscutivelmente maior: uma combinação de desinformação e deepfakes isso poderia enganar até os especialistas. As chances são altas de que recentes exemplos de conteúdo gerado por IA com tema eleitoral – incluindo uma série de imagens e vídeos circulando no período que antecedeu as eleições presenciais na Argentina e de um áudio adulterado do presidente dos EUA, Joe Biden – foram arautos do que provavelmente acontecerá em maior escala.

Com cerca de um quarto da população mundial A caminho das urnas em 2024, aumentam as preocupações de que a desinformação e os truques alimentados pela IA possam ser usados ​​por intervenientes nefastos para influenciar os resultados, com muitos especialistas temendo as consequências da generalização dos deepfakes.

A ameaça da desinformação deepfake

Como mencionado, nada menos que dois mil milhões de pessoas estão prestes a dirigir-se às suas assembleias de voto locais este ano para votar nos seus representantes e líderes estaduais favoritos. Como estão previstas eleições importantes em mais de um país, incluindo os EUA, o Reino Unido e a Índia (bem como para o Parlamento Europeu), isto tem o potencial de mudar o cenário político e a direção da geopolítica nos próximos anos – e além.

Ao mesmo tempo, porém, a desinformação e a desinformação foram recentemente classificado pelo Fórum Económico Mundial (WEF) como o risco global número um dos próximos dois anos.

O desafio dos deepfakes é que a tecnologia alimentada por IA está agora a tornar-se barata, acessível e poderosa o suficiente para causar danos em grande escala. Democratiza a capacidade dos cibercriminosos, atores estatais e hacktivistas de lançar campanhas convincentes de desinformação e muito mais fraudes ad hoc e únicas. É parte da razão pela qual o FEM classificou recentemente a desinformação/desinformação como o maior risco global dos próximos dois anos, e o segundo risco atual, depois das condições meteorológicas extremas. Isso está de acordo com 1,490 especialistas do meio acadêmico, empresarial, governamental, da comunidade internacional e da sociedade civil consultados pelo WEF.

O relatório alerta:“O conteúdo sintético manipulará os indivíduos, prejudicará as economias e fracturará as sociedades de diversas formas ao longo dos próximos dois anos… existe o risco de alguns governos agirem demasiado lentamente, enfrentando um compromisso entre prevenir a desinformação e proteger a liberdade de expressão.”

deepfakes-desinformação-política

(Profundo) fingindo

O desafio é que ferramentas como o ChatGPT e a IA generativa de acesso livre (GenAI) tornaram possível que um leque mais vasto de indivíduos se envolvesse na criação de campanhas de desinformação impulsionadas por tecnologia deepfake. Com todo o trabalho árduo feito por eles, os atores mal-intencionados têm mais tempo para trabalhar em suas mensagens e esforços de amplificação para garantir que seu conteúdo falso seja visto e ouvido.

Num contexto eleitoral, os deepfakes poderiam obviamente ser usados ​​para minar a confiança dos eleitores num determinado candidato. Afinal, é mais fácil convencer alguém a não fazer algo do que o contrário. Se os apoiantes de um partido político ou candidato puderem ser adequadamente influenciados por áudio ou vídeo falsos, isso seria uma vitória definitiva para grupos rivais. Em algumas situações, os Estados pária podem tentar minar a fé em todo o processo democrático, de modo que quem quer que ganhe terá dificuldade em governar com legitimidade.

No cerne do desafio está uma verdade simples: quando os humanos processam informações, tendem a valorizar a quantidade e a facilidade de compreensão. Isso significa que quanto mais conteúdo visualizarmos com uma mensagem semelhante, e quanto mais fácil for entendê-lo, maiores serão as chances de acreditarmos nele. É por isso que as campanhas de marketing tendem a ser compostas por mensagens curtas e continuamente repetidas. Acrescente a isso o fato de que os deepfakes estão se tornando cada vez mais difíceis de distinguir do conteúdo real, e você terá uma receita potencial para o desastre democrático.

Da teoria à prática

É preocupante que os deepfakes provavelmente tenham um impacto no sentimento dos eleitores. Veja este novo exemplo: em janeiro de 2024, um áudio deepfake do presidente dos EUA, Joe Biden foi distribuído por meio de uma chamada automática para um número desconhecido de eleitores nas primárias em New Hampshire. Na mensagem, ele aparentemente disse-lhes para não comparecerem e, em vez disso, para “guardarem o vosso voto para as eleições de Novembro”. O número de identificação de chamadas exibido também foi falsificado para parecer que a mensagem automática foi enviada do número pessoal de Kathy Sullivan, ex-presidente estadual do Partido Democrata que agora dirige um super-PAC pró-Biden.

Não é difícil ver como tais apelos poderiam ser usados ​​para dissuadir os eleitores de votarem no seu candidato preferido antes das eleições presidenciais de Novembro. O risco será particularmente agudo em eleições muito disputadas, onde a mudança de um pequeno número de eleitores de um lado para outro determina o resultado. Com apenas dezenas de milhares de eleitores num punhado de estados indecisos que provavelmente decidirão o resultado das eleições, uma campanha direccionada como esta poderia causar danos incalculáveis. E acrescentando insulto à injúria, como no caso acima, a disseminação por meio de chamadas automáticas em vez de mídias sociais, é ainda mais difícil de rastrear ou medir o impacto.

O que as empresas de tecnologia estão fazendo a respeito?

Tanto o YouTube quanto o Facebook são disse ter sido lento em resposta a alguns deepfakes que pretendiam influenciar uma eleição recente. Isto apesar de uma nova lei da UE (a Lei dos Serviços Digitais) que exige que as empresas de redes sociais reprimam as tentativas de manipulação eleitoral.

Por sua vez, a OpenAI afirmou que implementará as credenciais digitais da Coalition for Content Provenance and Authenticity (C2PA) para imagens geradas por DALL-E3. A tecnologia de marca d’água criptográfica – também testada pela Meta e pelo Google – foi projetada para dificultar a produção de imagens falsas.

No entanto, estes ainda são apenas pequenos passos e há preocupações justificáveis que a resposta tecnológica à ameaça será demasiado pequena e demasiado tardia, à medida que a febre eleitoral se apodera do globo. Especialmente quando disseminados em redes relativamente fechadas, como grupos de WhatsApp ou chamadas automáticas, será difícil rastrear e desmascarar rapidamente qualquer áudio ou vídeo falso.

A teoria do “viés de ancoragem” sugere que a primeira informação que os humanos ouvem é aquela que fica gravada em nossas mentes, mesmo que se revele falsa. Se os deepfakers conseguirem convencer os eleitores primeiro, todas as apostas serão canceladas sobre quem será o vencedor final. Na era das redes sociais e da desinformação alimentada pela IA, o ditado de Jonathan Swift “a falsidade voa e a verdade vem mancando atrás dela” assume um significado totalmente novo.

Carimbo de hora:

Mais de Nós Vivemos Segurança