AI Deepfakes também são uma ameaça para as empresas – eis o porquê – Descriptografar

AI Deepfakes também são uma ameaça para as empresas – aqui está o porquê – Descriptografar

AI Deepfakes também são uma ameaça para as empresas - eis o porquê - Descriptografar PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

À medida que os gigantes da tecnologia competem para levar a inteligência artificial às massas e dominar o mercado em expansão, a corrida armamentista da IA ​​está a alimentar um aumento de vídeos e áudio “deepfake” – conteúdo que muitas vezes parece ou soa convincentemente legítimo, mas que na verdade é uma deturpação fraudulenta. E também estão impactando as empresas, de acordo com um novo relatório.

Deepfakes são criações geradas por IA, como imagens, vídeos e áudio manipulados para enganar as pessoas. Os golpistas usam deepfakes para fraudes, extorsão, ou para prejudicar reputações. A proliferação de IA generativa ferramentas tornou mais fácil do que nunca para os golpistas criarem conteúdo falso.

Celebridades e outras figuras públicas estão a ser inseridas em imagens artificiais e por vezes explícitas sem o seu consentimento, de formas que por vezes se tornam virais ou podem causar pânico nas redes sociais. Num relatório fornecido a Descifrar, empresa de contabilidade global KPMG escreveu que o setor empresarial também não está imune à ameaça do deepfake.

O conteúdo deepfake pode ser usado em ataques de engenharia social e outros tipos de ataques cibernéticos direcionados a empresas, escreveu a KPMG, embora esse conteúdo também possa impactar a reputação das empresas e de seus líderes. Falsas representações de representantes de empresas também podem ser utilizadas em esquemas para enganar clientes ou para convencer funcionários a fornecer informações ou transferir dinheiro para atores ilícitos.

KPMG citou um exemplo de 2020 de um gerente de filial de uma empresa em Hong Kong que foi enganado e transferiu US$ 35 milhões em fundos da empresa para golpistas depois de acreditar que seu chefe estava ao telefone, ordenando-lhe que o fizesse. Em vez disso, foi uma recriação da voz do supervisor clonada por IA – tudo parte de um esquema elaborado para roubar dinheiro da empresa.

“As consequências dos ataques cibernéticos que utilizam conteúdo sintético – conteúdo digital que foi gerado ou manipulado para fins nefastos – podem ser vastas, caras e ter uma variedade de impactos socioeconômicos, incluindo financeiros, de reputação, de serviços e geopolíticos, entre outros”, diz o relatório.

Imagens falsas de Donald Trump sendo preso no início deste ano, Papa Francisco vestindo roupas de luxo Balenciaga, e Elon Musk a promoção de golpes de criptografia se tornou viral no ano passado, à medida que a tecnologia deepfake melhorou graças à evolução das ferramentas de IA.

“Sejam falsificações baratas ou deepfakes, o modelo econômico mudou significativamente por causa dos modelos generativos de IA”, escreveu a KPMG.

Além das figuras públicas mencionadas acima, celebridades proeminentes cujas imagens foram roubadas e aplicadas em imagens falsas incluem a atriz Emma Watson e a musicista Taylor Swift. Mas é sobre o impacto potencial para as empresas e para os seus líderes, por vezes proeminentes, que a KPMG está a dar o alarme.

“Como fator de risco, o conteúdo deepfake não é apenas uma preocupação para as mídias sociais, sites de namoro e a indústria do entretenimento – é agora uma questão de diretoria”, disse a KPMG. “Caso em questão, quase todos os entrevistados (92%) de uma pesquisa recente da KPMG sobre IA generativa com 300 executivos de vários setores e regiões afirmam que suas preocupações sobre os riscos da implementação de IA generativa são de moderada a altamente significativas.”

Não são apenas empresas e celebridades que estão lidando com o aumento na qualidade e no número de vídeos deepfake na internet. Os governos e os reguladores também estão a avaliar o impacto potencial na sociedade e nas eleições, enquanto os criadores de tais ferramentas de IA avaliam o seu potencial impacto negativo.

Na semana passada, a Comissão Eleitoral Federal dos EUA, antecipando o uso de deepfakes nas eleições de 2024, avançou com um petição proibir o uso de inteligência artificial em anúncios de campanha.

Se aprovada, a agência alteraria os regulamentos atuais relativos à deturpação fraudulenta da “autoridade da campanha” e esclareceria que a proibição se aplica a anúncios de campanhas de IA deliberadamente enganosos.

“Os reguladores devem continuar a compreender e considerar o impacto da evolução das ameaças nas regulamentações existentes”, disse Matthew Miller, Diretor de Serviços de Segurança Cibernética da KPMG. Descifrar. “Os requisitos propostos para rotulagem e marca d'água no conteúdo gerado por IA podem ter um impacto positivo.”

Em julho, pesquisadores do MIT proposto adicionar alterações de código a grandes modelos de difusão para mitigar o risco de deepfakes, adicionando pequenas alterações que são difíceis de ver, mas que acabam mudando a forma como os modelos funcionam, fazendo com que gerem imagens que não parecem reais. Meta, entretanto, recentemente reteve uma ferramenta de IA devido ao seu potencial deepfake.

O entusiasmo em torno do potencial criativo das ferramentas generativas de IA foi atenuado pela constatação de que elas podem, de forma semelhante, criar oportunidades para conteúdo malicioso. Em última análise, em meio a rápidas melhorias nessas ferramentas, Miller pediu a todos que estivessem atentos ao potencial de conteúdo falso.

“O público precisa manter vigilância contínua ao interagir através dos canais digitais”, disse ele Descriptografar. “A consciência situacional e o bom senso contribuem muito para evitar a ocorrência de um incidente. Se algo não ‘parece certo’, há uma grande probabilidade de ser uma atividade maliciosa.”

Fique por dentro das notícias sobre criptomoedas, receba atualizações diárias em sua caixa de entrada.

Carimbo de hora:

Mais de Descifrar