Remodelando o cenário de ameaças: ataques cibernéticos deepfake estão aqui PlatoBlockchain Data Intelligence. Pesquisa vertical. Ai.

Reformulando o cenário de ameaças: os ataques cibernéticos Deepfake estão aqui

Campanhas maliciosas envolvendo o uso de tecnologias deepfake estão muito mais próximas do que muitos imaginam. Além disso, a mitigação e detecção deles são difíceis.

Um novo estudo sobre o uso e abuso de deepfakes por cibercriminosos mostra que todos os elementos necessários para o uso generalizado da tecnologia estão em vigor e prontamente disponíveis em mercados clandestinos e fóruns abertos. O estudo da Trend Micro mostra que muitos phishing habilitados para deepfake, comprometimento de e-mail comercial (BEC) e golpes promocionais já estão acontecendo e são remodelando rapidamente o cenário de ameaças.

Não é mais uma ameaça hipotética

“De ameaças hipotéticas e de prova de conceito, [ataques habilitados para deepfake] passaram para o estágio em que criminosos não maduros são capazes de usar essas tecnologias”, diz Vladimir Kropotov, pesquisador de segurança da Trend Micro e principal autor de um relatório sobre o tema que o fornecedor de segurança lançou esta semana. 

“Já vemos como os deepfakes são integrados a ataques contra instituições financeiras, golpes e tentativas de se passar por políticos”, diz ele, acrescentando que o que é assustador é que muitos desses ataques usam identidades de pessoas reais – muitas vezes extraídas de conteúdo que publicam em redes sociais. redes de mídia.

Uma das principais conclusões do estudo da Trend Micro é a pronta disponibilidade de ferramentas, imagens e vídeos para gerar deepfakes. O fornecedor de segurança descobriu, por exemplo, que vários fóruns, incluindo o GitHub, oferecem código-fonte para desenvolver deepfakes para quem quiser. Da mesma forma, imagens e vídeos de alta qualidade de indivíduos comuns e figuras públicas estão disponíveis para que maus atores possam criar milhões de identidades falsas ou se passar por políticos, líderes empresariais e outras personalidades famosas.

A demanda por serviços deepfake e pessoas com experiência no assunto também está crescendo em fóruns clandestinos. A Trend Micro encontrou anúncios de criminosos que buscavam essas habilidades para realizar golpes e fraudes de criptomoedas visando contas financeiras individuais. 

“Os atores já podem se passar por e roubar as identidades de políticos, executivos de nível C e celebridades”, disse a Trend Micro em seu relatório. “Isso pode aumentar significativamente a taxa de sucesso de certos ataques, como esquemas financeiros, campanhas de desinformação de curta duração, manipulação da opinião pública e extorsão”.

Uma infinidade de riscos

Há um risco crescente também de identidades roubadas ou recriadas pertencentes a pessoas comuns serem usadas para fraudar as vítimas personificadas ou para realizar atividades maliciosas sob suas identidades. 

Em muitos grupos de discussão, a Trend Micro encontrou usuários discutindo ativamente maneiras de usar deepfakes para contornar controles bancários e outros controles de verificação de contas - especialmente aqueles envolvendo métodos de verificação de vídeo e cara a cara.

Por exemplo, os criminosos podem usar a identidade de uma vítima e usar um vídeo deepfake dela para abrir contas bancárias, que posteriormente podem ser usadas para atividades de lavagem de dinheiro. Eles também podem sequestrar contas, se passar por executivos de alto nível em organizações para iniciar transferências fraudulentas de dinheiro ou plantar evidências falsas para extorquir indivíduos, disse a Trend Micro. 

Dispositivos como o Alexa da Amazon e o iPhone, que usam reconhecimento de voz ou rosto, podem em breve estar na lista de dispositivos alvo para ataques baseados em deepfake, observou o fornecedor de segurança.

“Como muitas empresas ainda trabalham em modo remoto ou misto, há um risco maior de personificação de pessoal em teleconferências que podem afetar as comunicações de negócios internas e externas e processos de negócios sensíveis e fluxos financeiros”, diz Kropotov.

A Trend Micro não está sozinha em soar o alarme sobre deepfakes. Uma pesquisa online recente que a VMware realizou com 125 profissionais de segurança cibernética e resposta a incidentes também descobriu que as ameaças habilitadas para deepfake não estão apenas chegando - eles já estão aqui. Surpreendentes 66% – um aumento de 13% em relação a 2021 – dos entrevistados disseram que sofreram um incidente de segurança envolvendo o uso de deepfake nos últimos 12 meses.

“Exemplos de ataques de deepfake [já] testemunhados incluem chamadas de voz do CEO para um CFO levando a uma transferência bancária, bem como chamadas de funcionários para a TI para iniciar uma redefinição de senha”, diz Rick McElroy, principal estrategista de segurança cibernética da VMware.

Poucas mitigações para ataques de deepfake e a detecção é difícil

De um modo geral, esses tipos de ataques podem ser eficazes, porque ainda não há soluções tecnológicas disponíveis para enfrentar o desafio, diz McElroy. 

“Dado o crescente uso e sofisticação na criação de deepfakes, vejo isso como uma das maiores ameaças para as organizações de uma perspectiva de fraude e fraude no futuro”, alerta ele. 

A maneira mais eficaz de mitigar a ameaça atualmente é aumentar a conscientização sobre o problema entre as equipes de finanças, executivos e de TI que são os principais alvos desses ataques de engenharia social. 

“As organizações podem considerar métodos de baixa tecnologia para quebrar o ciclo. Isso pode incluir o uso de um desafio e uma senha entre os executivos ao transferir dinheiro de uma organização ou ter um processo de aprovação verificado em duas etapas”, diz ele.

Gil Dabah, cofundador e CEO da Piaano, também recomenda o controle rígido de acesso como medida mitigadora. Nenhum usuário deve ter acesso a grandes quantidades de dados pessoais e as organizações precisam definir limites de taxa, bem como detecção de anomalias, diz ele.

“Mesmo sistemas como business intelligence, que exigem análise de big data, devem acessar apenas dados mascarados”, observa Dabah, acrescentando que nenhum dado pessoal sensível deve ser mantido em texto simples e dados como PII devem ser tokenizados e protegidos.

Enquanto isso, na frente de detecção, desenvolvimentos em tecnologias como Redes Adversariais Generativas (GANs) tornaram a detecção de deepfake mais difícil. “Isso significa que não podemos confiar em conteúdo contendo pistas de 'artefato' de que houve alteração”, diz Lou Steinberg, cofundador e sócio-gerente da CTM Insights.

Para detectar conteúdo manipulado, as organizações precisam de impressões digitais ou assinaturas que comprovem que algo não mudou, acrescenta.

“Melhor ainda é tirar micro-impressões digitais em partes do conteúdo e ser capaz de identificar o que mudou e o que não mudou”, diz ele. “Isso é muito valioso quando uma imagem foi editada, mas ainda mais quando alguém está tentando ocultar uma imagem da detecção.”

Três categorias amplas de ameaças

Steinberg diz que as ameaças de deepfake se enquadram em três grandes categorias. A primeira são as campanhas de desinformação envolvendo principalmente edições de conteúdo legítimo para alterar o significado. Como exemplo, Steinberg aponta para atores do estado-nação usando imagens e vídeos de notícias falsas nas mídias sociais ou inserindo alguém em uma foto que não estava presente originalmente – algo que geralmente é usado para coisas como endossos implícitos de produtos ou pornografia de vingança.

Outra categoria envolve mudanças sutis em imagens, logotipos e outros conteúdos para contornar ferramentas de detecção automatizadas, como aquelas usadas para detectar logotipos de produtos falsificados, imagens usadas em campanhas de phishing ou até mesmo ferramentas para detectar pornografia infantil.

A terceira categoria envolve deepfakes sintéticos ou compostos que são derivados de uma coleção de originais para criar algo completamente novo, diz Steinberg. 

“Começamos a ver isso com áudio há alguns anos, usando fala sintetizada por computador para derrotar impressões de voz em call centers de serviços financeiros”, diz ele. “O vídeo agora está sendo usado para coisas como uma versão moderna do comprometimento de e-mail comercial ou para prejudicar a reputação de alguém 'dizer' algo que nunca disse.”

Carimbo de hora:

Mais de Leitura escura