Quebre a falsificação: Começou a corrida para acabar com a fraude de clonagem de voz

Quebre a falsificação: Começou a corrida para acabar com a fraude de clonagem de voz

Golpes

À medida que a clonagem de voz alimentada por IA turbina os golpes impostores, conversamos com Jake Moore da ESET para discutir como desligar chamadas fraudulentas de 'hi-fi' - e o que o futuro reserva para a detecção de deepfake

Quebre a falsificação: começou a corrida para impedir os golpes de clonagem de voz de IA

Você cairia em uma ligação falsa do seu CEO pedindo para você transferir dinheiro? Como nosso colega Jake Moore descobriu, você pode. À medida que computadores com ciclos de computação sobressalentes recebem cada vez mais dados de treinamento, os deepfakes ficam cada vez melhores. Alimente-os com um longo discurso de CEO e eles ganharão inflexão, tom e outros padrões de fala diferenciados que podem eventualmente torná-los bastante convincentes.

Agora, pelo menos nos EUA, há uma concurso para quebrar a falsificaçãoe, esperançosamente, encontrar maneiras de fornecer aos sistemas defensivos maneiras de impedir um ataque relacionado. O desafio lançado pela Comissão Federal de Comércio (FTC) fez com que os concorrentes hackeassem juntos qualquer tecnologia que conseguissem encontrar para impedir falsificações de voz e ganhar um prêmio de US$ 25,000 mil.

Os concursos têm sido usados ​​para tudo, desde designs de trajes espaciais até veículos autônomos e tecnologias solares, e agora visam aumentar o interesse e os participantes na arena de defesa deepfake, aspirando a criar uma corrida para proteger os consumidores contra os danos da clonagem de voz habilitada por IA. Depois de se inscrever no portal, suas ideias podem competir com outras abordagens para trazer o ouro para casa.

Ainda me pergunto se isso pode impedir alguém como Jake, então perguntei a ele.

jake-moore-tiro na cabeça

P: As empresas conseguirão defender-se contra esta ameaça utilizando tecnologias atuais e amplamente disponíveis (e, em caso afirmativo, quais)?

Jake: Infelizmente, não creio que a resposta ainda esteja nas tecnologias de contramedidas para combater esse problema em evolução. Ainda estamos na fase inicial desta nova era da IA ​​e muitas empresas estão aderindo à ideia dos usos bons, ruins e feios e de suas capacidades. A tecnologia está continuamente a ser desenvolvida para ajudar os necessitados, mas, como em qualquer fase inicial de uma nova tecnologia, o ritmo rápido de tal movimento não consegue acompanhar a mudança nas exigências ilícitas na sua utilização para enganar pessoas e empresas.

P: As mesmas perguntas para indivíduos, pense em golpes de aposentados, golpes românticos e assim por diante?

Jake: A IA permitiu que os golpistas realizassem suas ações em escalas muito maiores do que antes, o que significa que o jogo dos números ficou ainda maior. Quando mais pessoas são visadas, as recompensas obtidas são muito maiores e sem nenhum esforço extra real por parte dos fraudadores.

No entanto, os indivíduos precisam continuar a ser mais informados sobre todos os golpes – desde as fraudes clássicas até as tendências atuais. Em particular, com o nascimento da clonagem de voz e da falsificação profunda de imagens com impressionante precisão, as pessoas precisam parar de pensar que ver (e ouvir) é acreditar. Permanecer consciente de que tais fraudes são possíveis proporcionará confiança aos visados ​​para questionar tais comunicações com mais escrutínio e ensiná-los-á a não ter medo de questionar as suas ações.

Há muitas orientações na Internet que oferecem conselhos de conscientização sobre esses golpes e as pessoas precisam se atualizar continuamente com as informações mais recentes para se tornarem e permanecerem protegidas.

Q: O que as equipes institucionais antifraude podem fazer para atenuar os ataques aos seus usuários/clientes e quem deve pagar se as pessoas forem enganadas?

Jake: Por padrão, as equipes antifraude devem oferecer treinamento a qualquer custo, que precisa ser anual e também ad hoc para todos os membros de uma organização. Os ataques de simulação e os jogos de guerra também ajudam a transmitir a mensagem de uma forma interessante e a transformar um problema sério numa dinâmica mais interessante, permitindo o fracasso num ambiente seguro.

Depois que as pessoas tiverem experimentado a noção de um ataque moderno e testemunhado em primeira mão a escala desta nova tecnologia, será mais provável que se lembrem do conselho no momento de um ataque real. A IA ainda é muito impressionante, portanto, ver deepfakes em ação em um ambiente seguro dá a oportunidade de mostrar os resultados potencialmente perigosos que eles também podem criar, sem criar muito fator de medo.

P: Este é claramente um jogo de gato e rato, então quem vencerá?

Jake: Desde o início, tem havido uma perseguição entre “policiais e ladrões”, onde os ladrões geralmente estão alguns passos à frente. No entanto, à medida que a tecnologia melhora, devemos garantir que não ficaremos para trás e dar uma vantagem ainda maior aos golpistas.

É vital que as pessoas estejam equipadas com as ferramentas e conhecimentos adequados para melhor combater estes ataques inevitáveis, para que os fraudadores nem sempre ganhem. Ao manterem-se atualizados com os mais recentes vetores de ataque e fraudes em evolução, indivíduos e empresas têm a melhor chance de se defenderem contra esta nova onda de ataques tecnológicos.

Uma coisa é certa: esta não é mais uma ameaça teórica. Esperemos que 2024 e além seja o momento em que os golpistas encontrarão novas maneiras automatizadas de lançar ataques habilitados por voz muito rapidamente, especialmente em resposta a eventos cataclísmicos em que algum funcionário confiável “pede” que você faça algo. Tudo parecerá convincente, completo com um ar de urgência e com o que parece ser uma autenticação auditiva multifatorial, mas você ainda pode ser enganado, mesmo que “ouviu pessoalmente de um funcionário”.

Obrigado pelo seu tempo, Jake.

Carimbo de hora:

Mais de Nós Vivemos Segurança