Hackers vendem mais de 225,000 contas ChatGPT na Dark Web

Hackers vendem mais de 225,000 contas ChatGPT na Dark Web

Penka Hristovska


Penka Hristovska

Publicado em: 7 de março de 2024

Mais de 25,000 registros de credenciais OpenAI ChatGPT comprometidas surgiram para venda na dark web entre janeiro e outubro de 2023, de acordo com números do Group-IB.

O grupo explicou no seu relatório “Tendências do crime de alta tecnologia 2023/2024”, divulgado na semana passada, que “o número de dispositivos infectados diminuiu ligeiramente em meados e no final do verão, mas cresceu significativamente entre agosto e setembro”.

As credenciais comprometidas foram detectadas em registros vinculados a malware de roubo de informações, especificamente LummaC2, Raccoon e RedLine stealer. As descobertas do Group-IB mostram que o LummaC2 comprometeu 70,484 hosts, o Raccoon afetou 22,468 hosts e o RedLine teve como alvo 15,970 hosts.

De junho a outubro de 2023, mais de 130,000 hosts únicos conectados ao OpenAI ChatGPT foram comprometidos, representando um aumento de 36% em relação aos números registrados nos primeiros cinco meses do ano.

“O aumento acentuado no número de credenciais ChatGPT à venda deve-se ao aumento geral no número de hosts infectados com ladrões de informações, cujos dados são então colocados à venda em mercados ou em UCLs”, disse o Group-IB.

Eles dizem que os maus atores estão redirecionando sua atenção dos computadores corporativos para os sistemas públicos de IA.

“Isso lhes dá acesso a logs com o histórico de comunicação entre funcionários e sistemas, que podem usar para buscar informações confidenciais (para fins de espionagem), detalhes sobre infraestrutura interna, dados de autenticação (para conduzir ataques ainda mais prejudiciais) e informações sobre código-fonte do aplicativo.”

A notícia surge na sequência de um relatório da Microsoft onde a empresa relatou de forma semelhante que os agentes de ameaças “estão a olhar para a IA, incluindo LLMs, para aumentar a sua produtividade e tirar partido de plataformas acessíveis que poderiam avançar os seus objectivos e técnicas de ataque”.

Também reconheceu que “grupos de crimes cibernéticos, actores de ameaças estatais e outros adversários estão a explorar e a testar diferentes tecnologias de IA à medida que surgem, numa tentativa de compreender o valor potencial para as suas operações e os controlos de segurança que poderão ter de contornar”.

A empresa, no entanto, destacou que a sua “pesquisa com OpenAI não identificou ataques significativos empregando os LLMs que monitoramos de perto”.

Carimbo de hora:

Mais de Detetives de Segurança