Les pirates vendent plus de 225,000 XNUMX comptes ChatGPT sur le Dark Web

Les pirates vendent plus de 225,000 XNUMX comptes ChatGPT sur le Dark Web

Penka Christovska


Penka Christovska

Publié le: 7 mars 2024

Plus de 25,000 2023 enregistrements d’informations d’identification OpenAI ChatGPT compromises ont été mis en vente sur le dark web entre janvier et octobre XNUMX, selon les chiffres du Group-IB.

Le groupe a expliqué dans son rapport « Hi-Tech Crime Trends 2023/2024 », publié la semaine dernière, que « le nombre d’appareils infectés a légèrement diminué au milieu et à la fin de l’été, mais a augmenté de manière significative entre août et septembre ».

Les informations d'identification compromises ont été détectées dans les journaux liés à des logiciels malveillants voleurs d'informations, en particulier les voleurs LummaC2, Raccoon et RedLine. Les résultats de Group-IB montrent que LummaC2 a compromis 70,484 22,468 hôtes, Raccoon a affecté 15,970 XNUMX hôtes et RedLine a ciblé XNUMX XNUMX hôtes.

De juin à octobre 2023, plus de 130,000 36 hôtes uniques connectés à OpenAI ChatGPT ont été compromis, ce qui représente une augmentation de XNUMX % par rapport aux chiffres enregistrés au cours des cinq premiers mois de l'année.

"La forte augmentation du nombre d'identifiants ChatGPT à vendre est due à l'augmentation globale du nombre d'hôtes infectés par des voleurs d'informations, dont les données sont ensuite mises en vente sur les marchés ou dans les UCL", a déclaré Group-IB.

Ils disent que les mauvais acteurs détournent leur attention des ordinateurs d’entreprise vers les systèmes publics d’IA.

« Cela leur donne accès à des journaux contenant l'historique des communications entre les employés et les systèmes, qu'ils peuvent utiliser pour rechercher des informations confidentielles (à des fins d'espionnage), des détails sur l'infrastructure interne, des données d'authentification (pour mener des attaques encore plus dommageables) et des informations sur code source de l'application.

Cette nouvelle fait suite à un rapport de Microsoft dans lequel la société rapportait de la même manière que les acteurs de la menace « se tournent vers l’IA, y compris les LLM, pour améliorer leur productivité et tirer parti des plates-formes accessibles qui pourraient faire progresser leurs objectifs et leurs techniques d’attaque ».

Il reconnaît également que « les groupes de cybercriminalité, les acteurs de la menace étatique et d’autres adversaires explorent et testent différentes technologies d’IA à mesure qu’elles émergent, dans le but de comprendre la valeur potentielle de leurs opérations et les contrôles de sécurité qu’ils pourraient devoir contourner ».

La société a toutefois souligné que ses « recherches avec OpenAI n’ont pas identifié d’attaques significatives employant les LLM que nous surveillons de près ».

Horodatage:

Plus de Détectives de sécurité