Gli hacker vendono più di 225,000 account ChatGPT sul Dark Web

Gli hacker vendono più di 225,000 account ChatGPT sul Dark Web

Penka Hristovska


Penka Hristovska

Pubblicato il: 7 Marzo 2024

Secondo i numeri di Group-IB, più di 25,000 record di credenziali OpenAI ChatGPT compromesse sono emersi in vendita sul dark web tra gennaio e ottobre 2023.

Il gruppo ha spiegato nel suo rapporto “Hi-Tech Crime Trends 2023/2024”, pubblicato la scorsa settimana, che “il numero di dispositivi infetti è leggermente diminuito a metà e fine estate ma è cresciuto in modo significativo tra agosto e settembre”.

Le credenziali compromesse sono state rilevate nei log collegati a malware che rubano informazioni, in particolare LummaC2, Raccoon e RedLine Stealer. I risultati di Group-IB mostrano che LummaC2 ha compromesso 70,484 host, Raccoon ha colpito 22,468 host e RedLine ha preso di mira 15,970 host.

Da giugno a ottobre 2023 sono stati compromessi oltre 130,000 host unici collegati a OpenAI ChatGPT, segnando un aumento del 36% rispetto ai dati registrati nei primi cinque mesi dell'anno.

"Il forte aumento del numero di credenziali ChatGPT in vendita è dovuto all'aumento complessivo del numero di host infettati da ladri di informazioni, i cui dati vengono poi messi in vendita sui mercati o negli UCL", ha affermato Group-IB.

Dicono che i malintenzionati stanno riorientando la loro attenzione dai computer aziendali ai sistemi di intelligenza artificiale pubblici.

"Ciò dà loro accesso ai registri con la cronologia delle comunicazioni tra dipendenti e sistemi, che possono utilizzare per cercare informazioni riservate (per scopi di spionaggio), dettagli sull'infrastruttura interna, dati di autenticazione (per condurre attacchi ancora più dannosi) e informazioni su codice sorgente dell'applicazione."

La notizia arriva sulla scia di un rapporto di Microsoft in cui la società ha riferito in modo simile che gli autori delle minacce “stanno guardando all’intelligenza artificiale, compresi gli LLM, per migliorare la loro produttività e trarre vantaggio da piattaforme accessibili che potrebbero far avanzare i loro obiettivi e le tecniche di attacco”.

Ha inoltre riconosciuto che “i gruppi di criminalità informatica, gli autori di minacce a livello nazionale e altri avversari stanno esplorando e testando diverse tecnologie di intelligenza artificiale man mano che emergono, nel tentativo di comprendere il potenziale valore per le loro operazioni e i controlli di sicurezza che potrebbero aver bisogno di eludere”.

La società, tuttavia, ha sottolineato che la sua "ricerca con OpenAI non ha identificato attacchi significativi che impiegano gli LLM che monitoriamo da vicino".

Timestamp:

Di più da Detective della sicurezza