Hackare säljer mer än 225,000 XNUMX ChatGPT-konton på den mörka webben

Hackare säljer mer än 225,000 XNUMX ChatGPT-konton på den mörka webben

Penka Hristovska


Penka Hristovska

Publicerad på: Mars 7, 2024

Mer än 25,000 2023 register över komprometterade OpenAI ChatGPT-referenser dök upp till försäljning på den mörka webben mellan januari och oktober XNUMX, enligt siffror från Group-IB.

Gruppen förklarade i sin "Hi-Tech Crime Trends 2023/2024"-rapport, som släpptes förra veckan, att "antalet infekterade enheter minskade något i mitten och sensommaren men växte avsevärt mellan augusti och september."

De komprometterade referenserna upptäcktes i loggar kopplade till skadlig programvara som stjäl information, särskilt LummaC2, Raccoon och RedLine stealer. Group-IB:s resultat visar att LummaC2 äventyrade 70,484 22,468 värdar, Raccoon påverkade 15,970 XNUMX värdar och RedLine riktade in sig på XNUMX XNUMX värdar.

Från juni till oktober 2023 komprometterades över 130,000 36 unika värdar anslutna till OpenAI ChatGPT, vilket markerar en ökning med XNUMX % från siffrorna som registrerades under årets första fem månader.

"Den kraftiga ökningen av antalet ChatGPT-referenser för försäljning beror på den totala ökningen av antalet värdar som är infekterade med informationsstöldare, vars data sedan läggs ut till försäljning på marknader eller i UCLs," sa Group-IB.

De säger att dåliga skådespelare fokuserar om sin uppmärksamhet från företagsdatorer till offentliga AI-system.

"Detta ger dem tillgång till loggar med kommunikationshistoriken mellan anställda och system, som de kan använda för att söka efter konfidentiell information (för spioneri), detaljer om intern infrastruktur, autentiseringsdata (för att utföra ännu mer skadliga attacker) och information om applikationens källkod."

Nyheten kommer i hälarna på en rapport från Microsoft där företaget på liknande sätt rapporterade att hotaktörer "titta på AI, inklusive LLMs, för att förbättra sin produktivitet och dra fördel av tillgängliga plattformar som kan främja deras mål och attacktekniker."

Den erkände också att "cyberbrottsgrupper, hotaktörer från nationalstater och andra motståndare utforskar och testar olika AI-tekniker när de dyker upp, i ett försök att förstå potentiellt värde för deras verksamhet och de säkerhetskontroller de kan behöva kringgå."

Företaget betonade dock att dess "forskning med OpenAI inte har identifierat betydande attacker som använder de LLM:er som vi övervakar noggrant."

Tidsstämpel:

Mer från Säkerhetsdetektiver