Hackerii vând peste 225,000 de conturi ChatGPT pe Dark Web

Hackerii vând peste 225,000 de conturi ChatGPT pe Dark Web

Penka Hristovska


Penka Hristovska

Publicat în data de: Martie 7, 2024

Peste 25,000 de înregistrări de acreditări OpenAI ChatGPT compromise au apărut spre vânzare pe dark web între ianuarie și octombrie 2023, conform cifrelor de la Group-IB.

Grupul a explicat în raportul „Hi-Tech Crime Trends 2023/2024”, lansat săptămâna trecută, că „numărul de dispozitive infectate a scăzut ușor la mijlocul și sfârșitul verii, dar a crescut semnificativ între august și septembrie”.

Acreditările compromise au fost detectate în jurnalele legate de programe malware care fură informații, în special LummaC2, Raccoon și RedLine stealer. Descoperirile Group-IB arată că LummaC2 a compromis 70,484 de gazde, Raccoon a afectat 22,468 de gazde, iar RedLine a vizat 15,970 de gazde.

Din iunie până în octombrie 2023, peste 130,000 de gazde unice conectate la OpenAI ChatGPT au fost compromise, marcând o creștere de 36% față de cifrele înregistrate în primele cinci luni ale anului.

„Creșterea bruscă a numărului de acreditări ChatGPT de vânzare se datorează creșterii generale a numărului de gazde infectate cu furori de informații, date din care sunt apoi scoase la vânzare pe piețe sau în UCL”, a spus Group-IB.

Ei spun că actorii răi își reorientează atenția de la computerele corporative la sistemele AI publice.

„Acest lucru le oferă acces la jurnalele cu istoricul comunicațiilor dintre angajați și sisteme, pe care le pot folosi pentru a căuta informații confidențiale (în scopuri de spionaj), detalii despre infrastructura internă, date de autentificare (pentru a efectua atacuri și mai dăunătoare) și informații despre codul sursă al aplicației.”

Știrea vine în urma unui raport de la Microsoft în care compania a raportat în mod similar că actorii amenințărilor „se uită la AI, inclusiv LLM, pentru a-și îmbunătăți productivitatea și pentru a profita de platformele accesibile care le-ar putea avansa obiectivele și tehnicile de atac”.

De asemenea, a recunoscut că „grupurile de criminalitate cibernetică, actorii amenințărilor statului național și alți adversari explorează și testează diferite tehnologii AI pe măsură ce apar, în încercarea de a înțelege valoarea potențială a operațiunilor lor și controalele de securitate pe care ar putea trebui să le eludeze”.

Cu toate acestea, compania a subliniat că „cercetarea sa cu OpenAI nu a identificat atacuri semnificative care folosesc LLM-urile pe care le monitorizăm îndeaproape”.

Timestamp-ul:

Mai mult de la Detectivi de siguranță