Hakkerit myyvät yli 225,000 XNUMX ChatGPT-tiliä pimeässä verkossa

Hakkerit myyvät yli 225,000 XNUMX ChatGPT-tiliä pimeässä verkossa

Penka Hristovska


Penka Hristovska

Julkaistu: Maaliskuussa 7, 2024

Yli 25,000 2023 tietuetta vaarantuneista OpenAI ChatGPT -tunnistetiedoista tuli myyntiin pimeässä verkossa tammikuun ja lokakuun XNUMX välisenä aikana Group-IB:n lukujen mukaan.

Ryhmä selitti viime viikolla julkaistussa Hi-Tech Crime Trends 2023/2024 -raportissaan, että "tartunnan saaneiden laitteiden määrä väheni hieman kesän puolivälissä ja loppupuolella, mutta kasvoi merkittävästi elo-syyskuun välillä."

Vaaralliset tunnistetiedot havaittiin lokeista, jotka oli linkitetty tietoja varastaviin haittaohjelmiin, erityisesti LummaC2:een, Raccooniin ja RedLine stealeriin. Group-IB:n havainnot osoittavat, että LummaC2 vaaransi 70,484 22,468 isäntää, Raccoon vaikutti 15,970 XNUMX isäntään ja RedLine kohdistui XNUMX XNUMX isäntään.

Kesäkuusta lokakuuhun 2023 yli 130,000 36 ainutlaatuista OpenAI ChatGPT:hen yhdistettyä isäntä vaarantui, mikä merkitsee XNUMX % nousua vuoden viiden ensimmäisen kuukauden lukuihin verrattuna.

"Myytävien ChatGPT-tunnistetietojen jyrkkä kasvu johtuu tietovarastajien tartunnan saaneiden isäntien määrän yleisestä kasvusta, joiden tiedot sitten myydään markkinoilla tai UCL:issä", Group-IB sanoi.

He sanovat, että huonot toimijat keskittävät huomionsa uudelleen yritysten tietokoneista julkisiin tekoälyjärjestelmiin.

"Tämä antaa heille pääsyn lokeihin, jotka sisältävät työntekijöiden ja järjestelmien välisen viestintähistorian, josta he voivat etsiä luottamuksellisia tietoja (vakoilutarkoituksiin), yksityiskohtia sisäisestä infrastruktuurista, todennustietoja (jotta voivat tehdä vieläkin haitallisempia hyökkäyksiä) ja tietoja sovelluksen lähdekoodi."

Uutiset ovat peräisin Microsoftin raportista, jossa yhtiö raportoi samalla tavalla, että uhkatoimijat "tarkastelevat tekoälyä, mukaan lukien LLM:itä, parantaakseen tuottavuuttaan ja hyödyntääkseen saavutettavia alustoja, jotka voivat edistää heidän tavoitteitaan ja hyökkäystekniikoitaan".

Se myönsi myös, että "verkkorikollisryhmät, kansallisvaltioiden uhkatoimijat ja muut vastustajat tutkivat ja testaavat erilaisia ​​tekoälytekniikoita niiden ilmaantuessa yrittääkseen ymmärtää toiminnalleen mahdollisen arvon ja turvavalvonnan, jota heidän on ehkä kierrettävä."

Yhtiö kuitenkin korosti, että sen "OpenAI:n kanssa tekemä tutkimus ei ole tunnistanut merkittäviä hyökkäyksiä, jotka olisivat käyttäneet tarkasti seuraamiamme LLM:itä".

Aikaleima:

Lisää aiheesta Turvaletket