Hakerzy sprzedali ponad 225,000 XNUMX kont ChatGPT w ciemnej sieci

Hakerzy sprzedali ponad 225,000 XNUMX kont ChatGPT w ciemnej sieci

Penka Christowska


Penka Christowska

Opublikowany: 7 marca 2024 r.

Według danych Group-IB w okresie od stycznia do października 25,000 r. w ciemnej sieci wystawiono na sprzedaż ponad 2023 XNUMX rekordów zawierających dane uwierzytelniające OpenAI ChatGPT.

W opublikowanym w zeszłym tygodniu raporcie „Hi-Tech Crime Trends 2023/2024” grupa wyjaśniła, że ​​„liczba zainfekowanych urządzeń nieznacznie spadła w połowie i późnym latem, ale znacznie wzrosła w okresie od sierpnia do września”.

Naruszone dane uwierzytelniające zostały wykryte w dziennikach powiązanych ze złośliwym oprogramowaniem kradnącym informacje, w szczególności LummaC2, Raccoon i RedLine. Z ustaleń Group-IB wynika, że ​​LummaC2 zainfekował 70,484 22,468 hostów, Raccoon 15,970 XNUMX hostów, a RedLine zaatakował XNUMX XNUMX hostów.

Od czerwca do października 2023 r. ponad 130,000 36 unikalnych hostów podłączonych do OpenAI ChatGPT zostało naruszonych, co oznacza wzrost o XNUMX% w porównaniu z liczbami odnotowanymi w pierwszych pięciu miesiącach roku.

„Gwałtowny wzrost liczby danych uwierzytelniających ChatGPT na sprzedaż wynika z ogólnego wzrostu liczby hostów zainfekowanych przez osoby kradnące informacje, z których dane są następnie wystawiane na sprzedaż na rynkach lub w UCL” – stwierdziła Group-IB.

Mówią, że źli aktorzy przenoszą swoją uwagę z komputerów korporacyjnych na publiczne systemy sztucznej inteligencji.

„Dzięki temu mają dostęp do logów zawierających historię komunikacji między pracownikami a systemami, które mogą wykorzystać do wyszukiwania poufnych informacji (w celach szpiegowskich), szczegółów dotyczących infrastruktury wewnętrznej, danych uwierzytelniających (w celu przeprowadzenia jeszcze bardziej szkodliwych ataków) oraz informacji o kod źródłowy aplikacji.”

Wiadomość ta nadeszła po raporcie Microsoftu, w którym firma podobnie podała, że ​​ugrupowania zagrażające „wykorzystują sztuczną inteligencję, w tym LLM, aby zwiększyć swoją produktywność i skorzystać z dostępnych platform, które mogłyby usprawnić ich cele i techniki ataków”.

Przyznano również, że „grupy cyberprzestępcze, ugrupowania zagrażające na szczeblu narodowym i inni przeciwnicy badają i testują różne technologie sztucznej inteligencji w miarę ich pojawiania się, próbując zrozumieć potencjalną wartość dla swoich działań oraz mechanizmów kontroli bezpieczeństwa, które być może będą musieli obejść”.

Firma podkreśliła jednak, że „badania przeprowadzone z OpenAI nie wykazały znaczących ataków z wykorzystaniem LLM, które ściśle monitorujemy”.

Znak czasu:

Więcej z Detektywi bezpieczeństwa