Хакери продають понад 225,000 XNUMX облікових записів ChatGPT у Dark Web

Хакери продають понад 225,000 XNUMX облікових записів ChatGPT у Dark Web

Пенка Христовська


Пенка Христовська

Опубліковано: Березня 7, 2024

Згідно з даними Group-IB, понад 25,000 2023 записів скомпрометованих облікових даних OpenAI ChatGPT з’явилися на продаж у темній мережі з січня по жовтень XNUMX року.

Група пояснила у своєму звіті «Тенденції злочинності у сфері високих технологій 2023/2024», опублікованому минулого тижня, що «кількість заражених пристроїв дещо зменшилася в середині та наприкінці літа, але значно зросла між серпнем і вереснем».

Зламані облікові дані були виявлені в журналах, пов’язаних зі зловмисним програмним забезпеченням для крадіжки інформації, зокрема LummaC2, Raccoon і RedLine stealer. Висновки Group-IB показують, що LummaC2 скомпрометував 70,484 22,468 хостів, Raccoon — 15,970 XNUMX хостів, а RedLine — XNUMX XNUMX хостів.

З червня по жовтень 2023 року було зламано понад 130,000 36 унікальних хостів, підключених до OpenAI ChatGPT, що на XNUMX% більше, ніж за перші п’ять місяців року.

«Різке збільшення кількості облікових даних ChatGPT для продажу пов’язане із загальним зростанням кількості хостів, заражених викрадачами інформації, дані з яких потім виставляються на продаж на ринках або в UCL», — заявили в Group-IB.

Кажуть, погані актори переорієнтовують свою увагу з корпоративних комп’ютерів на загальнодоступні системи ШІ.

«Це дає їм доступ до журналів з історією зв’язку між співробітниками та системами, які вони можуть використовувати для пошуку конфіденційної інформації (з метою шпигунства), деталей внутрішньої інфраструктури, даних автентифікації (для проведення ще більш згубних атак) і інформації про вихідний код програми».

Ця новина з’явилася після звіту Microsoft, у якому компанія так само повідомила, що суб’єкти загрози «дивляться на штучний інтелект, включаючи LLM, щоб підвищити свою продуктивність і скористатися перевагами доступних платформ, які можуть покращити їхні цілі та методи атак».

Він також визнав, що «групи кіберзлочинців, суб’єкти загроз національних держав та інші вороги досліджують і тестують різні технології штучного інтелекту в міру їх появи, намагаючись зрозуміти потенційну цінність для своїх операцій і засобів контролю безпеки, які їм, можливо, доведеться обійти».

Однак компанія підкреслила, що її «дослідження з OpenAI не виявили значних атак із використанням LLM, за якими ми уважно стежимо».

Часова мітка:

Більше від Детективи безпеки