Хакеры продали более 225,000 XNUMX аккаунтов ChatGPT в даркнете

Хакеры продали более 225,000 XNUMX аккаунтов ChatGPT в даркнете

Пенка Христовска


Пенка Христовска

Опубликовано: 7 марта 2024

По данным Group-IB, в период с января по октябрь 25,000 года в даркнете было выставлено на продажу более 2023 XNUMX записей скомпрометированных учетных данных OpenAI ChatGPT.

В своем отчете «Тенденции преступности в сфере высоких технологий 2023/2024», опубликованном на прошлой неделе, группа объяснила, что «количество зараженных устройств немного снизилось в середине и конце лета, но значительно выросло в период с августа по сентябрь».

Скомпрометированные учетные данные были обнаружены в журналах, связанных с вредоносными программами, ворующими информацию, в частности LummaC2, Raccoon и RedLine Stealer. Результаты Group-IB показывают, что LummaC2 скомпрометировал 70,484 22,468 хоста, Raccoon затронул 15,970 XNUMX хостов, а RedLine атаковал XNUMX XNUMX хостов.

С июня по октябрь 2023 года было скомпрометировано более 130,000 36 уникальных хостов, подключенных к OpenAI ChatGPT, что на XNUMX% больше показателей, зафиксированных за первые пять месяцев года.

«Резкое увеличение количества выставленных на продажу учетных данных ChatGPT связано с общим ростом числа хостов, зараженных похитителями информации, данные с которых затем выставляются на продажу на рынках или в UCL», — заявили в Group-IB.

Они говорят, что злоумышленники переориентируют свое внимание с корпоративных компьютеров на общедоступные системы искусственного интеллекта.

«Это дает им доступ к журналам с историей общения между сотрудниками и системами, которые они могут использовать для поиска конфиденциальной информации (в целях шпионажа), подробностей о внутренней инфраструктуре, данных аутентификации (для проведения еще более разрушительных атак) и информации о исходный код приложения».

Эта новость последовала за отчетом Microsoft, в котором компания аналогичным образом сообщила, что злоумышленники «рассматривают ИИ, в том числе LLM, для повышения своей производительности и использования доступных платформ, которые могут способствовать достижению их целей и методов атак».

Он также признал, что «группы киберпреступников, субъекты угроз на уровне национальных государств и другие злоумышленники изучают и тестируют различные технологии искусственного интеллекта по мере их появления, пытаясь понять потенциальную ценность своих операций и меры безопасности, которые им, возможно, придется обойти».

Компания, однако, подчеркнула, что ее «исследования OpenAI не выявили серьезных атак с использованием LLM, которые мы внимательно отслеживаем».

Отметка времени:

Больше от Детективы безопасности