Форумы по взлому ChatGPT множатся в сообществах даркнета

Форумы по взлому ChatGPT множатся в сообществах даркнета

Использование инструментов генеративного ИИ, таких как ChatGPT, в качестве оружия. все ждали медленно, медленно начинает обретать форму. В онлайн-сообществах любопытные коты совместно разрабатывают новые способы взлома этических правил ChatGPT, широко известные как «взлом джейлбрейка», а хакеры разрабатывают сеть новых инструментов для использования или создания больших языковых моделей (LLM) для злонамеренных целей.

Как и на земле, ChatGPT, похоже, вызвал ажиотаж на подпольных форумах. С декабря хакеры охотятся за новыми и изобретательными предлагает манипулировать ChatGPTи LLM с открытым исходным кодом, которые они могут использовать в злонамеренных целях

Результатом, согласно новому блогу SlashNext, является все еще зарождающееся, но процветающее хакерское сообщество LLM, обладающее множеством умных подсказок, но несколько вредоносных программ с поддержкой искусственного интеллекта, о которых стоит задуматься.

Что хакеры делают с искусственным интеллектом LLM

Быстрый инжиниринг включает в себя умное задание чат-ботам, таким как ChatGPT, вопросы, направленные на манипулирование ими, заставляя их нарушать свои запрограммированные правила, скажем, против создания вредоносного ПО, без ведома моделей. Это проявление грубой силы, объясняет Патрик Харр, генеральный директор SlashNext: «Хакеры просто пытаются обойти ограждения. Какие края? Я просто постоянно меняю подсказки, по-разному прошу его сделать то, что я хочу».

Поскольку это такая утомительная задача и поскольку все атакуют одну и ту же цель, вполне естественно, что вокруг этой практики сформировались крупные онлайн-сообщества, которые делятся советами и рекомендациями. Члены этих сообществ джейлбрейков чешут друг другу спины, помогая друг другу взломать ChatGPT и делать то, что разработчики намеревались предотвратить.

снимок экрана группы онлайн-чата, созданный для подсказок
Источник: SlashNext

Однако быстрые инженеры могут добиться многого с помощью причудливой игры слов только в том случае, если рассматриваемый чат-бот построен так же устойчиво, как ChatGPT. Итак, более тревожная тенденция заключается в том, что разработчики вредоносных программ начинают программировать LLM для своих гнусных целей.

Надвигающаяся угроза WormGPT и вредоносных программ LLM

Предложение под названием ЧервьGPT появился в июле, чтобы положить начало злонамеренному феномену LLM. Это черная альтернатива моделям GPT, специально разработанная для вредоносных действий, таких как BEC, вредоносное ПО и фишинговые атаки, продаваемая на подпольных форумах, «как ChatGPT, но [без] никаких этических границ или ограничений». Создатель WormGPT утверждал, что построил его на основе собственной языковой модели, обученной на различных источниках данных, с упором на данные, связанные с кибератаками.

«Для хакеров это означает, — объясняет Харр, — что теперь я могу взять, скажем, взлом корпоративной электронной почты (BEC), фишинговую атаку или атаку вредоносного ПО и сделать это в большом масштабе с минимальными затратами. И я мог бы быть гораздо более целенаправленным, чем раньше».

Начиная с WormGPT, в сомнительных интернет-сообществах обсуждалось множество подобных продуктов. включая мошенничествоGPT, который рекламируется как «бот без ограничений, правил и границ» злоумышленником, который утверждает, что является проверенным поставщиком на различных подпольных торговых площадках даркнета, включая Empire, WHM, Torrez, World, AlphaBay и Versus. И август принес появление Чат-боты киберпреступников DarkBART и DarkBERT, основанный на Google Bard, который, как тогда говорили исследователи, представляет собой большой шаг вперед в области состязательного искусственного интеллекта, включая интеграцию Google Lens для изображений и мгновенный доступ ко всей базе знаний киберподполья.

По данным SlashNext, сейчас их становится все больше, причем большинство из них основаны на моделях с открытым исходным кодом, таких как OpenGPT от OpenAI. Множество низкоквалифицированных хакеров просто настраивают его, маскируют в обертке, а затем наклеивают на него смутно зловещее имя «___GPT» (например, «BadGPT», «DarkGPT»). Однако даже эти эрзац-предложения имеют свое место в сообществе, предлагая пользователям мало ограничений и полную анонимность.

Защита от кибероружия нового поколения с искусственным интеллектом

По данным SlashNext, ни WormGPT, ни его детище, ни быстрые инженеры пока не представляют столь существенной опасности для бизнеса. Несмотря на это, рост подпольных рынков джейлбрейка означает, что киберпреступникам становится доступно больше инструментов, что, в свою очередь, предвещает широкий сдвиг в социальной инженерии и в том, как мы защищаемся от нее. 

Харр советует: «Не полагайтесь на обучение, потому что эти атаки очень, очень конкретные и очень целенаправленные, гораздо более целенаправленные, чем в прошлом».

Вместо этого он присоединяется к общепринятому мнению, что угрозы ИИ требуют защиты ИИ. «Если у вас нет инструментов искусственного интеллекта, позволяющих обнаруживать, прогнозировать и блокировать эти угрозы, вам придется наблюдать за ними со стороны», — говорит он.

Отметка времени:

Больше от Темное чтение