Форуми ChatGPT, які займаються джейлбрейком, поширюються в темних веб-спільнотах

Форуми ChatGPT, які займаються джейлбрейком, поширюються в темних веб-спільнотах

Озброєння генеративних інструментів ШІ, таких як ChatGPT всі чекали повільно, повільно починає набувати форми. В онлайн-спільнотах допитливі коти співпрацюють над новими способами зламу етичних правил ChatGPT, широко відомих як «джейлбрейк», а хакери розробляють мережу нових інструментів для використання або створення великих мовних моделей (LLM) для зловмисних цілей.

Так само, як і над землею, ChatGPT, схоже, викликав шаленство на підпільних форумах. З грудня хакери шукають щось нове та винахідливе пропонує маніпулювати ChatGPT та LLM з відкритим кодом, які вони можуть перепрофілювати для зловмисних цілей

Відповідно до нового блогу від SlashNext, результатом є все ще зароджується, але процвітаюча хакерська спільнота LLM, яка володіє багатьма розумними підказками, але кілька шкідливих програм із підтримкою штучного інтелекту, про які варто подумати.

Що хакери роблять із AI LLM

Швидка інженерія передбачає вмілу постановку запитань чат-ботам, таким як ChatGPT, щоб маніпулювати ними, змусити їх порушувати запрограмовані правила, скажімо, проти створення зловмисного програмного забезпечення, без відома моделей. Патрік Харр, генеральний директор SlashNext, пояснює, що це вправа грубої сили: «Хакери просто намагаються оглянути поручні. Які краї? Я просто постійно змінюю підказки, прошу по-різному робити те, що я хочу».

Оскільки це таке виснажливе завдання, і оскільки всі атакують одну ціль, цілком природно, що навколо цієї практики сформувалися здорові онлайн-спільноти для обміну порадами та підказками. Члени цих джейлбрейк-спільнот чухають один одного, допомагаючи один одному змусити ChatGPT зламати та робити те, що розробники мали намір запобігти цьому.

знімок екрана групи онлайн-чату, створеної для підказок
Джерело: SlashNext

Проте інженери швидкої обробки можуть досягти стільки лише завдяки химерній грі слів, якщо чат-бот, про який йдеться, побудований так само стійко, як ChatGPT. Отже, більш тривожна тенденція полягає в тому, що розробники зловмисного програмного забезпечення починають програмувати LLM для власних, мерзенних цілей.

Нависаюча загроза WormGPT і шкідливих LLM

Пропозиція називається WormGPT з’явився в липні, щоб розпочати зловмисне явище LLM. Це універсальна альтернатива моделям GPT, спеціально розроблена для зловмисних дій, таких як BEC, зловмисне програмне забезпечення та фішингові атаки, які продаються на підпільних форумах, «як ChatGPT, але без етичних кордонів чи обмежень». Творець WormGPT стверджував, що побудував його на користувацькій мовній моделі, навчаючись на різних джерелах даних, з акцентом на дані, пов’язані з кібератаками.

«Що це означає для хакерів, — пояснює Харр, — що тепер я можу прийняти, скажімо, компрометацію бізнес-електронної пошти (BEC), або фішинг-атаку, або атаку зловмисного програмного забезпечення, і зробити це в масштабі з мінімальними витратами. І я міг би бути набагато більш цілеспрямованим, ніж раніше».

Починаючи з WormGPT, у тіньових онлайн-спільнотах було обговорено ряд подібних продуктів, включаючи FraudGPT, який рекламується як «бот без обмежень, правил [та] кордонів» учасником загрози, який стверджує, що є перевіреним постачальником на різних підпільних ринках Dark Web, зокрема Empire, WHM, Torrez, World, AlphaBay та Versus. А серпень приніс появу в Чат-боти для кіберзлочинців DarkBART і DarkBERT, заснований на Google Bard, який, за словами дослідників того часу, представляє великий крок вперед для змагального штучного інтелекту, включаючи інтеграцію Google Lens для зображень і миттєвий доступ до всієї бази знань кіберпідпілля.

За даними SlashNext, зараз їх поширюється, і більшість із них побудовані на моделях з відкритим кодом, таких як OpenGPT від OpenAI. Кілька хакерів нижчої кваліфікації просто налаштовують його, маскують в обгортці, а потім написують на нього невиразно зловісну назву «___GPT» (наприклад, «BadGPT», «DarkGPT»). Навіть ці ерзац-пропозиції мають своє місце в спільноті, проте пропонують невеликі обмеження та повну анонімність для користувачів.

Захист від кіберзброї ШІ нового покоління

За словами SlashNext, ані WormGPT, ані його дітище, ані оперативні інженери ще не становлять такої значної небезпеки для бізнесу. Незважаючи на це, зростання підпільних ринків джейлбрейку означає, що кіберзлочинцям стає доступніше більше інструментів, що, у свою чергу, віщує широкі зміни в соціальній інженерії та способах захисту від неї. 

Гарр радить: «Не покладайтеся на навчання, тому що ці атаки дуже, дуже специфічні та дуже цілеспрямовані, набагато більше, ніж це було в минулому».

Натомість він приєднується до загальновизнаної точки зору, що загрози штучного інтелекту потребують захисту штучного інтелекту. «Якщо у вас немає інструментів штучного інтелекту, які виявляють, прогнозують і блокують ці загрози, ви будете шукати ззовні», — каже він.

Часова мітка:

Більше від Темне читання