A ChatGPT Jailbreaking fórumai elterjednek a sötét webes közösségekben

A ChatGPT Jailbreaking fórumai elterjednek a sötét webes közösségekben

Az olyan generatív mesterséges intelligencia eszközök fegyveresítése, mint a ChatGPT már mindenki várt lassan, lassan kezd formát ölteni. Az online közösségekben a kíváncsi macskák új módszereket dolgoznak ki a ChatGPT etikai szabályainak feltörésére, amelyeket „jailbreaknek” is neveznek, a hackerek pedig új eszközök hálózatát fejlesztik ki, hogy kihasználják vagy létrehozzák a nagy nyelvi modelleket (LLM) rosszindulatú célokra.

Csakúgy, mint a föld felett, úgy tűnik, a ChatGPT is őrületet inspirált a földalatti fórumokon. December óta a hackerek új és találékonyság után kutatnak felszólítja a ChatGPT manipulálásáraés nyílt forráskódú LLM-ek, amelyeket rosszindulatú célokra újra felhasználhatnak

Az eredmény a SlashNext új blogja szerint egy még csak formálódó, de virágzó LLM-hacker közösség, sok okos felszólítás birtokában, de néhány mesterséges intelligencia-kompatibilis rosszindulatú program, amelyet érdemes meggondolni.

Mit csinálnak a hackerek az AI LLM-ekkel?

Gyors tervezés Ez magában foglalja a chatbotokhoz, például a ChatGPT-hez hasonló kérdéseket feltenni, hogy manipulálják őket, és ráveszik őket, hogy megszegjék a programozott szabályaikat, mondjuk a rosszindulatú programok létrehozása ellen, anélkül, hogy a modellek tudnának róla. Ez a nyers erő gyakorlata – magyarázza Patrick Harr, a SlashNext vezérigazgatója: „A hackerek csak körülnéznek a korlátokon. Mik a szélei? Csak folyamatosan változtatom a felszólításokat, különféle módokon kérem meg, hogy azt tegyem, amit akarok.”

Mivel ez nagyon fárasztó feladat, és mivel mindenki ugyanazt a célpontot támadja, teljesen természetes, hogy egészséges méretű online közösségek alakultak a tippek és trükkök megosztása körül. Ezeknek a jailbreak-közösségeknek a tagjai egymás hátát vakarják, segítve egymást, hogy a ChatGPT feltörje, és olyan dolgokat tegyen, amelyeket a fejlesztők meg akartak akadályozni.

képernyőkép egy online csevegőcsoportról, amely felszólításra készült
Forrás: SlashNext

A gyors mérnökök azonban csak akkor érhetnek el ennyit a divatos szójátékkal, ha a kérdéses chatbot ugyanolyan rugalmasan épül fel, mint a ChatGPT. Tehát az aggasztóbb tendencia az, hogy a rosszindulatú programok fejlesztői saját, aljas céljaikra kezdik beprogramozni az LLM-eket.

A WormGPT és a rosszindulatú LLM-ek fenyegetése

Felajánlás hívott WormGPT júliusban jelent meg, hogy elindítsa a rosszindulatú LLM-jelenséget. Ez egy fekete kalap alternatívája a kifejezetten rosszindulatú tevékenységekre, például BEC-re, rosszindulatú programokra és adathalász támadásokra tervezett GPT-modellek számára, amelyeket földalatti fórumokon forgalmaznak, „mint például a ChatGPT, de etikai határok és korlátozások nélkül”. A WormGPT megalkotója azt állította, hogy egy egyedi nyelvi modellre építette, különféle adatforrásokra oktatott, és a hangsúlyt a kibertámadásokkal kapcsolatos adatokra helyezte.

„Mit jelent ez a hackerek számára – magyarázza Harr –, hogy most már vállalhatok, mondjuk, egy üzleti e-mail-kompromisszumot (BEC), egy adathalász támadást vagy rosszindulatú programtámadást, és ezt nagy léptékben, nagyon minimális költséggel. És sokkal célzottabb lehetnék, mint korábban.”

A WormGPT óta számos hasonló termékkel keresgélnek az árnyas online közösségekben, beleértve a FraudGPT-t, amelyet „korlátozások, szabályok [és] határok nélküli robotként” hirdet egy fenyegetés szereplő, aki azt állítja magáról, hogy ellenőrzött eladó a különböző földalatti Dark Web piactereken, köztük az Empire, a WHM, a Torrez, a World, az AlphaBay és a Versus. És augusztusban megjelent a DarkBART és DarkBERT kiberbûnözõ chatbotok, amely a Google Bard-on alapul, amely a kutatók abban az időben azt mondták, hogy jelentős előrelépést jelent az ellenséges mesterséges intelligencia terén, beleértve a Google Lens képintegrációt és a teljes kiber-underground tudásbázishoz való azonnali hozzáférést.

A SlashNext szerint ezek egyre szaporodnak, és többségük olyan nyílt forráskódú modellekre épül, mint az OpenAI OpenGPT. Egy csomó alacsonyabban képzett hacker egyszerűen testreszabja, burkolólapba álcázza, majd egy homályosan baljós „___GPT” nevet ad rá (pl. „BadGPT”, „DarkGPT”). Még ezeknek az ersatz-ajánlatoknak is megvan a helye a közösségben, kevés korlátozást és teljes névtelenséget kínálva a felhasználók számára.

Védekezés a következő generációs mesterséges intelligencia kiberfegyverei ellen

A SlashNext szerint sem a WormGPT, sem annak utódai, sem a gyorsmérnökök nem jelentenek még ekkora veszélyt a vállalkozásokra. Ennek ellenére a földalatti jailbreaking piacok térnyerése azt jelenti, hogy egyre több eszköz válik elérhetővé a kiberbűnözők számára, ami viszont a társadalmi tervezésben és az ellene való védekezésben való széles körű elmozdulást jelez előre. 

Harr azt tanácsolja: "Ne hagyatkozzon az edzésre, mert ezek a támadások nagyon-nagyon specifikusak és nagyon célzottak, sokkal inkább, mint a múltban."

Ehelyett egyetért azzal az általánosan elfogadott nézettel, hogy az AI-fenyegetések mesterséges intelligencia védelmet igényelnek. „Ha nem rendelkezik olyan mesterséges intelligencia-eszközzel, amely észleli, előrejelzi és blokkolja ezeket a fenyegetéseket, akkor kívülről fog nézni” – mondja.

Időbélyeg:

Még több Sötét olvasmány