Forumurile de jailbreaking ChatGPT proliferează în comunitățile Dark Web

Forumurile de jailbreaking ChatGPT proliferează în comunitățile Dark Web

Armonizarea instrumentelor AI generative precum ChatGPT asta toată lumea a așteptat este încet, încet începe să prindă formă. În comunitățile online, pisicile curioase colaborează la noi modalități de a sparge regulile etice ale ChatGPT, cunoscute în mod obișnuit ca „jailbreaking”, iar hackerii dezvoltă o rețea de noi instrumente pentru a folosi sau a crea modele de limbaj mari (LLM) pentru scopuri rău intenționate.

Așa cum a făcut-o deasupra solului, ChatGPT pare să fi inspirat o frenezie pe forumurile subterane. Încă din decembrie, hackerii sunt în căutare de noi și inventivi solicită manipularea ChatGPT, și LLM-uri cu sursă deschisă pe care le pot reutiliza pentru scopuri rău intenționate

Rezultatul, potrivit unui nou blog de la SlashNext, este o comunitate de hacking LLM încă în curs de dezvoltare, dar înfloritoare, care deține o mulțime de sugestii inteligente, dar câteva programe malware activate de AI care merită să ne gândim.

Ce fac hackerii cu AI LLM

Inginerie promptă implică adresarea inteligentă a chatbot-urilor precum ChatGPT, care vizează manipularea acestora, făcându-i să-și încalce regulile programate împotriva, de exemplu, creării de malware, fără ca modelele să știe acest lucru. Acesta este un exercițiu de forță brută, explică Patrick Harr, CEO al SlashNext: „Hackerii încearcă doar să se uite în jurul balustradelor. Care sunt marginile? Schimb continuu solicitările, îi cer în diferite moduri să fac ceea ce vreau.”

Pentru că este o sarcină atât de obositoare și pentru că toată lumea atacă aceeași țintă, este firesc ca comunități online de dimensiuni sănătoase s-au format în jurul practicii pentru a împărtăși sfaturi și trucuri. Membrii acestor comunități de jailbreak se zgârie unii pe alții, ajutându-se reciproc să facă ChatGPT să spargă și să facă lucruri pe care dezvoltatorii intenționau să-l împiedice să facă.

o captură de ecran a unui grup de chat online făcută pentru solicitări
Sursa: SlashNext

Cu toate acestea, inginerii prompti pot realiza atât de multe cu jocuri de cuvinte fanteziste, dacă chatbot-ul în cauză este construit la fel de rezistent ca ChatGPT. Deci, tendința mai îngrijorătoare este că dezvoltatorii de programe malware încep să programeze LLM-uri pentru propriile lor scopuri nefaste.

Amenințarea viitoare a WormGPT și a LLM-urilor rău intenționate

O ofertă numită WormGPT a apărut în iulie pentru a declanșa fenomenul malițios LLM. Este o alternativă neagră la modelele GPT concepute special pentru activități rău intenționate precum BEC, malware și atacuri de phishing, comercializate pe forumuri subterane „cum ar fi ChatGPT, dar [fără] limite etice sau limitări”. Creatorul WormGPT a susținut că l-a construit pe un model de limbaj personalizat, instruit pe diverse surse de date, cu accent pe datele referitoare la atacurile cibernetice.

„Ceea ce înseamnă pentru hackeri”, explică Harr, „este că acum pot accepta, să zicem, un compromis de e-mail de afaceri (BEC), sau un atac de phishing sau un atac de malware și să fac asta la scară, la un cost foarte minim. Și aș putea fi mult mai vizat decât înainte.”

De la WormGPT, o serie de produse similare au fost comercializate în comunitățile online umbrite, inclusiv FraudGPT, care este promovat ca un „bot fără limitări, reguli [și] granițe” de un actor de amenințare care pretinde a fi un furnizor verificat pe diferite piețe subterane Dark Web, inclusiv Empire, WHM, Torrez, World, AlphaBay și Versus. Iar august a adus aspectul Chatbot cibernetici DarkBART și DarkBERT, bazat pe Google Bard, despre care cercetătorii de la acea vreme au spus că reprezintă un salt major pentru IA adversă, inclusiv integrarea Google Lens pentru imagini și accesul instantaneu la întreaga bază de cunoștințe cibernetice subterane.

Potrivit SlashNext, acestea proliferează acum, majoritatea fiind bazate pe modele open source, cum ar fi OpenGPT de la OpenAI. O mulțime de hackeri mai puțin calificați îl personalizează pur și simplu, îl deghizează într-un înveliș, apoi îi pun un nume vag de rău augur „___GPT” (de exemplu, „BadGPT”, „DarkGPT”). Chiar și aceste oferte ersatz își au locul în comunitate, oferind puține limitări și anonimat total pentru utilizatori.

Apărarea împotriva armelor cibernetice AI de nouă generație

Nici WormGPT, nici descendenții săi, nici inginerii prompti nu prezintă încă un pericol atât de semnificativ pentru afaceri, potrivit SlashNext. Chiar și așa, creșterea piețelor subterane de jailbreaking înseamnă că mai multe instrumente devin disponibile infractorilor cibernetici, ceea ce, la rândul său, prefigurează o schimbare amplă în ingineria socială și în modul în care ne apărăm împotriva acesteia. 

Harr sfătuiește: „Nu vă bazați pe antrenament, pentru că aceste atacuri sunt foarte, foarte specifice și foarte țintite, mult mai mult decât au fost în trecut.”

În schimb, el subscrie la opinia general acceptată conform căreia amenințările AI necesită protecție AI. „Dacă nu aveți instrumente AI care să detecteze și să prezică și să blocheze aceste amenințări, veți fi în exterior, uitându-vă înăuntru”, spune el.

Timestamp-ul:

Mai mult de la Lectură întunecată