Forumi ChatGPT Jailbreaking se množijo v temnih spletnih skupnostih

Forumi ChatGPT Jailbreaking se množijo v temnih spletnih skupnostih

Orožje generativnih orodij umetne inteligence, kot je ChatGPT vsi so čakali je počasi, počasi začne dobivati ​​obliko. V spletnih skupnostih radovedne mačke sodelujejo pri novih načinih vdora v etična pravila ChatGPT, splošno znanih kot »beg iz zapora«, hekerji pa razvijajo mrežo novih orodij za izkoriščanje ali ustvarjanje velikih jezikovnih modelov (LLM) za zlonamerne namene.

Zdi se, da je ChatGPT tako kot nad zemljo povzročil norijo v podzemnih forumih. Vse od decembra so hekerji na lovu za novim in iznajdljivim pozove za manipulacijo ChatGPTin odprtokodne LLM-je, ki jih lahko spremenijo v zlonamerne namene

Kot piše v novem blogu SlashNext, je rezultat še vedno nastajajoča, a cvetoča hekerska skupnost LLM, ki ima veliko pametnih pozivov, vendar nekaj zlonamernih programov, ki podpirajo AI, o katerih je vredno razmisliti.

Kaj hekerji počnejo z AI LLM

Hiter inženiring vključuje pametno zastavljanje vprašanj chatbotom, kot je ChatGPT, katerih cilj je manipulirati z njimi, zaradi česar kršijo svoja programirana pravila proti, recimo, ustvarjanju zlonamerne programske opreme, ne da bi modeli tega vedeli. To je vaja s surovo silo, pojasnjuje Patrick Harr, izvršni direktor SlashNext: »Hekerji se samo ozirajo po zaščitnih ograjah. Kakšni so robovi? Samo nenehno spreminjam pozive, prosim ga na različne načine, da naredi, kar hočem.«

Ker je to tako dolgočasno opravilo in ker vsi napadajo isto tarčo, je povsem naravno, da so se okoli te prakse oblikovale zdrave spletne skupnosti za izmenjavo nasvetov in trikov. Člani teh skupnosti za pobeg iz zapora se praskajo po hrbtu in drug drugemu pomagajo, da ChatGPT vdre in počne stvari, ki so jih razvijalci nameravali preprečiti.

posnetek zaslona spletne klepetalnice, narejen za pozive
Vir: SlashNext

Hitri inženirji lahko dosežejo toliko le z domišljijsko besedno igro, če je zadevni chatbot zgrajen tako odporen, kot je ChatGPT. Zato je bolj zaskrbljujoč trend, da razvijalci zlonamerne programske opreme začenjajo programirati LLM-je za svoje lastne, zlobne cilje.

Grozeča grožnja WormGPT in zlonamernih LLM

Ponudba imenovana WormGPT pojavil julija, da bi sprožil zlonamerni pojav LLM. Je črna alternativa modelom GPT, posebej zasnovana za zlonamerne dejavnosti, kot so BEC, zlonamerna programska oprema in napadi z lažnim predstavljanjem, ki se tržijo na podzemnih forumih, »kot je ChatGPT, vendar [brez] etičnih meja ali omejitev«. Ustvarjalec WormGPT je trdil, da ga je zgradil na prilagojenem jezikovnem modelu, usposobljenem za različne vire podatkov, s poudarkom na podatkih v zvezi s kibernetskimi napadi.

»Za hekerje to pomeni,« pojasnjuje Harr, »da lahko zdaj sprejmem, recimo, ogrožanje poslovne e-pošte (BEC) ali napad z lažnim predstavljanjem ali napad z zlonamerno programsko opremo, in to v velikem obsegu z zelo minimalnimi stroški. In lahko bi bil veliko bolj tarčen kot prej.«

Od WormGPT je bilo v sumljivih spletnih skupnostih razpredeno o številnih podobnih izdelkih, vključno s FraudGPT, ki ga oglaševalec kot »bot brez omejitev, pravil [in] meja« oglašuje akter grožnje, ki trdi, da je preverjen prodajalec na različnih podzemnih tržnicah Dark Web, vključno z Empire, WHM, Torrez, World, AlphaBay in Versus. In avgust je prinesel pojav Klepetalni roboti DarkBART in DarkBERT kibernetski kriminalci, ki temelji na Googlu Bard, za katerega so takratni raziskovalci dejali, da predstavlja velik korak naprej za kontradiktorno umetno inteligenco, vključno z integracijo Google Lens za slike in takojšnjim dostopom do celotne baze znanja kibernetskega podzemlja.

Glede na SlashNext se ti zdaj množijo, pri čemer večina gradi na odprtokodnih modelih, kot je OpenAI OpenGPT. Množica nižje usposobljenih hekerjev ga preprosto prilagodi, prikrije v ovoj, nato pa mu prilepi nejasno zlovešče ime »___GPT« (npr. »BadGPT«, »DarkGPT«). Tudi te napačne ponudbe imajo svoje mesto v skupnosti, saj ponujajo nekaj omejitev in popolno anonimnost za uporabnike.

Obramba pred kibernetskim orožjem z umetno inteligenco naslednje generacije

Niti WormGPT, niti njegovi potomci, niti hitri inženirji še ne predstavljajo tako velike nevarnosti za podjetja, pravi SlashNext. Kljub temu vzpon podzemnih trgov za vdor iz zapora pomeni, da je kiberkriminalcem na voljo več orodij, kar posledično napoveduje velik premik v družbenem inženiringu in načinih obrambe pred njim. 

Harr svetuje: "Ne zanašajte se na usposabljanje, ker so ti napadi zelo, zelo specifični in zelo ciljno usmerjeni, veliko bolj kot so bili v preteklosti."

Namesto tega se strinja s splošno sprejetim stališčem, da grožnje z umetno inteligenco zahtevajo zaščito z umetno inteligenco. »Če nimate orodij umetne inteligence, ki zaznavajo, predvidevajo in blokirajo te grožnje, boste od zunaj opazovali,« pravi.

Časovni žig:

Več od Temno branje