ChatGPT-jailbreakforums nemen steeds meer toe in darkweb-gemeenschappen

ChatGPT-jailbreakforums nemen steeds meer toe in darkweb-gemeenschappen

De bewapening van generatieve AI-tools zoals ChatGPT waar iedereen op heeft gewacht gaat langzaam, langzaam begint vorm aan te nemen. In online communities werken nieuwsgierige katten samen aan nieuwe manieren om de ethische regels van ChatGPT te kraken, algemeen bekend als 'jailbreaking', en hackers ontwikkelen een netwerk van nieuwe tools om grote taalmodellen (LLM's) voor kwaadaardige doeleinden te gebruiken of te creëren.

Net zoals het bovengronds heeft gedaan, lijkt ChatGPT een razernij te hebben veroorzaakt in ondergrondse forums. Sinds december zijn hackers op zoek naar nieuwe en inventieve oplossingen vraagt ​​om ChatGPT te manipuleren en open-source LLM's die ze kunnen hergebruiken voor kwaadaardige doeleinden

Het resultaat is, volgens een nieuwe blog van SlashNext, een nog opkomende maar bloeiende LLM-hackgemeenschap, die in het bezit is van veel slimme aanwijzingen, maar Er zijn maar weinig door AI ondersteunde malwares die een tweede gedachte waard zijn.

Wat hackers doen met AI LLM's

Snelle techniek omvat het slim stellen van chatbots zoals ChatGPT-vragen met als doel ze te manipuleren, waardoor ze hun geprogrammeerde regels overtreden tegen bijvoorbeeld het maken van malware, zonder dat de modellen het weten. Dit is een oefening van brute kracht, legt Patrick Harr, CEO van SlashNext uit: “Hackers proberen alleen maar om de vangrails heen te kijken. Wat zijn de randen? Ik verander gewoon voortdurend de aanwijzingen en vraag hem op verschillende manieren om te doen wat ik wil.

Omdat het zo'n vervelende taak is en omdat iedereen hetzelfde doelwit aanvalt, is het niet meer dan normaal dat er rond de praktijk een gezonde online community is ontstaan ​​die tips en trucs deelt. Leden van deze jailbreakgemeenschappen krabben elkaar in de rug en helpen elkaar om ChatGPT te laten kraken en dingen te doen die de ontwikkelaars wilden voorkomen.

een screenshot van een online chatgroep gemaakt voor prompts
Bron: SlashNext

Snelle ingenieurs kunnen echter alleen zoveel bereiken met mooie woordspelingen als de chatbot in kwestie net zo veerkrachtig is gebouwd als ChatGPT. De zorgwekkendere trend is dus dat malware-ontwikkelaars LLM’s beginnen te programmeren voor hun eigen, snode doeleinden.

De dreigende dreiging van WormGPT en kwaadaardige LLM's

Een offer genaamd WormGPT verscheen in juli om het kwaadaardige LLM-fenomeen op gang te brengen. Het is een black-hat-alternatief voor GPT-modellen die specifiek zijn ontworpen voor kwaadaardige activiteiten zoals BEC, malware en phishing-aanvallen, die op de markt worden gebracht op ondergrondse forums “zoals ChatGPT, maar [zonder] ethische grenzen of beperkingen.” De maker van WormGPT beweerde het te hebben gebouwd op een aangepast taalmodel, getraind op verschillende gegevensbronnen, met de nadruk op gegevens met betrekking tot cyberaanvallen.

“Wat het voor hackers betekent”, legt Harr uit, “is dat ik nu bijvoorbeeld een zakelijke e-mailcompromis (BEC), een phishing- of malware-aanval kan aanpakken en dit op grote schaal kan doen tegen zeer minimale kosten. En ik kon veel doelgerichter zijn dan voorheen.”

Sinds WormGPT wordt er in duistere onlinegemeenschappen over een aantal soortgelijke producten gediscussieerd, inclusief FraudGPT, die wordt geadverteerd als een ‘bot zonder beperkingen, regels, [en] grenzen’ door een bedreigingsacteur die beweert een geverifieerde leverancier te zijn op verschillende ondergrondse Dark Web-marktplaatsen, waaronder Empire, WHM, Torrez, World, AlphaBay en Versus. En augustus bracht de verschijning van de DarkBART en DarkBERT cybercriminele chatbots, gebaseerd op Google Bard, waarvan onderzoekers destijds zeiden dat het een grote sprong voorwaarts betekent voor vijandige AI, inclusief Google Lens-integratie voor afbeeldingen en directe toegang tot de hele cyber-ondergrondse kennisbank.

Volgens SlashNext zijn deze nu in opkomst, waarbij de meerderheid ervan voortbouwt op open source-modellen zoals OpenAI's OpenGPT. Een hele reeks lager opgeleide hackers passen het eenvoudigweg aan, vermommen het in een verpakking en plakken er vervolgens een vaag onheilspellende “___GPT”-naam op (bijvoorbeeld “BadGPT”, “DarkGPT”). Zelfs deze ersatz-aanbiedingen hebben echter hun plaats in de gemeenschap en bieden gebruikers weinig beperkingen en totale anonimiteit.

Verdedigen tegen AI-cyberwapens van de volgende generatie

Noch WormGPT, noch zijn nakomelingen, noch snelle ingenieurs, vormen volgens SlashNext nog zo'n groot gevaar voor bedrijven. Toch betekent de opkomst van ondergrondse jailbreak-markten dat er meer tools beschikbaar komen voor cybercriminelen, wat op zijn beurt een brede verschuiving in social engineering voorspelt, en hoe we ons daartegen verdedigen. 

Harr adviseert: “Vertrouw niet op training, want deze aanvallen zijn heel, heel specifiek en heel doelgericht, veel meer dan in het verleden.”

In plaats daarvan onderschrijft hij de algemeen aanvaarde opvatting dat AI-bedreigingen AI-bescherming vereisen. “Als je niet over AI-tools beschikt die deze bedreigingen detecteren, voorspellen en blokkeren, sta je van buitenaf naar binnen te kijken”, zegt hij.

Tijdstempel:

Meer van Donkere lezing