Fora ChatGPT dotyczące Jailbreakingu rozprzestrzeniają się w społecznościach Dark Web

Fora ChatGPT dotyczące Jailbreakingu rozprzestrzeniają się w społecznościach Dark Web

Uzbrojenie generatywnych narzędzi AI, takich jak ChatGPT wszyscy czekali jest powoli, powoli zaczyna nabierać formy. W społecznościach internetowych zaciekawione koty współpracują nad nowymi sposobami łamania zasad etyki ChatGPT, powszechnie znanymi jako „łamanie więzienia”, a hakerzy opracowują sieć nowych narzędzi do wykorzystywania lub tworzenia dużych modeli językowych (LLM) do szkodliwych celów.

Wydaje się, że ChatGPT, podobnie jak nad ziemią, wywołał szał na podziemnych forach. Od grudnia hakerzy polują na nowe i pomysłowe rozwiązania wyświetla monit o manipulację ChatGPT, narzędzia LLM typu open source, które mogą wykorzystać do złych celów

Rezultatem, według nowego bloga SlashNext, jest wciąż rodząca się, ale kwitnąca społeczność hakerska LLM, posiadająca wiele sprytnych podpowiedzi, ale kilka złośliwych programów wykorzystujących sztuczną inteligencję, nad którymi warto się zastanowić.

Co hakerzy robią z AI LLM

Szybka inżynieria polega na sprytnym zadawaniu chatbotom, takim jak ChatGPT, pytań mających na celu manipulowanie nimi i skłonienie ich do łamania zaprogramowanych zasad, na przykład przed tworzeniem złośliwego oprogramowania, bez wiedzy modeli. Jest to ćwiczenie brutalnej siły, wyjaśnia Patrick Harr, dyrektor generalny SlashNext: „Hakerzy próbują po prostu rozejrzeć się za barierkami. Jakie są krawędzie? Po prostu stale zmieniam podpowiedzi, zadaję pytania na różne sposoby, aby zrobić to, co chcę.

Ponieważ jest to tak żmudne zadanie i ponieważ wszyscy atakują ten sam cel, naturalne jest, że wokół tej praktyki utworzyły się duże społeczności internetowe, w których można dzielić się wskazówkami i trikami. Członkowie społeczności jailbreaków drapią się nawzajem po plecach, pomagając sobie nawzajem w tworzeniu ChatGPT do łamania i robienia rzeczy, przed którymi programiści zamierzali temu zapobiec.

zrzut ekranu grupy czatu online wykonany w celu wyświetlania monitów
Źródło: SlashNext

Jednak szybcy inżynierowie mogą osiągnąć tylko tyle dzięki fantazyjnej grze słów, jeśli dany chatbot jest zbudowany tak samo odpornie jak ChatGPT. Zatem bardziej niepokojącą tendencją jest to, że twórcy szkodliwego oprogramowania zaczynają programować LLM do własnych, nikczemnych celów.

Nadciągające zagrożenie ze strony robaka GPT i złośliwych LLM

Ofiara tzw RobakGPT pojawił się w lipcu, aby zapoczątkować szkodliwe zjawisko LLM. Jest to alternatywa dla modeli GPT zaprojektowana specjalnie pod kątem szkodliwych działań, takich jak BEC, złośliwe oprogramowanie i ataki phishingowe, sprzedawana na nielegalnych forach „takich jak ChatGPT, ale [bez] granic i ograniczeń etycznych”. Twórca WormGPT twierdził, że zbudował go w oparciu o niestandardowy model językowy, wyszkolony na różnych źródłach danych, z naciskiem na dane dotyczące cyberataków.

„Dla hakerów oznacza to” – wyjaśnia Harr – „może teraz przyjąć, powiedzmy, atak na firmową pocztę e-mail (BEC), atak typu phishing lub atak złośliwego oprogramowania i zrobić to na dużą skalę przy bardzo minimalnych kosztach. Mógłbym być znacznie bardziej ukierunkowany niż wcześniej”.

Od czasu WormGPT w podejrzanych społecznościach internetowych krążyło wiele podobnych produktów, w tym oszustwoGPT, który jest reklamowany jako „bot bez ograniczeń, zasad i granic” przez cyberprzestępcę podającego się za zweryfikowanego dostawcę na różnych podziemnych rynkach Dark Web, w tym Empire, WHM, Torrez, World, AlphaBay i Versus. A sierpień przyniósł pojawienie się Chatboty cyberprzestępcze DarkBART i DarkBERT, oparte na Google Bard, które według ówczesnych badaczy stanowiło poważny krok naprzód w zakresie kontradyktoryjnej sztucznej inteligencji, obejmującej integrację obrazów z Google Lens i natychmiastowy dostęp do całej bazy wiedzy cyberpodziemnej.

Według SlashNext rozprzestrzeniają się one obecnie, a większość z nich opiera się na modelach open source, takich jak OpenGPT OpenAI. Mnóstwo mniej wykwalifikowanych hakerów po prostu dostosowuje go, ukrywa w opakowaniu, a następnie umieszcza na nim nieco złowieszcza nazwę „___GPT” (np. „BadGPT”, „DarkGPT”). Jednak nawet te namiastki ofert mają swoje miejsce w społeczności, oferując użytkownikom niewiele ograniczeń i całkowitą anonimowość.

Obrona przed cyberbronią nowej generacji wykorzystującą sztuczną inteligencję

Według SlashNext ani robak GPT, ani jego potomek, ani szybcy inżynierowie nie stanowią jeszcze tak znaczącego zagrożenia dla firm. Mimo to rozwój podziemnych rynków jailbreakowania oznacza, że ​​cyberprzestępcom udostępnia się więcej narzędzi, co z kolei zwiastuje szerokie zmiany w inżynierii społecznej i sposobie, w jaki się przed nią bronimy. 

Harr radzi: „Nie polegaj na szkoleniu, ponieważ te ataki są bardzo, bardzo specyficzne i bardzo ukierunkowane, znacznie bardziej niż w przeszłości”.

Zamiast tego podziela ogólnie przyjęty pogląd, że zagrożenia związane ze sztuczną inteligencją wymagają ochrony opartej na sztucznej inteligencji. „Jeśli nie masz narzędzi sztucznej inteligencji do wykrywania, przewidywania i blokowania tych zagrożeń, będziesz patrzeć z zewnątrz” – mówi.

Znak czasu:

Więcej z Mroczne czytanie