ChatGPT Jailbreaking -foorumit yleistyvät pimeässä verkkoyhteisössä

ChatGPT Jailbreaking -foorumit yleistyvät pimeässä verkkoyhteisössä

Generatiivisten AI-työkalujen, kuten ChatGPT:n, aseistaminen kaikki ovat odottaneet on hitaasti, hitaasti alkaa hahmottua. Verkkoyhteisöissä uteliaat kissat tekevät yhteistyötä löytääkseen uusia tapoja murtaa ChatGPT:n eettisiä sääntöjä, jotka tunnetaan yleisesti nimellä "jailbreaking", ja hakkerit kehittävät uusien työkalujen verkostoa hyödyntääkseen tai luodakseen suuria kielimalleja (LLM) haitallisiin tarkoituksiin.

Aivan kuten se on maan päällä, ChatGPT näyttää inspiroineen vimmaa maanalaisilla foorumeilla. Joulukuusta lähtien hakkerit ovat etsineet uutta ja kekseliästä kehottaa käsittelemään ChatGPT:täja avoimen lähdekoodin LLM:t, joita he voivat käyttää haitallisiin tarkoituksiin

SlashNextin uuden blogin mukaan tuloksena on vielä syntymässä oleva, mutta kukoistava LLM-hakkerointiyhteisö, jolla on paljon älykkäitä kehotteita, mutta harvoja tekoälyä tukevia haittaohjelmia kannattaa harkita.

Mitä hakkerit tekevät tekoälyn LLM:ien kanssa

Nopea suunnittelu ChatGPT:n kaltaisille chatboteille kysytään taitavasti kysymyksiä, joiden tarkoituksena on manipuloida niitä ja saada ne rikkomaan ohjelmoituja sääntöjään esimerkiksi haittaohjelmien luomista vastaan ​​mallien tietämättä. Tämä on raakaa voimaa, selittää SlashNextin toimitusjohtaja Patrick Harr: "Hakkerit yrittävät vain katsella ympärilleen suojakaiteita. Mitkä ovat reunat? Muutan jatkuvasti kehotteita, pyydän sitä eri tavoilla tekemään mitä haluan."

Koska se on niin työläs tehtävä ja koska kaikki hyökkäävät samaa kohdetta vastaan, on luonnollista, että terveen kokoisia verkkoyhteisöjä on muodostunut käytännön ympärille jakaa vinkkejä ja temppuja. Näiden jailbreak-yhteisöjen jäsenet raapuvat toistensa selkään ja auttavat toisiaan saamaan ChatGPT:n murtamaan ja tekemään asioita, joita kehittäjät aikoivat estää sitä tekemästä.

kuvakaappaus online-chat-ryhmästä, joka on tehty kehotteita varten
Lähde: SlashNext

Nopeat insinöörit voivat saavuttaa vain niin paljon hienolla sanaleikillä, jos kyseinen chatbot on rakennettu yhtä joustavasti kuin ChatGPT. Joten huolestuttavampi suuntaus on, että haittaohjelmien kehittäjät alkavat ohjelmoida LLM:itä omiin, ilkeisiin tarkoituksiinsa.

WormGPT:n ja haitallisten LLM-yritysten uhkaava uhka

Soittotarjous WormGPT ilmestyi heinäkuussa käynnistääkseen haitallisen LLM-ilmiön. Se on mustahattu vaihtoehto GPT-malleille, jotka on suunniteltu erityisesti haitallisiin toimintoihin, kuten BEC:iin, haittaohjelmiin ja tietojenkalasteluhyökkäyksiin. Sitä markkinoidaan maanalaisilla foorumeilla, "kuten ChatGPT:llä, mutta [ilman] eettisiä rajoja tai rajoituksia". WormGPT:n luoja väitti rakentaneensa sen mukautetun kielimallin pohjalta, joka on koulutettu useisiin tietolähteisiin painottaen kyberhyökkäyksiä koskevaa dataa.

"Mitä se tarkoittaa hakkereille", Harr selittää, "että voin nyt ottaa vastaan ​​esimerkiksi yrityssähköpostin kompromissin (BEC), tietojenkalasteluhyökkäyksen tai haittaohjelmahyökkäyksen, ja tehdä tämän erittäin pienin kustannuksin. Ja voisin olla paljon kohdistetumpi kuin ennen.”

WormGPT:n jälkeen useita samankaltaisia ​​tuotteita on ryöstetty hämärissä verkkoyhteisöissä, mukaan lukien FraudGPT, jota uhkatoimija mainostaa "bottina ilman rajoituksia, sääntöjä ja rajoja", joka väittää olevansa vahvistettu myyjä useilla maanalaisilla Dark Web -markkinapaikoilla, mukaan lukien Empire, WHM, Torrez, World, AlphaBay ja Versus. Ja elokuu toi ilmestymisen DarkBART- ja DarkBERT-verkkorikolliset chatbotit, joka perustuu Google Bardiin, jonka tutkijat sanoivat tuolloin edustavan suurta harppausta kilpailevassa tekoälyssä, mukaan lukien Google Lens -integraatio kuville ja välitön pääsy koko kyber-maanalaiseen tietokantaan.

SlashNextin mukaan nämä ovat lisääntymässä nyt, ja suurin osa niistä perustuu avoimen lähdekoodin malleihin, kuten OpenAI: n OpenGPT. Joukko vähemmän koulutettuja hakkereita yksinkertaisesti muokkaa sitä, naamioi sen kääreeseen ja lisää sitten siihen epämääräisen pahaenteisen "___GPT"-nimen (esim. "BadGPT", "DarkGPT"). Jopa näillä ersatz-tarjouksilla on paikkansa yhteisössä, mutta ne tarjoavat käyttäjille muutamia rajoituksia ja täydellisen anonymiteetin.

Puolustaminen seuraavan sukupolven AI-kyberaseita vastaan

SlashNextin mukaan WormGPT, sen jälkeläiset tai nopeat insinöörit eivät vielä muodosta niin merkittävää vaaraa yrityksille. Silti maanalaisten jailbreaking markkinoiden nousu tarkoittaa, että kyberrikollisten käyttöön tulee lisää työkaluja, mikä puolestaan ​​​​ennustaa laajaa muutosta sosiaalisessa suunnittelussa ja siinä, miten puolustaudumme sitä vastaan. 

Harr neuvoo: "Älä luota koulutukseen, koska nämä hyökkäykset ovat hyvin, hyvin erityisiä ja hyvin kohdennettuja, paljon enemmän kuin aikaisemmin."

Sen sijaan hän yhtyy yleisesti hyväksyttyyn näkemykseen, jonka mukaan tekoälyuhat vaativat tekoälysuojauksia. "Jos sinulla ei ole tekoälytyökaluja näiden uhkien havaitsemiseen, ennustamiseen ja estämiseen, katsot ulospäin", hän sanoo.

Aikaleima:

Lisää aiheesta Pimeää luettavaa