Cybercrooks käskee ChatGPT:tä luoda haitallista koodia

Cybercrooks käskee ChatGPT:tä luoda haitallista koodia

Cybercrooks are telling ChatGPT to create malicious code PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Kyberrikolliset alkavat käyttää OpenAI:n hurjan suosittua ChatGPT-tekniikkaa kehittääkseen koodia nopeasti ja helposti haitallisiin tarkoituksiin.

Kierros maanalaisten hakkerointisivustojen ympärillä paljasti ensimmäisiä tapauksia, joissa väärintekijät kehittivät kyberuhkatyökaluja suuren kielimallin (LLM) käyttöliittymän avulla, jonka yritys paljasti marraskuun lopulla ja avasi sen julkiseen käyttöön, infosec-asun Check Point Researchin mukaan.

Mukava [apu] käsi viimeistelemään käsikirjoituksen mukavalla laajuudella

Samanlainen kuin nousu as-a-palvelun mallit Kyberrikollisuuden maailmassa ChatGPT avaa uuden väylän vähemmän taitaville roistoille tehdäkseen helposti kyberhyökkäyksiä, tutkijat sanoivat raportti Perjantaina.

"Kuten epäilimme, osa tapauksista osoitti selvästi, että monilla OpenAI:ta käyttävillä kyberrikollisilla ei ole lainkaan kehitystaitoja", he kirjoittivat. "Vaikka tässä raportissa esittelemämme työkalut ovat melko yksinkertaisia, on vain ajan kysymys, milloin kehittyneemmät uhkatoimijat parantavat tapaa, jolla he käyttävät tekoälypohjaisia ​​työkaluja pahaan."

Älä unohda, että ChatGPT on myös pahamaineinen bugisen koodin luomisesta – Stack Overflow on kiellettyjä ohjelmistoja tekoälyjärjestelmän luoma, koska se on usein vakavasti viallinen. Mutta tekniikka paranee ja viime kuussa Suomen hallituksen raportti varoitti Tekoälyjärjestelmiä käytetään jo sosiaaliseen suunnitteluun, ja viiden vuoden kuluttua hyökkäysten määrä voi kasvaa valtavasti.

ChatGPT:n koneoppiminen kyvyt mahdollistaa tekstipohjaisen työkalun vuorovaikutuksen keskustelun muodossa, jolloin käyttäjät kirjoittavat kysymyksen ja saavat vastauksen dialogimuodossa. Tekniikka voi myös vastata jatkokysymyksiin ja haastaa käyttäjien vastaukset.

OpenAI:n tarjonnan hienostuneisuus on tuottanut yhtä paljon huoli innostuneena oppilaitokset, konferenssien järjestäjät ja muut ryhmät ovat siirtymässä kieltämään ChatGPT:n käytön kaikessa koulupapereista tutkimustyöhön.

Analyytikot joulukuussa osoittivat kuinka ChatGPT:tä voidaan käyttää koko infektiovirran luomiseen tietojenkalasteluviesteistä käänteisen kuoren suorittamiseen. He käyttivät chatbotia myös luodakseen takaoven haittaohjelmia, jotka voivat suorittaa dynaamisesti tekoälytyökalun luomia skriptejä. Samalla he osoittivat, kuinka se voi auttaa kyberturvallisuuden ammattilaisia ​​heidän työssään.

Nyt kyberrikolliset testaavat sitä.

Säike nimeltä "ChatGPT – Benefits of Malware" ilmestyi 29. joulukuuta laajalti käytetylle maanalaiselle hakkerointifoorumille, jonka kirjoitti henkilö, joka sanoi kokeilleensa käyttöliittymää yleisten haittaohjelmakantojen ja -tekniikoiden luomiseksi. Kirjoittaja näytti Python-pohjaisen tietovarastajan koodin, joka etsii ja kopioi tiedostotyyppejä ja lataa ne kovakoodatulle FTP-palvelimelle.

Check Point vahvisti, että koodi oli peräisin tavallisesta varastaja-haittaohjelmasta.

Toisessa näytteessä kirjoittaja käytti ChatGPT:tä luodakseen yksinkertaisen Java-koodinpätkän, joka lataa yhteisen SSH- ja telnet-asiakkaan, jota ajetaan salaa PowerShellia käyttävässä järjestelmässä.

"Tämä henkilö näyttää olevan teknologialähtöinen uhkatekijä, ja hänen viestiensä tarkoitus on näyttää teknisesti vähemmän osaaville kyberrikollisille, kuinka ChatGPT:tä käytetään haitallisiin tarkoituksiin, todellisilla esimerkeillä, joita he voivat heti käyttää", tutkijat kirjoittivat.

21. joulukuuta itseään USDoD:ksi kutsuva henkilö julkaisi Pythonilla kirjoitetun salaustyökalun, joka sisältää erilaisia ​​salaus-, salauksenpurku- ja allekirjoitustoimintoja. Hän kirjoitti, että OpenAI:n tekniikka antoi hänelle "mukavan auttavan käden käsikirjoituksen viimeistelemiseen mukavalla laajuudella".

Tutkijat kirjoittivat, että USDoD:llä on rajalliset kehitystaidot, mutta se on aktiivinen maanalaisessa yhteisössä, ja hän on myynyt pääsyä vaarantuneisiin organisaatioihin ja varastettuihin tietokantoihin.

Toinen uudenvuodenaattona foorumilla julkaistu keskusteluketju puhui siitä, kuinka helppoa ChatGPT:n avulla on luoda pimeä verkkokauppapaikka, jolla käydään kauppaa laittomilla työkaluilla, kuten haittaohjelmilla tai huumeilla, ja varastetuilla tiedoilla, kuten tileillä ja maksukorteilla.

Säikeen kirjoittaja julkaisi osan ChatGPT:llä luodusta koodista, joka käyttää kolmannen osapuolen API-liittymiä saadakseen ajantasaiset hinnat sellaisille kryptovaluutoille kuin Bitcoin, Monero ja Ethereum markkinapaikan maksujärjestelmään.

Tällä viikolla pahantekijät puhuivat maanalaisilla foorumeilla muista tavoista hyödyntää ChatGPT:tä erilaisissa järjestelmissä, mukaan lukien sen käyttäminen OpenAI:n Dall-E 2 -teknologian kanssa taiteen luomiseen verkossa myytäväksi laillisten sivustojen, kuten Etsyn kautta, ja e-kirjan tai lyhyen luvun luominen tietystä aiheesta. joita voi myydä netissä.

Saadakseen lisätietoja siitä, kuinka ChatGPT:tä voidaan käyttää väärin, tutkijat kysyivät ChatGPT:ltä. Vastauksessaan ChatGPT puhui tekoälytekniikan käyttämisestä luomaan vakuuttavia phishing-sähköpostiviestejä ja sosiaalisen median viestejä, joilla huijataan ihmisiä luovuttamaan henkilökohtaisia ​​tietoja tai napsauttamaan haitallisia linkkejä tai luomaan videoita ja ääniä, joita voitaisiin käyttää väärään tietoon.

ChatGPT puolusti myös luojaansa.

"On tärkeää huomata, että OpenAI ei itse ole vastuussa kolmansien osapuolten teknologian väärinkäytöstä", chatbot sanoi. "Yritys ryhtyy toimiin estääkseen sen teknologian käytön haitallisiin tarkoituksiin, kuten vaatimalla käyttäjiä hyväksymään käyttöehdot, jotka kieltävät sen teknologian käytön laittomiin tai haitallisiin tarkoituksiin." ®

Aikaleima:

Lisää aiheesta Rekisteri