Forum Jailbreaking ChatGPT Berkembang biak di Komunitas Web Gelap

Forum Jailbreaking ChatGPT Berkembang biak di Komunitas Web Gelap

Persenjataan alat AI generatif seperti ChatGPT itu semua orang telah menunggu perlahan, pelan-pelan mulai mengambil bentuk. Di komunitas online, kucing-kucing yang penasaran berkolaborasi dalam cara-cara baru untuk memecahkan aturan etika ChatGPT, yang umumnya dikenal sebagai โ€œjailbreaking,โ€ dan peretas sedang mengembangkan jaringan alat baru untuk memanfaatkan atau membuat model bahasa besar (LLM) untuk tujuan jahat.

Sama seperti yang terjadi di atas, ChatGPT tampaknya telah menginspirasi kehebohan di forum-forum bawah tanah. Sejak bulan Desember, para peretas terus mencari hal-hal baru dan inventif meminta untuk memanipulasi ChatGPT, dan LLM sumber terbuka yang dapat digunakan kembali untuk tujuan jahat

Hasilnya, menurut blog baru dari SlashNext, adalah komunitas peretasan LLM yang masih baru namun berkembang, yang memiliki banyak petunjuk cerdas namun beberapa malware berkemampuan AI patut untuk dipikirkan kembali.

Apa yang Dilakukan Peretas Dengan AI LLM

Rekayasa cepat melibatkan dengan cerdik mengajukan pertanyaan kepada chatbot seperti ChatGPT yang bertujuan untuk memanipulasi mereka, membuat mereka melanggar aturan terprogram terhadap, misalnya, pembuatan malware, tanpa disadari oleh model. Ini merupakan praktik kekerasan, jelas Patrick Harr, CEO SlashNext: โ€œPeretas hanya mencoba melihat sekeliling pagar pembatas. Apa tepinya? Saya terus-menerus mengubah perintahnya, memintanya dengan cara berbeda untuk melakukan apa yang saya inginkan.โ€

Karena ini adalah tugas yang sangat membosankan, dan karena semua orang memiliki sasaran yang sama, wajar saja jika komunitas daring yang sehat terbentuk seputar praktik ini untuk berbagi tips dan trik. Anggota komunitas jailbreak ini saling membantu, saling membantu membuat ChatGPT dapat memecahkan dan melakukan hal-hal yang ingin dicegah oleh pengembang.

tangkapan layar grup obrolan online yang dibuat untuk diminta
Sumber: SlashNext

Namun, teknisi yang cepat hanya dapat mencapai banyak hal dengan permainan kata yang canggih, jika chatbot tersebut dibuat sekuat ChatGPT. Jadi, tren yang lebih mengkhawatirkan adalah pengembang malware mulai memprogram LLM untuk tujuan jahat mereka sendiri.

Ancaman WormGPT & LLM Berbahaya yang Menjulang

Sebuah persembahan disebut CacingGPT muncul pada bulan Juli untuk memulai fenomena LLM yang berbahaya. Ini adalah alternatif topi hitam untuk model GPT yang dirancang khusus untuk aktivitas jahat seperti BEC, malware, dan serangan phishing, yang dipasarkan di forum bawah tanah โ€œseperti ChatGPT tetapi [tanpa] batasan atau batasan etis.โ€ Pencipta WormGPT mengaku telah membangunnya dengan model bahasa khusus, dilatih pada berbagai sumber data, dengan penekanan pada data yang berkaitan dengan serangan siber.

โ€œArtinya bagi para peretas,โ€ Harr menjelaskan, โ€œadalah saya sekarang dapat melakukan, misalnya, serangan email bisnis (BEC), atau serangan phishing, atau serangan malware, dan melakukannya dalam skala besar dengan biaya yang sangat minimal. Dan saya bisa menjadi lebih ditargetkan daripada sebelumnya.โ€

Sejak WormGPT, sejumlah produk serupa telah menjadi perbincangan di komunitas online yang teduh, termasuk PenipuanGPT, yang diiklankan sebagai โ€œbot tanpa batasan, aturan, [dan] batasanโ€ oleh pelaku ancaman yang mengklaim sebagai vendor terverifikasi di berbagai pasar Web Gelap bawah tanah, termasuk Empire, WHM, Torrez, World, AlphaBay, dan Versus. Dan August membawakan penampilan Chatbot penjahat dunia maya DarkBART dan DarkBERT, berdasarkan Google Bard, yang menurut para peneliti pada saat itu merupakan lompatan besar ke depan dalam persaingan AI, termasuk integrasi Google Lens untuk gambar dan akses cepat ke seluruh basis pengetahuan dunia maya bawah tanah.

Menurut SlashNext, teknologi ini kini semakin menjamur, dan sebagian besar dibangun berdasarkan model sumber terbuka seperti OpenGPT milik OpenAI. Sejumlah peretas berketerampilan rendah cukup menyesuaikannya, menyamarkannya dalam bungkusnya, lalu memberikan nama โ€œ___GPTโ€ yang tidak menyenangkan di atasnya (misalnya โ€œBadGPT,โ€ โ€œDarkGPTโ€). Bahkan penawaran semu ini mempunyai tempat tersendiri di komunitas, menawarkan sedikit batasan dan anonimitas total bagi pengguna.

Bertahan Melawan Senjata Siber AI Generasi Berikutnya

Menurut SlashNext, WormGPT, keturunannya, maupun insinyur yang cepat belum menunjukkan bahaya yang signifikan terhadap bisnis. Meski begitu, meningkatnya pasar jailbreaking bawah tanah berarti semakin banyak alat yang tersedia bagi penjahat dunia maya, yang pada gilirannya menandakan perubahan besar dalam rekayasa sosial, dan cara kita mempertahankan diri dari hal tersebut. 

Harr menyarankan: โ€œJangan bergantung pada pelatihan, karena serangan-serangan ini sangat, sangat spesifik, dan sangat tepat sasaran, lebih dari serangan-serangan di masa lalu.โ€

Sebaliknya, ia menganut pandangan yang disepakati secara umum bahwa ancaman AI memerlukan perlindungan AI. โ€œJika Anda tidak memiliki alat AI untuk mendeteksi, memprediksi, dan memblokir ancaman-ancaman ini, Anda hanya akan berada di luar pengawasan,โ€ katanya.

Stempel Waktu:

Lebih dari Bacaan gelap