ChatGPT Jailbreak Forumları Karanlık Web Topluluklarında Çoğalıyor

ChatGPT Jailbreak Forumları Karanlık Web Topluluklarında Çoğalıyor

ChatGPT gibi üretken yapay zeka araçlarının silah haline getirilmesi herkes bekliyordu yavaş yavaş, yavaş yavaş şekillenmeye başlıyor. Çevrimiçi topluluklarda meraklı kediler, genellikle "jailbreaking" olarak bilinen ChatGPT'nin etik kurallarını kırmanın yeni yolları üzerinde işbirliği yapıyor ve bilgisayar korsanları, kötü niyetli amaçlar için büyük dil modellerinden (LLM'ler) yararlanmak veya oluşturmak için yeni araçlardan oluşan bir ağ geliştiriyor.

ChatGPT, yer üstünde olduğu gibi yer altı forumlarında da bir çılgınlığa ilham vermiş gibi görünüyor. Aralık ayından bu yana, bilgisayar korsanları yeni ve yaratıcı buluşların peşinde ChatGPT'yi manipüle etmenizi ister, ve kötü niyetli amaçlar için yeniden kullanabilecekleri açık kaynaklı LLM'ler

SlashNext'in yeni bir bloguna göre sonuç, pek çok akıllı ipucuna sahip, ancak henüz yeni oluşan ancak gelişen bir LLM hack topluluğudur. ikinci kez düşünmeye değer birkaç yapay zeka destekli kötü amaçlı yazılım.

Bilgisayar Korsanları Yapay Zeka Yüksek Lisans Programlarıyla Ne Yapıyor?

Hızlı mühendislik ChatGPT gibi chatbotlara akıllı bir şekilde onları manipüle etmeyi amaçlayan sorular sormayı, modellerin haberi olmadan kötü amaçlı yazılım oluşturmaya karşı programlanmış kurallarını ihlal etmelerini sağlamayı içerir. SlashNext CEO'su Patrick Harr, bunun bir kaba kuvvet uygulaması olduğunu açıklıyor: "Hackerlar sadece korkulukların etrafına bakmaya çalışıyor. Kenarlar nelerdir? Sürekli olarak komutları değiştiriyorum, istediğimi yapmak için farklı şekillerde soruyorum.”

Bu çok sıkıcı bir görev olduğu ve herkes aynı hedefe saldırdığı için, ipuçlarını ve püf noktalarını paylaşmak üzere uygulama etrafında sağlıklı büyüklükte çevrimiçi toplulukların oluşması doğaldır. Bu jailbreak topluluklarının üyeleri birbirlerinin sırtını kaşıyarak, ChatGPT'yi kırmak ve geliştiricilerin yapmasını engellemek istediği şeyleri yapmak için birbirlerine yardım ediyorlar.

istemler için oluşturulmuş bir çevrimiçi sohbet grubunun ekran görüntüsü
Kaynak: SlashNext

Ancak hızlı mühendisler, söz konusu chatbot'un ChatGPT kadar dayanıklı olması durumunda, süslü kelime oyunlarıyla ancak bu kadarını başarabilirler. Dolayısıyla, daha endişe verici olan eğilim, kötü amaçlı yazılım geliştiricilerinin LLM'leri kendi hain amaçları için programlamaya başlamasıdır.

WormGPT ve Kötü Amaçlı LLM'lerin Yaklaşan Tehdidi

Bir teklif adı verildi SolucanGPT Kötü niyetli LLM fenomenini başlatmak için Temmuz ayında ortaya çıktı. BEC, kötü amaçlı yazılım ve kimlik avı saldırıları gibi kötü amaçlı faaliyetler için özel olarak tasarlanmış, "ChatGPT gibi ancak hiçbir etik sınır veya sınırlama olmaksızın" yer altı forumlarında pazarlanan GPT modellerine siyah şapkalı bir alternatiftir. WormGPT'nin yaratıcısı, onu siber saldırılarla ilgili verilere vurgu yapan, çeşitli veri kaynakları üzerinde eğitilmiş özel bir dil modeli üzerine kurduğunu iddia etti.

Harr şöyle açıklıyor: "Bilgisayar korsanları için bunun anlamı şu; artık örneğin bir iş e-postası ele geçirmesini (BEC), bir kimlik avı saldırısını veya kötü amaçlı yazılım saldırısını üstlenebilir ve bunu çok düşük bir maliyetle geniş ölçekte yapabilirim. Ve eskisinden çok daha fazla hedef alınabilirdim.”

WormGPT'den bu yana, bir dizi benzer ürün şüpheli çevrimiçi topluluklarda tartışılıyor. FraudGPT dahilEmpire, WHM, Torrez, World, AlphaBay ve Versus dahil olmak üzere çeşitli yeraltı Dark Web pazaryerlerinde doğrulanmış bir satıcı olduğunu iddia eden bir tehdit aktörü tarafından "sınırlamaları, kuralları ve sınırları olmayan bir bot" olarak reklamı yapılan . Ve ağustos şu görünümü getirdi: DarkBART ve DarkBERT siber suçlu sohbet robotları, o zamanki araştırmacıların, görüntüler için Google Lens entegrasyonu ve siber-yeraltı bilgi tabanının tamamına anında erişim de dahil olmak üzere, rakip yapay zeka için büyük bir ilerlemeyi temsil ettiğini söylediği Google Bard'ı temel alıyor.

SlashNext'e göre bunlar artık hızla çoğalıyor ve çoğunluğu OpenAI'nin OpenGPT'si gibi açık kaynaklı modeller üzerine kurulu. Bir grup düşük vasıflı bilgisayar korsanı, onu özelleştirir, bir pakette gizler ve ardından üzerine belirsiz bir şekilde uğursuz bir "___GPT" adı (örn. "BadGPT", "DarkGPT") yapıştırır. Kullanıcılara çok az sınırlama ve tam bir anonimlik sunan bu ersatz tekliflerinin bile toplulukta yeri vardır.

Yeni Nesil Yapay Zeka Siber Silahlarına Karşı Savunma

SlashNext'e göre ne WormGPT, ne onun ürünü ne de hızlı mühendisler işletmeler için henüz bu kadar önemli bir tehlike oluşturmuyor. Öyle olsa bile, yeraltı jailbreak pazarlarının yükselişi, siber suçluların kullanımına daha fazla aracın sunulması anlamına geliyor ve bu da sosyal mühendislikte ve buna karşı nasıl korunacağımızda geniş bir değişimin habercisi. 

Harr şunu tavsiye ediyor: "Eğitime güvenmeyin, çünkü bu saldırılar çok çok spesifik ve çok hedefe yönelik; geçmişte olduğundan çok daha fazla."

Bunun yerine, yapay zeka tehditlerinin yapay zeka koruması gerektirdiği yönünde genel olarak kabul edilen görüşe katılıyor. "Bu tehditleri tespit eden, tahmin eden ve engelleyen yapay zeka araçlarına sahip değilseniz, dışarıdan içeriye bakacaksınız" diyor.

Zaman Damgası:

Den fazla karanlık okuma