ฟอรัมการแหกคุก ChatGPT แพร่หลายในชุมชน Dark Web

ฟอรัมการแหกคุก ChatGPT แพร่หลายในชุมชน Dark Web

การสร้างอาวุธให้กับเครื่องมือ AI เจนเนอเรชั่นอย่าง ChatGPT นั้น ทุกคนรอคอย ช้าๆ อย่างช้า เริ่มเป็นรูปเป็นร่าง ในชุมชนออนไลน์ แมวขี้สงสัยกำลังร่วมมือกันหาวิธีใหม่ๆ ในการถอดรหัสกฎจริยธรรมของ ChatGPT หรือที่เรียกกันทั่วไปว่า "การแหกคุก" และแฮกเกอร์กำลังพัฒนาเครือข่ายเครื่องมือใหม่เพื่อใช้ประโยชน์หรือสร้างโมเดลภาษาขนาดใหญ่ (LLM) เพื่อจุดประสงค์ที่เป็นอันตราย

เช่นเดียวกับที่อยู่เหนือพื้นดิน ChatGPT ดูเหมือนจะสร้างแรงบันดาลใจให้กับฟอรัมใต้ดิน นับตั้งแต่เดือนธันวาคม แฮกเกอร์ได้ค้นหาสิ่งใหม่ๆ และสร้างสรรค์ แจ้งให้จัดการ ChatGPTและ LLM แบบโอเพ่นซอร์สที่สามารถนำมาใช้ใหม่เพื่อจุดประสงค์ที่เป็นอันตรายได้

ผลลัพธ์ตามบล็อกใหม่จาก SlashNext ยังคงเป็นชุมชนแฮ็ก LLM ที่เพิ่งเกิดใหม่แต่กำลังเฟื่องฟู โดยมีคำสั่งที่ชาญฉลาดมากมาย มัลแวร์ที่ใช้ AI เพียงไม่กี่ตัวก็คุ้มค่าที่จะคิดใหม่.

แฮกเกอร์กำลังทำอะไรกับ AI LLM

วิศวกรรมทันใจ เกี่ยวข้องกับการถามแชทบอทอย่างชาญฉลาด เช่น คำถาม ChatGPT ที่มุ่งจัดการแชทบอท ทำให้พวกเขาฝ่าฝืนกฎที่ตั้งโปรแกรมไว้ เช่น การสร้างมัลแวร์ โดยที่โมเดลไม่รู้ นี่เป็นการใช้กำลังดุร้าย Patrick Harr ซีอีโอของ SlashNext อธิบาย: “แฮกเกอร์แค่พยายามมองไปรอบๆ รั้ว มีขอบอะไรบ้าง? ฉันเพียงแค่เปลี่ยนคำแนะนำอย่างต่อเนื่อง ถามด้วยวิธีต่างๆ เพื่อทำสิ่งที่ฉันต้องการ”

เนื่องจากเป็นงานที่น่าเบื่อ และเนื่องจากทุกคนโจมตีเป้าหมายเดียวกัน จึงเป็นเรื่องปกติที่ชุมชนออนไลน์ที่มีขนาดเหมาะสมจะรวมตัวกันเพื่อแบ่งปันเคล็ดลับและคำแนะนำต่างๆ สมาชิกของชุมชนการแหกคุกเหล่านี้เกาหลังกันและกัน ช่วยเหลือซึ่งกันและกันเพื่อทำให้ ChatGPT ถอดรหัสและทำสิ่งที่นักพัฒนาตั้งใจป้องกันไม่ให้ทำ

ภาพหน้าจอของกลุ่มแชทออนไลน์ที่สร้างขึ้นเพื่อแจ้งให้ทราบ
ที่มา: SlashNext

วิศวกรพร้อมท์สามารถประสบความสำเร็จได้มากมายด้วยการเล่นคำที่แปลกใหม่เท่านั้น หากแชทบอทที่เป็นปัญหานั้นถูกสร้างขึ้นอย่างยืดหยุ่นเช่นเดียวกับ ChatGPT ดังนั้น แนวโน้มที่น่ากังวลมากขึ้นก็คือนักพัฒนามัลแวร์เริ่มเขียนโปรแกรม LLM เพื่อจุดจบที่ชั่วร้ายของตนเอง

ภัยคุกคามที่ปรากฏขึ้นของ WormGPT และ LLM ที่เป็นอันตราย

เครื่องบูชาที่เรียกว่า เวิร์มจีพีที ปรากฏตัวในเดือนกรกฎาคมเพื่อเริ่มต้นปรากฏการณ์ LLM ที่เป็นอันตราย มันเป็นทางเลือกหมวกดำสำหรับรุ่น GPT ที่ออกแบบมาโดยเฉพาะสำหรับกิจกรรมที่เป็นอันตราย เช่น BEC มัลแวร์ และการโจมตีแบบฟิชชิ่ง วางตลาดในฟอรัมใต้ดิน “เช่น ChatGPT แต่ไม่มีขอบเขตหรือข้อจำกัดทางจริยธรรม” ผู้สร้าง WormGPT อ้างว่าได้สร้างมันโดยใช้โมเดลภาษาที่กำหนดเอง ซึ่งได้รับการฝึกฝนจากแหล่งข้อมูลต่างๆ โดยเน้นที่ข้อมูลที่เกี่ยวข้องกับการโจมตีทางไซเบอร์

“แฮ็กเกอร์มีความหมายอย่างไร” Harr อธิบาย “ตอนนี้ฉันสามารถรับการโจมตีทางอีเมลธุรกิจ (BEC) หรือการโจมตีแบบฟิชชิ่ง หรือการโจมตีมัลแวร์ แล้วทำสิ่งนี้ได้ในวงกว้างด้วยต้นทุนที่ต่ำมาก และฉันสามารถกำหนดเป้าหมายได้มากกว่าเมื่อก่อนมาก”

นับตั้งแต่ WormGPT มีผลิตภัณฑ์ที่คล้ายกันจำนวนหนึ่งได้ถูกรวมกลุ่มไว้ในชุมชนออนไลน์อันร่มรื่น รวมถึง FraudGPTซึ่งโฆษณาว่าเป็น "บอทที่ไม่มีข้อจำกัด กฎเกณฑ์ [และ] ขอบเขต" โดยผู้คุกคามที่อ้างว่าเป็นผู้จำหน่ายที่ได้รับการยืนยันในตลาด Dark Web ใต้ดินหลายแห่ง รวมถึง Empire, WHM, Torrez, World, AlphaBay และ Versus และเดือนสิงหาคมก็ได้นำการปรากฏตัวของ DarkBART และ DarkBERT แชทบอทอาชญากรไซเบอร์อิงจาก Google Bard ซึ่งนักวิจัยในขณะนั้นกล่าวว่าแสดงถึงการก้าวกระโดดครั้งใหญ่สำหรับ AI ที่เป็นปฏิปักษ์ รวมถึงการบูรณาการ Google Lens สำหรับรูปภาพและการเข้าถึงฐานความรู้ทางไซเบอร์ใต้ดินทั้งหมดได้ทันที

จากข้อมูลของ SlashNext สิ่งเหล่านี้กำลังแพร่กระจายอย่างรวดเร็ว โดยส่วนใหญ่สร้างจากโมเดลโอเพ่นซอร์ส เช่น OpenAI's OpenGPT แฮกเกอร์ที่มีทักษะต่ำกว่าจำนวนหนึ่งเพียงแค่ปรับแต่งมัน ปลอมมันไว้ในกระดาษห่อ จากนั้นตบชื่อ “___GPT” ที่เป็นลางร้ายอย่างคลุมเครือ (เช่น “BadGPT,” “DarkGPT”) แม้แต่ข้อเสนอ ersatz เหล่านี้ก็มีที่ในชุมชน แต่ก็มีข้อจำกัดเล็กน้อยและการไม่เปิดเผยตัวตนโดยสิ้นเชิงสำหรับผู้ใช้

การป้องกันอาวุธไซเบอร์ AI ยุคใหม่

ทั้ง WormGPT หรือลูกหลานของมัน หรือวิศวกรที่พร้อมท์ ยังไม่สามารถสร้างอันตรายที่สำคัญต่อธุรกิจได้ ตามข้อมูลของ SlashNext ถึงกระนั้น การเพิ่มขึ้นของตลาดการแหกคุกใต้ดินก็หมายความว่ามีเครื่องมือต่างๆ มากขึ้นสำหรับอาชญากรไซเบอร์ ซึ่งส่งผลถึงการเปลี่ยนแปลงในวงกว้างในด้านวิศวกรรมสังคม และวิธีที่เราป้องกันมัน 

Harr ให้คำแนะนำ: “อย่าพึ่งพาการฝึกฝน เพราะการโจมตีเหล่านี้มีความเฉพาะเจาะจงมาก และตรงเป้าหมายมาก มากกว่าที่เคยเป็นมาในอดีต”

แต่เขาสมัครรับมุมมองที่ตกลงกันโดยทั่วไปว่าภัยคุกคาม AI จำเป็นต้องมีการป้องกันโดย AI “หากคุณไม่มีเครื่องมือ AI ที่ตรวจจับ คาดการณ์ และบล็อกภัยคุกคามเหล่านี้ คุณจะต้องมองจากภายนอกเข้ามา” เขากล่าว

ประทับเวลา:

เพิ่มเติมจาก การอ่านที่มืด