แฮกเกอร์ขายบัญชี ChatGPT มากกว่า 225,000 บัญชีบน Dark Web

แฮกเกอร์ขายบัญชี ChatGPT มากกว่า 225,000 บัญชีบน Dark Web

เปนกา ฮริสตอฟสกา


เปนกา ฮริสตอฟสกา

เผยแพร่เมื่อ: March 7, 2024

บันทึกข้อมูลรับรอง OpenAI ChatGPT ที่ถูกบุกรุกมากกว่า 25,000 รายการถูกเปิดขายบนเว็บมืดระหว่างเดือนมกราคมถึงตุลาคม 2023 ตามตัวเลขจาก Group-IB

กลุ่มนี้ได้อธิบายในรายงาน “แนวโน้มอาชญากรรมทางเทคโนโลยีขั้นสูงปี 2023/2024” ซึ่งเผยแพร่เมื่อสัปดาห์ที่แล้วว่า “จำนวนอุปกรณ์ที่ติดไวรัสลดลงเล็กน้อยในช่วงกลางและปลายฤดูร้อน แต่เพิ่มขึ้นอย่างมีนัยสำคัญระหว่างเดือนสิงหาคมถึงกันยายน”

ข้อมูลประจำตัวที่ถูกบุกรุกถูกตรวจพบในบันทึกที่เชื่อมโยงกับมัลแวร์ขโมยข้อมูล โดยเฉพาะ LummaC2, Raccoon และผู้ขโมย RedLine การค้นพบของ Group-IB แสดงให้เห็นว่า LummaC2 โจมตีโฮสต์ 70,484 แห่ง Raccoon ส่งผลกระทบต่อโฮสต์ 22,468 แห่ง และ RedLine กำหนดเป้าหมายโฮสต์ 15,970 แห่ง

ตั้งแต่เดือนมิถุนายนถึงตุลาคม 2023 โฮสต์ที่ไม่ซ้ำกันมากกว่า 130,000 โฮสต์ที่เชื่อมต่อกับ OpenAI ChatGPT ถูกโจมตี ซึ่งเพิ่มขึ้น 36% จากตัวเลขที่บันทึกไว้ในช่วงห้าเดือนแรกของปี

“การเพิ่มขึ้นอย่างรวดเร็วของจำนวนข้อมูลรับรอง ChatGPT สำหรับการขายนั้นเกิดจากการเพิ่มขึ้นโดยรวมของจำนวนโฮสต์ที่ติดไวรัสผู้ขโมยข้อมูล จากนั้นข้อมูลจะถูกนำไปขายในตลาดหรือใน UCL” Group-IB กล่าว

พวกเขากล่าวว่านักแสดงที่ไม่ดีกำลังหันเหความสนใจจากคอมพิวเตอร์ขององค์กรไปยังระบบ AI สาธารณะ

“สิ่งนี้ทำให้พวกเขาสามารถเข้าถึงบันทึกที่มีประวัติการสื่อสารระหว่างพนักงานและระบบ ซึ่งพวกเขาสามารถใช้เพื่อค้นหาข้อมูลที่เป็นความลับ (เพื่อการจารกรรม) รายละเอียดเกี่ยวกับโครงสร้างพื้นฐานภายใน ข้อมูลการตรวจสอบสิทธิ์ (สำหรับการดำเนินการโจมตีที่สร้างความเสียหายมากยิ่งขึ้น) และข้อมูลเกี่ยวกับ ซอร์สโค้ดของแอปพลิเคชัน”

ข่าวดังกล่าวเกิดขึ้นหลังจากรายงานจาก Microsoft ซึ่งบริษัทรายงานในทำนองเดียวกันว่าผู้คุกคาม “กำลังมองหา AI รวมถึง LLM เพื่อเพิ่มประสิทธิภาพการทำงานและใช้ประโยชน์จากแพลตฟอร์มที่สามารถเข้าถึงได้ซึ่งสามารถพัฒนาวัตถุประสงค์และเทคนิคการโจมตีได้”

นอกจากนี้ยังรับทราบว่า “กลุ่มอาชญากรรมไซเบอร์ ผู้ก่อภัยคุกคามระดับรัฐ และศัตรูอื่นๆ กำลังสำรวจและทดสอบเทคโนโลยี AI ต่างๆ ที่เกิดขึ้น เพื่อพยายามทำความเข้าใจคุณค่าที่อาจเกิดขึ้นต่อการดำเนินงานและการควบคุมความปลอดภัยที่พวกเขาอาจจำเป็นต้องหลีกเลี่ยง”

อย่างไรก็ตาม บริษัทเน้นย้ำว่า “การวิจัยกับ OpenAI ไม่ได้ระบุการโจมตีที่สำคัญโดยใช้ LLM ที่เราติดตามอย่างใกล้ชิด”

ประทับเวลา:

เพิ่มเติมจาก นักสืบความปลอดภัย