Hacker verkaufen mehr als 225,000 ChatGPT-Konten im Dark Web

Hacker verkaufen mehr als 225,000 ChatGPT-Konten im Dark Web

Penka Hristovska


Penka Hristovska

Veröffentlicht am: 7. März 2024

Laut Zahlen von Group-IB wurden zwischen Januar und Oktober 25,000 mehr als 2023 Datensätze kompromittierter OpenAI ChatGPT-Anmeldeinformationen im Dark Web zum Verkauf angeboten.

Die Gruppe erklärte in ihrem letzte Woche veröffentlichten Bericht „Hi-Tech Crime Trends 2023/2024“, dass „die Zahl der infizierten Geräte im Mittel- und Spätsommer leicht zurückging, zwischen August und September jedoch deutlich anstieg.“

Die kompromittierten Anmeldeinformationen wurden in Protokollen entdeckt, die mit Schadsoftware zum Diebstahl von Informationen verknüpft sind, insbesondere LummaC2, Raccoon und RedLine Stealer. Die Ergebnisse von Group-IB zeigen, dass LummaC2 70,484 Hosts kompromittiert hat, Raccoon 22,468 Hosts betroffen hat und RedLine 15,970 Hosts ins Visier genommen hat.

Von Juni bis Oktober 2023 wurden über 130,000 einzelne Hosts, die mit OpenAI ChatGPT verbunden waren, kompromittiert, was einem Anstieg von 36 % gegenüber den Zahlen der ersten fünf Monate des Jahres entspricht.

„Der starke Anstieg der Zahl der zum Verkauf stehenden ChatGPT-Anmeldeinformationen ist auf den allgemeinen Anstieg der Zahl der mit Informationsdiebstahlern infizierten Hosts zurückzuführen, deren Daten dann auf Märkten oder in UCLs zum Verkauf angeboten werden“, sagte Group-IB.

Sie sagen, dass böswillige Akteure ihre Aufmerksamkeit von Unternehmenscomputern auf öffentliche KI-Systeme richten.

„Dadurch erhalten sie Zugriff auf Protokolle mit dem Kommunikationsverlauf zwischen Mitarbeitern und Systemen, mit denen sie nach vertraulichen Informationen (für Spionagezwecke), Details zur internen Infrastruktur, Authentifizierungsdaten (zur Durchführung noch schädlicherer Angriffe) und Informationen darüber suchen können Anwendungsquellcode.“

Die Nachricht folgt auf einen Bericht von Microsoft, in dem das Unternehmen ebenfalls berichtete, dass Bedrohungsakteure „KI, einschließlich LLMs, in Betracht ziehen, um ihre Produktivität zu steigern und zugängliche Plattformen zu nutzen, die ihre Ziele und Angriffstechniken voranbringen könnten.“

Es wurde auch anerkannt, dass „Cyberkriminelle Gruppen, nationalstaatliche Bedrohungsakteure und andere Gegner verschiedene KI-Technologien erforschen und testen, sobald sie auftauchen, um den potenziellen Wert für ihre Operationen und die Sicherheitskontrollen zu verstehen, die sie möglicherweise umgehen müssen.“

Das Unternehmen betonte jedoch, dass seine „Untersuchungen mit OpenAI keine signifikanten Angriffe identifiziert haben, bei denen die LLMs zum Einsatz kommen, die wir genau überwachen.“

Zeitstempel:

Mehr von Sicherheitsdetektive