Cyberkriminelle weisen ChatGPT an, bösartigen Code zu erstellen

Cyberkriminelle weisen ChatGPT an, bösartigen Code zu erstellen

Cyberkriminelle weisen ChatGPT an, Schadcode PlatoBlockchain Data Intelligence zu erstellen. Vertikale Suche. Ai.

Cyberkriminelle beginnen damit, die äußerst beliebte ChatGPT-Technologie von OpenAI zu verwenden, um schnell und einfach Code für böswillige Zwecke zu entwickeln.

Ein Rundgang durch unterirdische Hacking-Sites deckte erste Fälle von Schurken auf, die Cyberthreat-Tools mithilfe der LLM-Schnittstelle (Large Language Model) entwickelten, die das Unternehmen Ende November vorgestellt und für die öffentliche Nutzung freigegeben hatte, so das Infosec-Team Check Point Research.

Eine nette [helfende] Hand, um das Drehbuch mit einem schönen Umfang fertigzustellen

Ähnlich wie der Aufstieg von As-a-Service-Modelle In der Welt der Cyberkriminalität eröffnet ChatGPT weniger erfahrenen Gaunern einen weiteren Weg, um Cyberangriffe einfach zu starten, sagten die Forscher in a berichten Freitag.

„Wie wir vermutet haben, haben einige der Fälle deutlich gezeigt, dass viele Cyberkriminelle, die OpenAI verwenden, überhaupt keine Entwicklungsfähigkeiten haben“, schrieben sie. „Obwohl die Tools, die wir in diesem Bericht vorstellen, ziemlich einfach sind, ist es nur eine Frage der Zeit, bis raffiniertere Bedrohungsakteure die Art und Weise, wie sie KI-basierte Tools verwenden, verbessern.“

Vergessen wir nicht, dass ChatGPT auch dafür berüchtigt ist, fehlerhaften Code zu generieren – Stack Overflow hat es verbotene Software vom KI-System generiert, da es oft schwerwiegende Fehler aufweist. Aber die Technologie verbessert sich und letzten Monat ein Bericht der finnischen Regierung gewarnt KI-Systeme werden bereits für Social Engineering eingesetzt und könnten in fünf Jahren eine enorme Welle von Angriffen auslösen.

Das maschinelle Lernen von ChatGPT Fähigkeiten Ermöglichen Sie dem textbasierten Tool eine dialogorientierte Interaktion, bei der Benutzer eine Frage eingeben und eine Antwort in einem Dialogformat erhalten. Die Technologie kann auch Folgefragen beantworten und die Antworten der Benutzer hinterfragen.

Die Ausgereiftheit des Angebots von OpenAI hat ebenso viel bewirkt Sorgen als Enthusiasmus, mit Bildungseinrichtungen, Konferenzorganisatoren und anderen Gruppen, die sich dafür einsetzen, die Verwendung von ChatGPT für alles zu verbieten, von Schularbeiten bis hin zu Forschungsarbeiten.

Die Analysten im Dezember weisen nach, dass wie ChatGPT verwendet werden kann, um einen vollständigen Infektionsfluss zu erstellen, von Phishing-E-Mails bis zum Ausführen einer Reverse-Shell. Sie verwendeten den Chatbot auch, um Backdoor-Malware zu erstellen, die vom KI-Tool erstellte Skripte dynamisch ausführen kann. Gleichzeitig zeigten sie, wie es Cybersecurity-Profis bei ihrer Arbeit unterstützen kann.

Jetzt testen Cyberkriminelle es.

Ein Thread mit dem Titel „ChatGPT – Benefits of Malware“ tauchte am 29. Dezember in einem weit verbreiteten Underground-Hacking-Forum auf, das von einer Person geschrieben wurde, die sagte, dass sie mit der Schnittstelle experimentieren, um gängige Malware-Stämme und -Techniken nachzubilden. Der Autor zeigte den Code eines Python-basierten Informationsdiebstahls, der nach Dateitypen sucht, diese kopiert und sie auf einen fest codierten FTP-Server hochlädt.

Check Point bestätigte, dass der Code von einer einfachen Stealer-Malware stammte.

In einem anderen Beispiel verwendete der Autor ChatGPT, um ein einfaches Java-Snippet zu erstellen, das einen gemeinsamen SSH- und Telnet-Client herunterlädt, der heimlich auf einem System mit PowerShell ausgeführt wird.

„Diese Person scheint ein technikorientierter Bedrohungsakteur zu sein, und der Zweck seiner Posts besteht darin, weniger technisch versierten Cyberkriminellen zu zeigen, wie sie ChatGPT für böswillige Zwecke nutzen können, mit echten Beispielen, die sie sofort verwenden können“, schrieben die Forscher.

Am 21. Dezember veröffentlichte eine Person, die sich selbst USDoD nannte, ein in Python geschriebenes Verschlüsselungstool, das verschiedene Verschlüsselungs-, Entschlüsselungs- und Signaturvorgänge umfasst. Er schrieb, dass ihm die Technologie von OpenAI „eine nette [helfende] Hand gegeben hat, um das Drehbuch mit einem schönen Umfang fertigzustellen“.

Die Forscher schrieben, dass USDoD über begrenzte Entwicklungsfähigkeiten verfügt, aber in der Untergrundgemeinschaft aktiv ist und in der Vergangenheit Zugang zu kompromittierten Organisationen und gestohlenen Datenbanken verkauft hat.

Ein weiterer Diskussionsfaden, der an Silvester in einem Forum veröffentlicht wurde, sprach darüber, wie einfach es ist, ChatGPT zu verwenden, um einen Dark-Web-Marktplatz zu schaffen, um mit illegalen Tools wie Malware oder Drogen und gestohlenen Daten wie Konten und Zahlungskarten zu handeln.

Der Autor des Threads veröffentlichte einen mit ChatGPT erstellten Code, der APIs von Drittanbietern verwendet, um aktuelle Preise für Kryptowährungen wie Bitcoin, Monero und Ethereum für das Zahlungssystem des Marktplatzes zu erhalten.

Diese Woche sprachen Schurken in Untergrundforen über andere Möglichkeiten, ChatGPT für verschiedene Systeme zu nutzen, einschließlich der Verwendung mit der Dall-E 2-Technologie von OpenAI, um Kunst zu schaffen, die online über legitime Websites wie Etsy verkauft werden kann, und die Erstellung eines E-Books oder eines kurzen Kapitels zu einem bestimmten Thema die online verkauft werden können.

Um weitere Informationen darüber zu erhalten, wie ChatGPT missbraucht werden kann, fragten die Forscher ChatGPT. In seiner Antwort sprach ChatGPT über die Verwendung der KI-Technologie, um überzeugende Phishing-E-Mails und Social-Media-Beiträge zu erstellen, um Menschen dazu zu bringen, persönliche Informationen preiszugeben oder auf bösartige Links zu klicken oder um Video und Audio zu erstellen, die für Fehlinformationen verwendet werden könnten.

ChatGPT verteidigte auch seinen Schöpfer.

„Es ist wichtig zu beachten, dass OpenAI selbst nicht für den Missbrauch seiner Technologie durch Dritte verantwortlich ist“, sagte der Chatbot. „Das Unternehmen ergreift Maßnahmen, um zu verhindern, dass seine Technologie für böswillige Zwecke verwendet wird, z. B. indem es von Benutzern verlangt, Nutzungsbedingungen zuzustimmen, die die Verwendung seiner Technologie für illegale oder schädliche Zwecke verbieten.“ ®

Zeitstempel:

Mehr von Das Register