Neugestaltung der Bedrohungslandschaft: Deepfake-Cyberangriffe sind da PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Neugestaltung der Bedrohungslandschaft: Deepfake-Cyberangriffe sind da

Schädliche Kampagnen, die den Einsatz von Deepfake-Technologien beinhalten, sind viel näher, als viele vielleicht annehmen. Darüber hinaus sind ihre Eindämmung und Erkennung schwierig.

Eine neue Studie über die Verwendung und den Missbrauch von Deepfakes durch Cyberkriminelle zeigt, dass alle erforderlichen Elemente für eine weit verbreitete Nutzung der Technologie vorhanden und in Untergrundmärkten und offenen Foren leicht verfügbar sind. Die Studie von Trend Micro zeigt, dass viele Deepfake-fähige Phishing-, Business Email Compromise (BEC)- und Werbebetrügereien bereits stattfinden und stattfinden schnelle Umgestaltung der Bedrohungslandschaft.

Keine hypothetische Bedrohung mehr

„Von hypothetischen und Proof-of-Concept-Bedrohungen haben sich [Deepfake-fähige Angriffe] zu einem Stadium entwickelt, in dem nicht ausgereifte Kriminelle in der Lage sind, solche Technologien zu verwenden“, sagt Vladimir Kropotov, Sicherheitsforscher bei Trend Micro und Hauptautor von a Bericht zum Thema, den der Sicherheitsanbieter diese Woche veröffentlicht hat. 

„Wir sehen bereits, wie Deepfakes in Angriffe auf Finanzinstitute, Betrug und Versuche, sich als Politiker auszugeben, integriert werden“, sagt er und fügt hinzu, dass das Beängstigende darin besteht, dass viele dieser Angriffe Identitäten von echten Menschen verwenden – oft aus Inhalten, die sie in sozialen Netzwerken veröffentlichen Mediennetzwerke.

Einer der wichtigsten Erkenntnisse aus der Studie von Trend Micro ist die sofortige Verfügbarkeit von Tools, Bildern und Videos zum Generieren von Deepfakes. Der Sicherheitsanbieter stellte beispielsweise fest, dass mehrere Foren, einschließlich GitHub, Quellcode für die Entwicklung von Deepfakes für jeden anbieten, der ihn haben möchte. In ähnlicher Weise sind genügend qualitativ hochwertige Bilder und Videos von gewöhnlichen Einzelpersonen und Persönlichkeiten des öffentlichen Lebens für schlechte Schauspieler verfügbar, um Millionen gefälschter Identitäten zu erstellen oder sich als Politiker, Wirtschaftsführer und andere berühmte Persönlichkeiten auszugeben.

Auch in Underground-Foren wächst die Nachfrage nach Deepfake-Diensten und Experten zu diesem Thema. Trend Micro hat Anzeigen von Kriminellen gefunden, die nach diesen Fähigkeiten suchen, um Kryptowährungsbetrug und Betrug durchzuführen, der auf einzelne Finanzkonten abzielt. 

„Schauspieler können sich bereits als Politiker, C-Level-Führungskräfte und Prominente ausgeben und ihre Identität stehlen“, sagte Trend Micro in seinem Bericht. „Dies könnte die Erfolgsrate bestimmter Angriffe wie Finanzpläne, kurzlebige Desinformationskampagnen, Manipulation der öffentlichen Meinung und Erpressung erheblich erhöhen.“

Eine Fülle von Risiken

Es besteht auch ein wachsendes Risiko, dass gestohlene oder rekonstruierte Identitäten gewöhnlicher Personen dazu verwendet werden, die imitierten Opfer zu betrügen oder unter ihrer Identität böswillige Aktivitäten durchzuführen. 

In vielen Diskussionsgruppen fand Trend Micro heraus, dass Benutzer aktiv darüber diskutierten, wie Deepfakes verwendet werden können, um Banking- und andere Kontoverifizierungskontrollen zu umgehen – insbesondere solche, die Video- und Face-to-Face-Verifizierungsmethoden beinhalten.

Beispielsweise könnten Kriminelle die Identität eines Opfers verwenden und ein Deepfake-Video von ihm verwenden, um Bankkonten zu eröffnen, die später für Geldwäscheaktivitäten verwendet werden könnten. Sie können auf ähnliche Weise Konten kapern, sich als hochrangige Führungskräfte von Organisationen ausgeben, um betrügerische Geldüberweisungen zu initiieren, oder gefälschte Beweise einschleusen, um Einzelpersonen zu erpressen, so Trend Micro. 

Geräte wie Amazons Alexa und das iPhone, die Sprach- oder Gesichtserkennung verwenden, könnten bald auf der Liste der Zielgeräte für Deepfake-basierte Angriffe stehen, stellte der Sicherheitsanbieter fest.

„Da viele Unternehmen noch im Remote- oder Mixed-Mode arbeiten, besteht ein erhöhtes Risiko Identitätsdiebstahl in Telefonkonferenzen die die interne und externe Geschäftskommunikation sowie sensible Geschäftsprozesse und Finanzströme beeinträchtigen können“, sagt Kropotov.

Trend Micro ist nicht der Einzige, der in Bezug auf Deepfakes Alarm schlägt. Eine kürzlich von VMware durchgeführte Online-Umfrage unter 125 Cybersicherheits- und Incident-Response-Experten ergab ebenfalls, dass Deepfake-fähige Bedrohungen nicht einfach kommen – sie sind schon da. Erstaunliche 66 % – 13 % mehr als 2021 – der Befragten gaben an, in den letzten 12 Monaten einen Sicherheitsvorfall mit Deepfake-Nutzung erlebt zu haben.

„Beispiele für Deepfake-Angriffe, die [bereits] beobachtet wurden, sind Sprachanrufe von CEOs an einen CFO was zu einer Überweisung führt, sowie Mitarbeiteranrufe bei der IT, um ein Zurücksetzen des Passworts zu initiieren“, sagt Rick McElroy, Hauptstratege für Cybersicherheit bei VMware.

Wenige Abwehrmaßnahmen für Deepfake-Angriffe und -Erkennung sind schwierig

Im Allgemeinen können diese Arten von Angriffen effektiv sein, da noch keine technologischen Lösungen zur Bewältigung der Herausforderung verfügbar sind, sagt McElroy. 

„Angesichts der zunehmenden Nutzung und Raffinesse bei der Erstellung von Deepfakes sehe ich dies als eine der größten Bedrohungen für Unternehmen aus der Perspektive von Betrug und Betrug in der Zukunft“, warnt er. 

Der effektivste Weg zu die Bedrohung derzeit abmildern besteht darin, das Bewusstsein für das Problem bei Finanz-, Führungs- und IT-Teams zu schärfen, die die Hauptziele dieser Social-Engineering-Angriffe sind. 

„Organisationen können Low-Tech-Methoden in Betracht ziehen, um den Kreislauf zu durchbrechen. Dies kann die Verwendung einer Herausforderung und einer Passphrase unter Führungskräften umfassen, wenn Geld aus einer Organisation überwiesen wird, oder ein zweistufiger und verifizierter Genehmigungsprozess“, sagt er.

Auch Gil Dabah, Mitbegründer und CEO von Piaano, empfiehlt eine strenge Zugangskontrolle als mildernde Maßnahme. Kein Benutzer sollte Zugriff auf große Mengen persönlicher Daten haben, und Unternehmen müssen Ratenbegrenzungen sowie Anomalieerkennung festlegen, sagt er.

„Selbst Systeme wie Business Intelligence, die eine Big-Data-Analyse erfordern, sollten nur auf maskierte Daten zugreifen“, merkt Dabah an und fügt hinzu, dass keine sensiblen personenbezogenen Daten im Klartext aufbewahrt werden sollten und Daten wie PII in Tokens umgewandelt und geschützt werden sollten.

Unterdessen werden an der Erkennungsfront Entwicklungen in Technologien wie KI-basiert Generative Adversarial Networks (GANs) haben die Erkennung von Deepfakes erschwert. „Das bedeutet, dass wir uns nicht auf Inhalte verlassen können, die „Artefakte“ enthalten, die Hinweise auf eine Änderung geben“, sagt Lou Steinberg, Mitbegründer und geschäftsführender Gesellschafter von CTM Insights.

Um manipulierte Inhalte zu erkennen, benötigen Organisationen Fingerabdrücke oder Unterschriften, die beweisen, dass etwas unverändert ist, fügt er hinzu.

„Noch besser ist es, Mikrofingerabdrücke über Teile des Inhalts zu nehmen und in der Lage zu sein, zu erkennen, was sich geändert hat und was nicht“, sagt er. „Das ist sehr wertvoll, wenn ein Bild bearbeitet wurde, aber noch mehr, wenn jemand versucht, ein Bild vor der Erkennung zu verbergen.“

Drei breite Bedrohungskategorien

Laut Steinberg lassen sich Deepfake-Bedrohungen in drei große Kategorien einteilen. Die erste sind Desinformationskampagnen, die meist Änderungen an legitimen Inhalten beinhalten, um die Bedeutung zu ändern. Als Beispiel weist Steinberg auf nationalstaatliche Akteure hin, die gefälschte Nachrichtenbilder und -videos in sozialen Medien verwenden oder jemanden in ein Foto einfügen, der ursprünglich nicht vorhanden war – etwas, das oft für Dinge wie implizite Produktempfehlungen oder Rachepornos verwendet wird.

Eine andere Kategorie umfasst subtile Änderungen an Bildern, Logos und anderen Inhalten, um automatisierte Erkennungstools zu umgehen, z. B. solche, die zum Erkennen von gefälschten Produktlogos, Bildern, die in Phishing-Kampagnen verwendet werden, oder sogar Tools zum Erkennen von Kinderpornografie verwendet werden.

Die dritte Kategorie umfasst synthetische oder zusammengesetzte Deepfakes, die aus einer Sammlung von Originalen abgeleitet werden, um etwas völlig Neues zu schaffen, sagt Steinberg. 

„Wir haben dies vor ein paar Jahren mit Audio gesehen, indem wir computersynthetisierte Sprache verwendeten, um Stimmabdrücke in Callcentern für Finanzdienstleistungen zu unterdrücken“, sagt er. „Video wird jetzt für Dinge wie eine moderne Version der geschäftlichen E-Mail-Kompromittierung verwendet oder um den Ruf zu schädigen, indem jemand etwas ‚sagt‘, was er nie gesagt hat.“

Zeitstempel:

Mehr von Dunkle Lektüre