KI-Deepfakes stellen auch für Unternehmen eine Bedrohung dar – hier ist der Grund: Entschlüsseln

KI-Deepfakes stellen auch für Unternehmen eine Bedrohung dar – hier ist der Grund: Entschlüsseln

KI-Deepfakes stellen auch für Unternehmen eine Bedrohung dar – hier ist der Grund: Decrypt PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Während Technologiegiganten darum konkurrieren, künstliche Intelligenz der breiten Masse zugänglich zu machen und den aufkeimenden Markt zu erobern, führt das KI-Wettrüsten zu einer Zunahme von „Deepfake“-Videos und -Audioinhalten – Inhalte, die oft überzeugend legitim aussehen oder klingen, in Wirklichkeit aber eine betrügerische Falschdarstellung sind. Einem neuen Bericht zufolge wirken sie sich auch auf Unternehmen aus.

Deepfakes sind KI-generierte Kreationen wie Bilder, Videos und Audio, die manipuliert werden, um Menschen zu täuschen. Betrüger nutzen Deepfakes für Betrug, Erpressungoder um den Ruf zu schädigen. Die Verbreitung von generative KI Tools haben es Betrügern einfacher denn je gemacht, gefälschte Inhalte zu erstellen.

Prominente und andere Persönlichkeiten des öffentlichen Lebens werden ohne ihre Zustimmung in künstliches und manchmal explizites Filmmaterial eingefügt, was manchmal viral geht oder in sozialen Medien Panik auslösen kann. In einem Bericht zur Verfügung gestellt Entschlüsseln, globales Wirtschaftsprüfungsunternehmen KPMG schrieb, dass auch der Unternehmenssektor nicht immun gegen die Deepfake-Bedrohung sei.

Deepfake-Inhalte können für Social-Engineering-Angriffe und andere Arten von Cyberangriffen gegen Unternehmen verwendet werden, schrieb KPMG, während solche Inhalte auch den Ruf von Unternehmen und ihren Führungskräften beeinträchtigen können. Falsche Darstellungen von Unternehmensvertretern können auch dazu genutzt werden, Kunden zu betrügen oder Mitarbeiter davon zu überzeugen, Informationen an illegale Akteure weiterzugeben oder Geld zu überweisen.

KPMG zitierte ein Beispiel aus dem Jahr 2020 Es geht um einen Niederlassungsleiter eines Unternehmens in Hongkong, der dazu verleitet wurde, Firmengelder im Wert von 35 Millionen US-Dollar an Betrüger zu überweisen, nachdem er geglaubt hatte, sein Chef hätte ihn am Telefon dazu aufgefordert. Stattdessen handelte es sich um eine von der KI geklonte Nachbildung der Stimme des Vorgesetzten – alles Teil eines ausgeklügelten Plans, um Geld von der Firma zu erpressen.

„Die Folgen von Cyberangriffen, die synthetische Inhalte nutzen – digitale Inhalte, die für schändliche Zwecke generiert oder manipuliert wurden – können enorm und kostspielig sein und eine Vielzahl sozioökonomischer Auswirkungen haben, darunter unter anderem finanzielle, rufschädigende, dienstliche und geopolitische Auswirkungen.“ Der Bericht lautet.

Deepfake-Aufnahmen von Donald Trump verhaftet früher in diesem Jahr, Papst Franziskus das Tragen von Balenciaga-Luxuskleidung und Elon Musk Die Förderung von Krypto-Betrügereien ist im letzten Jahr viral geworden, da sich die Deepfake-Technologie dank der Weiterentwicklung von KI-Tools verbessert hat.

„Ob es sich um billige Fälschungen oder Deepfakes handelt, das Wirtschaftsmodell hat sich aufgrund generativer KI-Modelle erheblich verändert“, schrieb KPMG.

Neben den oben genannten Persönlichkeiten des öffentlichen Lebens gehören zu den prominenten Persönlichkeiten, deren Konterfeis gestohlen und auf gefälschtem Filmmaterial angebracht wurden, auch die Schauspielerin Emma Watson und der Musiker Taylor Swift. Aber es sind die potenziellen Auswirkungen auf Unternehmen und ihre teilweise prominenten Führungskräfte, vor denen KPMG Alarm schlägt.

„Als Risikofaktor sind Deepfake-Inhalte nicht nur ein Problem für soziale Medien, Dating-Seiten und die Unterhaltungsindustrie – sie sind mittlerweile ein Thema in den Vorstandsetagen“, sagte KPMG. „Beispielsweise gaben fast alle Befragten (92 %) einer aktuellen KPMG-Umfrage zur generativen KI unter 300 Führungskräften aus verschiedenen Branchen und Regionen an, dass ihre Bedenken hinsichtlich der Risiken der Implementierung generativer KI mäßig bis sehr groß seien.“

Es sind nicht nur Unternehmen und Prominente, die mit der steigenden Qualität und Anzahl von Deepfake-Videos im Internet zu kämpfen haben. Auch Regierungen und Regulierungsbehörden rechnen mit den möglichen Auswirkungen auf die Gesellschaft und Wahlen, während die Entwickler solcher KI-Tools deren mögliche negative Auswirkungen abwägen.

Letzte Woche hat die US-Bundeswahlkommission, die den Einsatz von Deepfakes bei den Wahlen 2024 erwartet, einen Schritt vorangetrieben Petition den Einsatz künstlicher Intelligenz in Kampagnenanzeigen zu verbieten.

Im Falle einer Genehmigung würde die Agentur die aktuellen Vorschriften zur betrügerischen Falschdarstellung der „Kampagnenautorität“ ändern und klarstellen, dass das Verbot für absichtlich irreführende KI-Kampagnenwerbung gilt.

„Regulierungsbehörden sollten weiterhin die Auswirkungen sich entwickelnder Bedrohungen auf bestehende Vorschriften verstehen und berücksichtigen“, sagte Matthew Miller, Leiter der Cyber ​​Security Services bei KPMG Entschlüsseln. „Vorgeschlagene Anforderungen für die Kennzeichnung und Wasserzeichen von KI-generierten Inhalten könnten positive Auswirkungen haben.“

Im Juli haben Forscher am MIT vorgeschlage Durch das Hinzufügen von Codeänderungen zu großen Diffusionsmodellen wird das Risiko von Deepfakes verringert, indem winzige Änderungen hinzugefügt werden, die schwer zu erkennen sind, aber letztendlich die Funktionsweise der Modelle verändern und dazu führen, dass sie Bilder erzeugen, die nicht real aussehen. Meta, inzwischen, vor kurzem hielt ein KI-Tool zurück aufgrund seines Deepfake-Potenzials.

Die Aufregung um das kreative Potenzial generativer KI-Tools wurde durch die Erkenntnis gemildert, dass sie ebenfalls Möglichkeiten für bösartige Inhalte schaffen können. Letztendlich forderte Miller angesichts der raschen Verbesserungen solcher Tools alle dazu auf, wachsam gegenüber der Möglichkeit gefälschter Inhalte zu sein.

„Die Öffentlichkeit muss bei der Interaktion über digitale Kanäle ständige Wachsamkeit aufrechterhalten“, sagte er Entschlüsseln. „Situationsbewusstsein und gesunder Menschenverstand tragen wesentlich dazu bei, einen Vorfall zu verhindern. Wenn sich etwas nicht „richtig anfühlt“, handelt es sich mit hoher Wahrscheinlichkeit um eine böswillige Aktivität.“

Bleiben Sie über Krypto-News auf dem Laufenden und erhalten Sie tägliche Updates in Ihrem Posteingang.

Zeitstempel:

Mehr von Entschlüsseln