Deepfake-Demokratie: KI-Technologie erschwert die Wahlsicherheit

Deepfake-Demokratie: KI-Technologie erschwert die Wahlsicherheit

Deepfake-Demokratie: KI-Technologie erschwert die Wahlsicherheit PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Aktuelle Ereignisse, darunter ein durch künstliche Intelligenz (KI) generierter Deepfake Robocall gibt sich als Präsident Biden aus Die Aufforderung an die Wähler in New Hampshire, sich der Vorwahl zu enthalten, ist eine deutliche Erinnerung daran, dass böswillige Akteure moderne generative KI-Plattformen (GenAI) zunehmend als wirksame Waffe für gezielte Angriffe auf US-Wahlen betrachten.

Plattformen wie ChatGPT, Googles Gemini (ehemals Bard) oder eine beliebige Anzahl speziell entwickelter Dark Web Large Language Models (LLMs) könnten eine Rolle bei der Störung des demokratischen Prozesses spielen, wobei Angriffe Massenbeeinflussungskampagnen, automatisiertes Trolling und die Verbreitung von Angriffen umfassen Deepfake-Inhalte.

Tatsächlich FBI-Direktor Christopher Wray äußerte kürzlich Bedenken über den anhaltenden Informationskrieg mit Deepfakes, der während des bevorstehenden Präsidentschaftswahlkampfs Desinformation säen könnte, as staatlich geförderte Akteure Versuch, das geopolitische Gleichgewicht zu beeinflussen.

GenAI könnte auch den Aufstieg von „automatisieren“koordiniertes inauthentisches Verhalten„Netzwerke, die versuchen, durch Fake-News-Kanäle, überzeugende Social-Media-Profile und andere Wege ein Publikum für ihre Desinformationskampagnen zu gewinnen – mit dem Ziel, Zwietracht zu säen und das Vertrauen der Öffentlichkeit in den Wahlprozess zu untergraben.

Wahleinfluss: Erhebliche Risiken und Albtraumszenarien

Aus Sicht von Padraic O'Reilly, Chief Innovation Officer von CyberSaint, ist das Risiko „erheblich“, weil sich die Technologie so schnell weiterentwickelt.

„Es verspricht interessant und vielleicht auch ein wenig alarmierend zu werden, da wir neue Varianten der Desinformation sehen, die sich Deepfake-Technologie zunutze machen“, sagt er.

Konkret, so O'Reilly, bestehe das „Alptraumszenario“ darin, dass Microtargeting mit KI-generierten Inhalten auf Social-Media-Plattformen zunehmen werde. Das ist eine bekannte Taktik aus dem Cambridge Analytica Skandal, wo das Unternehmen psychologische Profildaten von 230 Millionen US-Wählern sammelte, um Einzelpersonen über Facebook hochgradig maßgeschneiderte Nachrichten zu übermitteln und so zu versuchen, ihre Überzeugungen – und Stimmen – zu beeinflussen. Aber GenAI könnte diesen Prozess in großem Maßstab automatisieren und äußerst überzeugende Inhalte erstellen, die, wenn überhaupt, nur wenige „Bot“-Eigenschaften aufweisen, die Menschen abschrecken könnten.

„Gestohlene Targeting-Daten [Persönlichkeitsmomentaufnahmen eines Benutzers und seiner Interessen], die mit KI-generierten Inhalten zusammengeführt werden, stellen ein echtes Risiko dar“, erklärt er. „Die russischen Desinformationskampagnen von 2013–2017 lassen darauf schließen, was sonst noch passieren könnte und wird, und wir wissen von Deepfakes, die von US-Bürgern erstellt wurden [wie die] mit Biden und Elizabeth Warren"

Der Mix aus Social Media und leicht verfügbare Deepfake-Technologie könnte eine tödliche Waffe für die Polarisierung der US-Bürger in einem bereits tief gespaltenen Land sein, fügt er hinzu.

„Demokratie basiert auf bestimmten gemeinsamen Traditionen und Informationen, und die Gefahr besteht hier in einer zunehmenden Balkanisierung der Bürger, die zu dem führt, was die Stanford-Forscherin Renée DiResta als ‚maßgeschneiderte Realitäten‘ bezeichnete“, sagt O'Reilly, auch bekannt als Menschen, die an „alternative Fakten“ glauben.

Die Plattformen, die Bedrohungsakteure nutzen, um Spaltung zu säen, werden wahrscheinlich wenig hilfreich sein: Er fügt hinzu, dass beispielsweise die Social-Media-Plattform X, früher bekannt als Twitter, ihre Qualitätssicherung (QA) für Inhalte gestrichen hat.

„Die anderen Plattformen haben grundsätzlich zugesichert, dass sie gegen Desinformation vorgehen werden, aber der Schutz der freien Meinungsäußerung und mangelnde Regulierung lassen das Feld für schlechte Akteure immer noch weit offen“, warnt er.

KI verstärkt bestehende Phishing-TTPs

GenAI wird bereits verwendet, um glaubwürdigere, gezieltere Phishing-Kampagnen in großem Maßstab zu erstellen – aber im Zusammenhang mit der Wahlsicherheit ist dieses Phänomen laut Scott Small, Direktor für Cyber-Bedrohungsinformationen bei Tidal Cyber, noch besorgniserregender.

„Wir gehen davon aus, dass Cyber-Angreifer generative KI einsetzen, um Phishing- und Social-Engineering-Angriffe – die führenden Formen wahlbezogener Angriffe in Bezug auf ihr gleichbleibendes Volumen über viele Jahre hinweg – überzeugender zu gestalten und die Wahrscheinlichkeit zu erhöhen, dass Ziele mit bösartigen Inhalten interagieren.“ " er erklärt.

Laut Small senkt die Einführung von KI auch die Eintrittsbarriere für die Durchführung solcher Angriffe, ein Faktor, der in diesem Jahr wahrscheinlich zu einem Anstieg der Anzahl von Kampagnen führen wird, die unter anderem versuchen, Kampagnen zu infiltrieren oder Kandidatenkonten zu Identitätsfälschungszwecken zu übernehmen.

„Kriminelle und nationalstaatliche Gegner passen Phishing- und Social-Engineering-Köder regelmäßig an aktuelle Ereignisse und beliebte Themen an, und diese Akteure werden mit ziemlicher Sicherheit versuchen, den Boom wahlbezogener digitaler Inhalte, die in diesem Jahr allgemein verbreitet werden, auszunutzen, um zu versuchen, schädliche Inhalte zu verbreiten.“ Inhalte an ahnungslose Benutzer weitergeben“, sagt er.

Abwehr von KI-Wahlbedrohungen

Um sich gegen diese Bedrohungen zu wehren, müssen sich Wahlhelfer und Wahlkämpfer der von GenAI ausgehenden Risiken bewusst sein und wissen, wie sie sich dagegen wehren können.

„Wahlbeamte und Kandidaten geben ständig Interviews und Pressekonferenzen, aus denen Bedrohungsakteure Soundbits für KI-basierte Deepfakes ziehen können“, sagt James Turgal, Vizepräsident für Cyberrisiken bei Optiv. „Deshalb obliegt es ihnen, sicherzustellen, dass sie eine Person oder ein Team haben, die für die Kontrolle über die Inhalte verantwortlich sind.“

Sie müssen außerdem sicherstellen, dass Freiwillige und Mitarbeiter über KI-gestützte Bedrohungen wie verstärktes Social Engineering, die dahinter stehenden Bedrohungsakteure und die Reaktion auf verdächtige Aktivitäten geschult werden.

Zu diesem Zweck sollten die Mitarbeiter an Social-Engineering- und Deepfake-Videoschulungen teilnehmen, die Informationen über alle Formen und Angriffsmethoden umfassen, einschließlich elektronischer (E-Mail, Text- und Social-Media-Plattformen), persönlicher und telefonischer Angriffsversuche.

„Das ist besonders bei Freiwilligen so wichtig, weil nicht jeder über eine gute Cyberhygiene verfügt“, sagt Turgal.

Darüber hinaus müssen Wahlkampf- und Wahlhelfer darin geschult werden, wie sie Informationen sicher online und an externe Stellen, einschließlich Social-Media-Beiträgen, weitergeben und dabei Vorsicht walten lassen.

„Cyber-Bedrohungsakteure können diese Informationen sammeln, um Social-Engineering-Köder auf bestimmte Ziele abzustimmen“, warnt er.

O'Reilly sagt: Langfristige Regulierung, die Folgendes umfasst Wasserzeichen für Audio- und Video-Deepfakes wird von entscheidender Bedeutung sein, da die Bundesregierung mit den Eigentümern von LLMs zusammenarbeitet, um Schutzmaßnahmen zu schaffen.

Tatsächlich ist die Die Federal Communications Commission (FCC) hat gerade erklärt KI-generierte Sprachanrufe werden gemäß dem Telephone Consumer Protection Act (TCPA) als „künstlich“ eingestuft, wobei die Nutzung der Voice-Cloning-Technologie illegal ist und den Generalstaatsanwälten im ganzen Land neue Tools zur Bekämpfung solcher betrügerischer Aktivitäten zur Verfügung gestellt werden.

„KI schreitet so schnell voran, dass die Gefahr besteht, dass alle vorgeschlagenen Regeln mit fortschreitender Technologie unwirksam werden und möglicherweise ihr Ziel verfehlen“, sagt O'Reilly. „In gewisser Weise ist es der Wilde Westen, und KI kommt ohne große Sicherheitsvorkehrungen auf den Markt.“

Zeitstempel:

Mehr von Dunkle Lektüre