Deepfake-democratie: AI-technologie compliceert verkiezingsveiligheid

Deepfake-democratie: AI-technologie compliceert verkiezingsveiligheid

Deepfake-democratie: AI-technologie compliceert verkiezingsbeveiliging PlatoBlockchain-data-intelligentie. Verticaal zoeken. Ai.

Recente gebeurtenissen, waaronder een door kunstmatige intelligentie (AI) gegenereerde deepfake robocall die zich voordoet als president Biden Door er bij de kiezers in New Hampshire op aan te dringen zich te onthouden van de voorverkiezingen, dient dit als een grimmige herinnering dat kwaadwillende actoren moderne generatieve AI (GenAI)-platforms steeds meer zien als een krachtig wapen om zich op Amerikaanse verkiezingen te richten.

Platforms zoals ChatGPT, Google's Gemini (voorheen Bard) of een aantal speciaal gebouwde Dark Web-grote taalmodellen (LLM's) zouden een rol kunnen spelen bij het verstoren van het democratische proces, met aanvallen die massa-invloedcampagnes, geautomatiseerd trollen en de proliferatie van massa-invloedcampagnes omvatten. deepfake-inhoud.

Sterker nog, FBI-directeur Christopher Wray onlangs hun zorgen geuit over de voortdurende informatieoorlog waarbij gebruik wordt gemaakt van deepfakes die desinformatie zouden kunnen zaaien tijdens de komende presidentiële campagne, zoals door de staat gesteunde actoren proberen het geopolitieke evenwicht te beïnvloeden.

GenAI zou ook de opkomst van “gecoördineerd niet-authentiek gedrag‘netwerken die proberen een publiek te ontwikkelen voor hun desinformatiecampagnes via nepnieuws, overtuigende socialemediaprofielen en andere wegen – met als doel verdeeldheid te zaaien en het vertrouwen van het publiek in het verkiezingsproces te ondermijnen.

Verkiezingsinvloed: aanzienlijke risico's en nachtmerriescenario's

Vanuit het perspectief van Padraic O'Reilly, hoofd innovatie bij CyberSaint, is het risico “substantieel” omdat de technologie zo snel evolueert.

“Het belooft interessant en misschien ook een beetje alarmerend te worden, omdat we nieuwe varianten van desinformatie zien die gebruik maken van deepfake-technologie”, zegt hij.

Concreet, zegt O'Reilly, is het “nachtmerriescenario” dat microtargeting met door AI gegenereerde inhoud zich zal verspreiden op sociale-mediaplatforms. Dat is een bekende tactiek van de Cambridge Analytica-schandaal, waar het bedrijf psychologische profielgegevens verzamelde van 230 miljoen Amerikaanse kiezers, om via Facebook zeer op maat gemaakte berichten aan individuen te kunnen aanbieden in een poging hun overtuigingen – en stemmen – te beïnvloeden. Maar GenAI zou dat proces op grote schaal kunnen automatiseren en zeer overtuigende inhoud kunnen creëren die weinig of geen ‘bot’-kenmerken zou hebben die mensen zouden kunnen afschrikken.

“Gestolen targetinggegevens [persoonlijkheidsmomentopnamen van wie een gebruiker is en zijn interesses] gecombineerd met door AI gegenereerde inhoud vormen een reëel risico”, legt hij uit. “De Russische desinformatiecampagnes van 2013-2017 suggereren wat er nog meer zou kunnen en zullen gebeuren, en we kennen deepfakes die zijn gegenereerd door Amerikaanse burgers [zoals die] met Biden, en Elizabeth Warren. '

De mix van sociale media en gemakkelijk beschikbare deepfake-technologie zou een doemscenario kunnen zijn voor de polarisatie van Amerikaanse burgers in een toch al diep verdeeld land, voegt hij eraan toe.

“Democratie is gebaseerd op bepaalde gedeelde tradities en informatie, en het gevaar hier is een toegenomen balkanisering onder burgers, wat leidt tot wat de Stanford-onderzoeker Renée DiResta ‘op maat gemaakte realiteiten’ noemde”, zegt O’Reilly, oftewel mensen die in “alternatieve feiten” geloven.

De platforms die bedreigingsactoren gebruiken om verdeeldheid te zaaien zullen waarschijnlijk weinig helpen: hij voegt eraan toe dat bijvoorbeeld het sociale mediaplatform X, voorheen bekend als Twitter, zijn kwaliteitsborging (QA) op inhoud heeft gestript.

“De andere platforms hebben de standaardgarantie gegeven dat ze desinformatie zullen aanpakken, maar de bescherming van de vrijheid van meningsuiting en het gebrek aan regulering laten het veld nog steeds wijd open voor slechte actoren”, waarschuwt hij.

AI versterkt bestaande phishing-TTP's

GenAI wordt al gebruikt om geloofwaardigere, gerichte phishing-campagnes op grote schaal te ontwikkelen – maar in de context van verkiezingsveiligheid is dit fenomeen zorgwekkender, aldus Scott Small, directeur cyberdreigingsinformatie bij Tidal Cyber.

“We verwachten dat cyber-tegenstanders generatieve AI zullen adopteren om phishing- en social engineering-aanvallen – de belangrijkste vormen van verkiezingsgerelateerde aanvallen in termen van consistent volume gedurende vele jaren – overtuigender te maken, waardoor het waarschijnlijker wordt dat doelen zullen interageren met kwaadaardige inhoud. " hij legt uit.

Small zegt dat de adoptie van AI ook de toegangsdrempel voor het lanceren van dergelijke aanvallen verlaagt, een factor die dit jaar waarschijnlijk het aantal campagnes zal vergroten die proberen campagnes te infiltreren of kandidaat-accounts over te nemen voor onder meer imitatiedoeleinden.

“Criminele tegenstanders en tegenstanders van de natiestaten passen phishing- en social engineering-lokmiddelen regelmatig aan op actuele gebeurtenissen en populaire thema’s, en deze actoren zullen vrijwel zeker proberen te profiteren van de hausse aan verkiezingsgerelateerde digitale inhoud die dit jaar algemeen wordt verspreid, om te proberen kwaadwillige inhoud aan nietsvermoedende gebruikers”, zegt hij.

Verdedigen tegen AI-verkiezingsbedreigingen

Om zich tegen deze bedreigingen te verdedigen, moeten verkiezingsfunctionarissen en campagnes zich bewust zijn van de door GenAI aangedreven risico's en hoe ze zich daartegen kunnen verdedigen.

“Verkiezingsfunctionarissen en kandidaten geven voortdurend interviews en persconferenties waaruit bedreigingsactoren soundbites kunnen halen voor op AI gebaseerde deepfakes”, zegt James Turgal, vice-president cyberrisico bij Optiv. “Daarom is het hun taak om ervoor te zorgen dat ze een persoon of team hebben dat verantwoordelijk is voor het waarborgen van de controle over de inhoud.”

Ze moeten er ook voor zorgen dat vrijwilligers en werknemers worden getraind in AI-aangedreven bedreigingen, zoals verbeterde social engineering, de dreigingsactoren erachter en hoe te reageren op verdachte activiteiten.

Daartoe moet het personeel deelnemen aan social engineering- en deepfake-videotrainingen die informatie bevatten over alle vormen en aanvalsvectoren, inclusief elektronische (e-mail-, tekst- en sociale-mediaplatforms), persoonlijke en telefonische pogingen.

“Dit is zo belangrijk – vooral als het om vrijwilligers gaat – omdat niet iedereen over een goede cyberhygiëne beschikt”, zegt Turgal.

Bovendien moeten campagne- en verkiezingsvrijwilligers worden getraind in het veilig verstrekken van informatie online en aan externe entiteiten, inclusief berichten op sociale media, en moeten ze daarbij voorzichtig zijn.

“Acteurs van cyberbedreigingen kunnen deze informatie verzamelen om sociaal ontworpen kunstaas op specifieke doelen af ​​te stemmen”, waarschuwt hij.

O'Reilly zegt dat regelgeving op de lange termijn omvat watermerken voor deepfakes van audio en video zal een belangrijke rol spelen, waarbij wordt opgemerkt dat de federale overheid samenwerkt met de eigenaren van LLM’s om bescherming te bieden.

In feite is de Dat heeft de Federal Communications Commission (FCC) zojuist verklaard Door AI gegenereerde spraakoproepen worden als ‘kunstmatig’ beschouwd onder de Telephone Consumer Protection Act (TCPA), waardoor het gebruik van spraakkloontechnologie illegaal is en procureurs-generaal in het hele land nieuwe instrumenten krijgen om dergelijke frauduleuze activiteiten te bestrijden.

“AI ontwikkelt zich zo snel dat er een inherent gevaar bestaat dat voorgestelde regels ineffectief worden naarmate de technologie zich verder ontwikkelt, waardoor ze mogelijk hun doel missen”, zegt O'Reilly. “In sommige opzichten is het het Wilde Westen en komt AI op de markt met heel weinig waarborgen.”

Tijdstempel:

Meer van Donkere lezing