Deepfake-democratie: AI-technologie compliceert verkiezingsveiligheid

Deepfake-democratie: AI-technologie compliceert verkiezingsveiligheid

Deepfake-democratie: AI-technologie compliceert verkiezingsbeveiliging PlatoBlockchain-data-intelligentie. Verticaal zoeken. Ai.

Recente gebeurtenissen, waaronder een door kunstmatige intelligentie (AI) gegenereerde deepfake robocall die zich voordoet als president Biden Door er bij de kiezers in New Hampshire op aan te dringen zich te onthouden van de voorverkiezingen, dient dit als een grimmige herinnering dat kwaadwillende actoren moderne generatieve AI (GenAI)-platforms steeds meer zien als een krachtig wapen om zich op Amerikaanse verkiezingen te richten.

Platforms zoals ChatGPT, Google's Gemini (voorheen Bard) of een aantal speciaal gebouwde Dark Web-grote taalmodellen (LLM's) zouden een rol kunnen spelen bij het verstoren van het democratische proces, met aanvallen die massa-invloedcampagnes, geautomatiseerd trollen en de proliferatie van massa-invloedcampagnes omvatten. deepfake-inhoud.

Sterker nog, FBI-directeur Christopher Wray onlangs hun zorgen geuit over de voortdurende informatieoorlog waarbij gebruik wordt gemaakt van deepfakes die desinformatie zouden kunnen zaaien tijdens de komende presidentiรซle campagne, zoals door de staat gesteunde actoren proberen het geopolitieke evenwicht te beรฏnvloeden.

GenAI zou ook de opkomst van โ€œgecoรถrdineerd niet-authentiek gedragโ€˜netwerken die proberen een publiek te ontwikkelen voor hun desinformatiecampagnes via nepnieuws, overtuigende socialemediaprofielen en andere wegen โ€“ met als doel verdeeldheid te zaaien en het vertrouwen van het publiek in het verkiezingsproces te ondermijnen.

Verkiezingsinvloed: aanzienlijke risico's en nachtmerriescenario's

Vanuit het perspectief van Padraic O'Reilly, hoofd innovatie bij CyberSaint, is het risico โ€œsubstantieelโ€ omdat de technologie zo snel evolueert.

โ€œHet belooft interessant en misschien ook een beetje alarmerend te worden, omdat we nieuwe varianten van desinformatie zien die gebruik maken van deepfake-technologieโ€, zegt hij.

Concreet, zegt O'Reilly, is het โ€œnachtmerriescenarioโ€ dat microtargeting met door AI gegenereerde inhoud zich zal verspreiden op sociale-mediaplatforms. Dat is een bekende tactiek van de Cambridge Analytica-schandaal, waar het bedrijf psychologische profielgegevens verzamelde van 230 miljoen Amerikaanse kiezers, om via Facebook zeer op maat gemaakte berichten aan individuen te kunnen aanbieden in een poging hun overtuigingen โ€“ en stemmen โ€“ te beรฏnvloeden. Maar GenAI zou dat proces op grote schaal kunnen automatiseren en zeer overtuigende inhoud kunnen creรซren die weinig of geen โ€˜botโ€™-kenmerken zou hebben die mensen zouden kunnen afschrikken.

โ€œGestolen targetinggegevens [persoonlijkheidsmomentopnamen van wie een gebruiker is en zijn interesses] gecombineerd met door AI gegenereerde inhoud vormen een reรซel risicoโ€, legt hij uit. โ€œDe Russische desinformatiecampagnes van 2013-2017 suggereren wat er nog meer zou kunnen en zullen gebeuren, en we kennen deepfakes die zijn gegenereerd door Amerikaanse burgers [zoals die] met Biden, en Elizabeth Warren. '

De mix van sociale media en gemakkelijk beschikbare deepfake-technologie zou een doemscenario kunnen zijn voor de polarisatie van Amerikaanse burgers in een toch al diep verdeeld land, voegt hij eraan toe.

โ€œDemocratie is gebaseerd op bepaalde gedeelde tradities en informatie, en het gevaar hier is een toegenomen balkanisering onder burgers, wat leidt tot wat de Stanford-onderzoeker Renรฉe DiResta โ€˜op maat gemaakte realiteitenโ€™ noemdeโ€, zegt Oโ€™Reilly, oftewel mensen die in โ€œalternatieve feitenโ€ geloven.

De platforms die bedreigingsactoren gebruiken om verdeeldheid te zaaien zullen waarschijnlijk weinig helpen: hij voegt eraan toe dat bijvoorbeeld het sociale mediaplatform X, voorheen bekend als Twitter, zijn kwaliteitsborging (QA) op inhoud heeft gestript.

โ€œDe andere platforms hebben de standaardgarantie gegeven dat ze desinformatie zullen aanpakken, maar de bescherming van de vrijheid van meningsuiting en het gebrek aan regulering laten het veld nog steeds wijd open voor slechte actorenโ€, waarschuwt hij.

AI versterkt bestaande phishing-TTP's

GenAI wordt al gebruikt om geloofwaardigere, gerichte phishing-campagnes op grote schaal te ontwikkelen โ€“ maar in de context van verkiezingsveiligheid is dit fenomeen zorgwekkender, aldus Scott Small, directeur cyberdreigingsinformatie bij Tidal Cyber.

โ€œWe verwachten dat cyber-tegenstanders generatieve AI zullen adopteren om phishing- en social engineering-aanvallen โ€“ de belangrijkste vormen van verkiezingsgerelateerde aanvallen in termen van consistent volume gedurende vele jaren โ€“ overtuigender te maken, waardoor het waarschijnlijker wordt dat doelen zullen interageren met kwaadaardige inhoud. " hij legt uit.

Small zegt dat de adoptie van AI ook de toegangsdrempel voor het lanceren van dergelijke aanvallen verlaagt, een factor die dit jaar waarschijnlijk het aantal campagnes zal vergroten die proberen campagnes te infiltreren of kandidaat-accounts over te nemen voor onder meer imitatiedoeleinden.

โ€œCriminele tegenstanders en tegenstanders van de natiestaten passen phishing- en social engineering-lokmiddelen regelmatig aan op actuele gebeurtenissen en populaire themaโ€™s, en deze actoren zullen vrijwel zeker proberen te profiteren van de hausse aan verkiezingsgerelateerde digitale inhoud die dit jaar algemeen wordt verspreid, om te proberen kwaadwillige inhoud aan nietsvermoedende gebruikersโ€, zegt hij.

Verdedigen tegen AI-verkiezingsbedreigingen

Om zich tegen deze bedreigingen te verdedigen, moeten verkiezingsfunctionarissen en campagnes zich bewust zijn van de door GenAI aangedreven risico's en hoe ze zich daartegen kunnen verdedigen.

โ€œVerkiezingsfunctionarissen en kandidaten geven voortdurend interviews en persconferenties waaruit bedreigingsactoren soundbites kunnen halen voor op AI gebaseerde deepfakesโ€, zegt James Turgal, vice-president cyberrisico bij Optiv. โ€œDaarom is het hun taak om ervoor te zorgen dat ze een persoon of team hebben dat verantwoordelijk is voor het waarborgen van de controle over de inhoud.โ€

Ze moeten er ook voor zorgen dat vrijwilligers en werknemers worden getraind in AI-aangedreven bedreigingen, zoals verbeterde social engineering, de dreigingsactoren erachter en hoe te reageren op verdachte activiteiten.

Daartoe moet het personeel deelnemen aan social engineering- en deepfake-videotrainingen die informatie bevatten over alle vormen en aanvalsvectoren, inclusief elektronische (e-mail-, tekst- en sociale-mediaplatforms), persoonlijke en telefonische pogingen.

โ€œDit is zo belangrijk โ€“ vooral als het om vrijwilligers gaat โ€“ omdat niet iedereen over een goede cyberhygiรซne beschiktโ€, zegt Turgal.

Bovendien moeten campagne- en verkiezingsvrijwilligers worden getraind in het veilig verstrekken van informatie online en aan externe entiteiten, inclusief berichten op sociale media, en moeten ze daarbij voorzichtig zijn.

โ€œActeurs van cyberbedreigingen kunnen deze informatie verzamelen om sociaal ontworpen kunstaas op specifieke doelen af โ€‹โ€‹te stemmenโ€, waarschuwt hij.

O'Reilly zegt dat regelgeving op de lange termijn omvat watermerken voor deepfakes van audio en video zal een belangrijke rol spelen, waarbij wordt opgemerkt dat de federale overheid samenwerkt met de eigenaren van LLMโ€™s om bescherming te bieden.

In feite is de Dat heeft de Federal Communications Commission (FCC) zojuist verklaard Door AI gegenereerde spraakoproepen worden als โ€˜kunstmatigโ€™ beschouwd onder de Telephone Consumer Protection Act (TCPA), waardoor het gebruik van spraakkloontechnologie illegaal is en procureurs-generaal in het hele land nieuwe instrumenten krijgen om dergelijke frauduleuze activiteiten te bestrijden.

โ€œAI ontwikkelt zich zo snel dat er een inherent gevaar bestaat dat voorgestelde regels ineffectief worden naarmate de technologie zich verder ontwikkelt, waardoor ze mogelijk hun doel missenโ€, zegt O'Reilly. โ€œIn sommige opzichten is het het Wilde Westen en komt AI op de markt met heel weinig waarborgen.โ€

Tijdstempel:

Meer van Donkere lezing