Deepfake Democracy: AI-teknik komplicerar valsäkerheten

Deepfake Democracy: AI-teknik komplicerar valsäkerheten

Deepfake Democracy: AI-teknik komplicerar valsäkerhet PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Senaste händelser, inklusive en artificiell intelligens (AI)-genererad deepfake robocall som imiterar president Biden Att uppmana väljarna i New Hampshire att avstå från primärvalet, tjänar som en skarp påminnelse om att illvilliga aktörer i allt högre grad ser moderna generativa AI-plattformar (GenAI) som ett kraftfullt vapen för att rikta in sig på amerikanska val.

Plattformar som ChatGPT, Googles Gemini (tidigare Bard) eller valfritt antal specialbyggda Dark Web large language models (LLMs) kan spela en roll i att störa den demokratiska processen, med attacker som omfattar massinflytandekampanjer, automatiserad trolling och spridningen av deepfake innehåll.

Faktum är att FBI-chefen Christopher Wray nyligen uttryckt oro om pågående informationskrigföring med djupförfalskningar som kan så desinformation under den kommande presidentkampanjen, som statsstödda aktörer försök att påverka geopolitiska balanser.

GenAI kan också automatisera uppkomsten av "koordinerat inauthentiskt beteende” nätverk som försöker utveckla publik för sina desinformationskampanjer genom falska nyhetskanaler, övertygande sociala medier-profiler och andra vägar – med målet att så oenighet och undergräva allmänhetens förtroende för valprocessen.

Valpåverkan: betydande risker och mardrömsscenarier

Ur perspektivet av Padraic O'Reilly, innovationschef för CyberSaint, är risken "betydande" eftersom tekniken utvecklas så snabbt.

"Det lovar att bli intressant och kanske lite alarmerande också, eftersom vi ser nya varianter av desinformation som utnyttjar deepfake-teknik", säger han.

Specifikt, säger O'Reilly, är "mardrömsscenariot" att mikrotargeting med AI-genererat innehåll kommer att spridas på sociala medieplattformar. Det är en bekant taktik från Cambridge Analytica-skandalen, där företaget samlade på sig psykologisk profildata på 230 miljoner amerikanska väljare, för att kunna erbjuda mycket skräddarsydda meddelanden via Facebook till individer i ett försök att påverka deras övertygelse – och röster. Men GenAI kunde automatisera den processen i stor skala och skapa mycket övertygande innehåll som skulle ha få, om några, "bot"-egenskaper som skulle kunna stänga av människor.

"Stulna inriktningsdata [personlighetsögonblicksbilder av vem en användare är och deras intressen] sammanslagna med AI-genererat innehåll är en verklig risk", förklarar han. "De ryska desinformationskampanjerna 2013–2017 tyder på vad annat kan och kommer att inträffa, och vi känner till djupa förfalskningar som genererats av amerikanska medborgare [som den] med Biden, och Elizabeth Warren. "

Blandningen av sociala medier och lättillgänglig deepfake-teknik kan vara ett domedagsvapen för polarisering av amerikanska medborgare i ett redan djupt splittrat land, tillägger han.

"Demokrati bygger på vissa delade traditioner och information, och faran här är ökad balkanisering bland medborgarna, vilket leder till vad Stanford-forskaren Renée DiResta kallade "skräddarsydda realiteter", säger O'Reilly, aka människor som tror på "alternativa fakta."

Plattformarna som hotaktörer använder för att så splittring kommer sannolikt att vara till liten hjälp: Han tillägger att till exempel den sociala medieplattformen X, tidigare känd som Twitter, har urholkat sin kvalitetssäkring (QA) på innehåll.

"De andra plattformarna har försäkrat att de kommer att ta itu med desinformation, men yttrandefrihetsskydd och bristande reglering lämnar fortfarande fältet öppet för dåliga aktörer", varnar han.

AI förstärker befintliga TTP:er för nätfiske

GenAI används redan för att skapa mer trovärdiga, riktade nätfiskekampanjer i stor skala - men i samband med valsäkerheten är detta fenomen mer oroande, enligt Scott Small, chef för cyberhotsintelligence på Tidal Cyber.

"Vi förväntar oss att se cybermotståndare som använder generativ AI för att göra nätfiske- och social ingenjörsattacker – de ledande formerna av valrelaterade attacker i termer av konsekvent volym under många år – mer övertygande, vilket gör det mer troligt att mål kommer att interagera med skadligt innehåll, " han förklarar.

Small säger att AI-antagande också sänker inträdesbarriären för att lansera sådana attacker, en faktor som sannolikt kommer att öka volymen av kampanjer i år som försöker infiltrera kampanjer eller ta över kandidatkonton i personifieringssyfte, bland annat.

"Kriminella och nationella motståndare anpassar regelbundet nätfiske och social ingenjörskonst till aktuella händelser och populära teman, och dessa aktörer kommer med största sannolikhet att försöka dra fördel av boomen i valrelaterat digitalt innehåll som distribueras generellt i år, för att försöka leverera skadligt innehåll till intet ont anande användare”, säger han.

Försvara sig mot AI-valhot

För att försvara sig mot dessa hot måste valtjänstemän och kampanjer vara medvetna om GenAI-drivna risker och hur man försvarar sig mot dem.

"Valtjänstemän och kandidater ger ständigt intervjuer och presskonferenser som hotaktörer kan dra ljud från för AI-baserade deepfakes", säger James Turgal, vice vd för cyberrisk på Optiv. "Därför är det deras skyldighet att se till att de har en person eller ett team på plats som ansvarar för att säkerställa kontroll över innehållet."

De måste också se till att volontärer och arbetare utbildas i AI-drivna hot som förbättrad social ingenjörskonst, hotaktörerna bakom dem och hur man reagerar på misstänkt aktivitet.

För detta ändamål bör personalen delta i social ingenjörskonst och deepfake-videoutbildning som inkluderar information om alla former och attackvektorer, inklusive elektroniska (e-post-, text- och sociala medieplattformar), personliga och telefonbaserade försök.

"Det här är så viktigt - särskilt med volontärer - eftersom inte alla har bra cyberhygien", säger Turgal.

Dessutom måste kampanj- och valvolontärer utbildas i hur man säkert tillhandahåller information online och till externa enheter, inklusive inlägg på sociala medier, och vara försiktig när de gör det.

"Cyberhotsaktörer kan samla in den här informationen för att skräddarsy socialt konstruerade beten till specifika mål", varnar han.

O'Reilly säger långsiktig, reglering som inkluderar vattenmärkning för ljud- och videodeepfakes kommer att vara avgörande, och noterar att den federala regeringen samarbetar med ägarna av LLM för att sätta skydd på plats.

I själva verket Federal Communications Commission (FCC) förklarade just AI-genererade röstsamtal som "konstgjorda" enligt Telephone Consumer Protection Act (TCPA), som använder sig av röstkloningsteknik som är olaglig och ger statliga åklagare över hela landet nya verktyg för att bekämpa sådana bedrägliga aktiviteter.

"AI rör sig så snabbt att det finns en inneboende risk att alla föreslagna regler kan bli ineffektiva när tekniken utvecklas, och potentiellt missa målet", säger O'Reilly. "På vissa sätt är det vilda västern, och AI kommer till marknaden med väldigt lite skydd."

Tidsstämpel:

Mer från Mörk läsning