Deepfake Democracy: AI-teknologi komplicerer valgsikkerhed

Deepfake Democracy: AI-teknologi komplicerer valgsikkerhed

Deepfake Democracy: AI-teknologi komplicerer valgsikkerhed PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Seneste begivenheder, inklusive en kunstig intelligens (AI)-genereret deepfake robocall efterligner præsident Biden at opfordre New Hampshire-vælgere til at afholde sig fra primærvalget, tjener som en skarp påmindelse om, at ondsindede aktører i stigende grad ser moderne generative AI-platforme (GenAI) som et potent våben til at målrette mod amerikanske valg.

Platforme som ChatGPT, Googles Gemini (tidligere Bard) eller et hvilket som helst antal specialbyggede Dark Web store sprogmodeller (LLM'er) kan spille en rolle i at forstyrre den demokratiske proces med angreb, der omfatter masseindflydelseskampagner, automatiseret trolling og spredning af dybt falsk indhold.

Faktisk FBI-direktør Christopher Wray for nylig udtrykt bekymring om igangværende informationskrigsførelse ved hjælp af deepfakes, der kan så desinformation under den kommende præsidentkampagne, som statsstøttede aktører forsøg på at påvirke geopolitiske balancer.

GenAI kunne også automatisere fremkomsten af ​​"koordineret uautentisk adfærd” netværk, der forsøger at udvikle publikum til deres desinformationskampagner gennem falske nyhedsmedier, overbevisende sociale medieprofiler og andre veje – med det formål at så splid og underminere offentlighedens tillid til valgprocessen.

Valgpåvirkning: Betydelige risici og mareridtsscenarier

Set fra Padraic O'Reilly, Chief innovation Officer for CyberSaint, er risikoen "væsentlig", fordi teknologien udvikler sig så hurtigt.

"Det lover at blive interessant og måske også en smule alarmerende, da vi ser nye varianter af desinformation, der udnytter deepfake-teknologi," siger han.

Specifikt, siger O'Reilly, "mareridtsscenariet" er, at mikromålretning med AI-genereret indhold vil sprede sig på sociale medieplatforme. Det er en velkendt taktik fra Cambridge Analytica skandale, hvor virksomheden samlede psykologiske profildata på 230 millioner amerikanske vælgere, for at kunne servere meget skræddersyede beskeder via Facebook til enkeltpersoner i et forsøg på at påvirke deres overbevisninger - og stemmer. Men GenAI kunne automatisere denne proces i stor skala og skabe meget overbevisende indhold, der ville have få, om nogen, "bot"-egenskaber, der kunne slå folk fra.

"Stjålne målretningsdata [personlighedsøjebliksbilleder af, hvem en bruger er og deres interesser] fusioneret med AI-genereret indhold er en reel risiko," forklarer han. "De russiske desinformationskampagner i 2013-2017 tyder på, hvad der ellers kunne og vil ske, og vi kender til dybe falske forfalskninger genereret af amerikanske borgere [som den] med Biden, og Elizabeth Warren".

Blandingen af ​​sociale medier og let tilgængelig deepfake-teknologi kunne være et dommedagsvåben til polarisering af amerikanske borgere i et allerede dybt splittet land, tilføjer han.

"Demokrati er baseret på visse fælles traditioner og information, og faren her er øget balkanisering blandt borgerne, hvilket fører til det, Stanford-forskeren Renée DiResta kaldte 'skræddersyede realiteter'," siger O'Reilly, også kendt som folk, der tror på "alternative fakta."

De platforme, som trusselsaktører bruger til at så splittelse, vil sandsynligvis være til ringe hjælp: Han tilføjer, at for eksempel den sociale medieplatform X, tidligere kendt som Twitter, har spoleret sin kvalitetssikring (QA) på indhold.

"De andre platforme har givet forsikringer om, at de vil adressere desinformation, men ytringsfrihedsbeskyttelse og mangel på regulering lader stadig feltet stå åbent for dårlige aktører," advarer han.

AI forstærker eksisterende phishing-TTP'er

GenAI bliver allerede brugt til at lave mere troværdige, målrettede phishing-kampagner i stor skala - men i forbindelse med valgsikkerhed er dette fænomen mere bekymrende, ifølge Scott Small, direktør for cybertrusselsefterretning hos Tidal Cyber.

"Vi forventer at se cybermodstandere, der anvender generativ AI for at gøre phishing- og social engineering-angreb - de førende former for valgrelaterede angreb i form af ensartet volumen over mange år - mere overbevisende, hvilket gør det mere sandsynligt, at mål vil interagere med ondsindet indhold, ” forklarer han.

Small siger, at AI-adoption også sænker adgangsbarrieren for at lancere sådanne angreb, en faktor, der sandsynligvis vil øge mængden af ​​kampagner i år, der forsøger at infiltrere kampagner eller overtage kandidatkonti til efterligningsformål, blandt andre potentialer.

"Kriminelle og nationalstatsmodstandere tilpasser regelmæssigt phishing og social engineering lokkemidler til aktuelle begivenheder og populære temaer, og disse aktører vil næsten helt sikkert forsøge at udnytte boomet i valgrelateret digitalt indhold, der distribueres generelt i år, for at forsøge at levere ondsindet indhold til intetanende brugere,” siger han.

Forsvar mod AI-valgtrusler

For at forsvare sig mod disse trusler skal valgembedsmænd og kampagner være opmærksomme på GenAI-drevne risici, og hvordan man forsvarer sig mod dem.

"Valgfunktionærer og kandidater giver konstant interviews og pressekonferencer, som trusselsaktører kan trække lyd fra for AI-baserede deepfakes," siger James Turgal, vicepræsident for cyber-risk hos Optiv. "Derfor påhviler det dem at sikre, at de har en person eller et team på plads, der er ansvarlig for at sikre kontrol over indhold."

De skal også sørge for, at frivillige og arbejdere er uddannet i AI-drevne trusler som forbedret social engineering, trusselsaktørerne bag dem, og hvordan man reagerer på mistænkelig aktivitet.

Til det formål bør personalet deltage i social engineering og deepfake videotræning, der omfatter information om alle former og angrebsvektorer, inklusive elektroniske (e-mail, tekst og sociale medieplatforme), personligt og telefonbaserede forsøg.

"Dette er så vigtigt - især med frivillige - fordi ikke alle har god cyberhygiejne," siger Turgal.

Derudover skal kampagne- og valgfrivillige trænes i, hvordan de sikkert kan give information online og til eksterne enheder, herunder opslag på sociale medier, og udvise forsigtighed, når de gør det.

"Cybertrusselsaktører kan indsamle denne information for at skræddersy socialt konstruerede lokker til specifikke mål," advarer han.

O'Reilly siger langsigtet, regulering, der omfatter vandmærke til lyd- og videodeepfakes vil være medvirkende, og bemærker, at den føderale regering arbejder sammen med ejerne af LLM'er for at sætte beskyttelse på plads.

Faktisk den Federal Communications Commission (FCC) har netop erklæret AI-genererede taleopkald som "kunstige" i henhold til Telephone Consumer Protection Act (TCPA), der gør brug af stemmekloningsteknologi ulovlig og giver statsadvokater i hele landet nye værktøjer til at bekæmpe sådanne svigagtige aktiviteter.

"AI bevæger sig så hurtigt, at der er en iboende fare for, at eventuelle foreslåede regler kan blive ineffektive, efterhånden som teknologien udvikler sig, og potentielt misse målet," siger O'Reilly. "På nogle måder er det det vilde vesten, og kunstig intelligens kommer på markedet med meget lidt sikkerhedsforanstaltninger."

Tidsstempel:

Mere fra Mørk læsning