Deepfake Democracy: AI-teknologi kompliserer valgsikkerhet

Deepfake Democracy: AI-teknologi kompliserer valgsikkerhet

Deepfake Democracy: AI-teknologi kompliserer valgsikkerhet PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Nylige hendelser, inkludert en deepfake generert av kunstig intelligens (AI). robocall etterligner president Biden oppfordrer velgere i New Hampshire til å avstå fra primærvalget, tjener som en sterk påminnelse om at ondsinnede aktører i økende grad ser på moderne generative AI (GenAI)-plattformer som et potent våpen for å målrette amerikanske valg.

Plattformer som ChatGPT, Googles Gemini (tidligere Bard), eller et hvilket som helst antall spesialbygde Dark Web large language models (LLMs) kan spille en rolle i å forstyrre den demokratiske prosessen, med angrep som omfatter massepåvirkningskampanjer, automatisert trolling og spredning av dypfalsk innhold.

Faktisk FBI-direktør Christopher Wray nylig uttrykt bekymring om pågående informasjonskrigføring ved bruk av dype forfalskninger som kan så desinformasjon under den kommende presidentkampanjen, som statsstøttede aktører forsøk på å påvirke geopolitiske balanser.

GenAI kan også automatisere fremveksten av "koordinert uautentisk oppførsel"-nettverk som forsøker å utvikle publikum for sine desinformasjonskampanjer gjennom falske nyhetskanaler, overbevisende sosiale medier-profiler og andre veier - med målet om å så splid og undergrave offentlig tillit til valgprosessen.

Valgpåvirkning: Betydelige risikoer og marerittscenarier

Fra perspektivet til Padraic O'Reilly, innovasjonssjef for CyberSaint, er risikoen "betydelig" fordi teknologien utvikler seg så raskt.

"Det lover å bli interessant og kanskje litt alarmerende også, ettersom vi ser nye varianter av desinformasjon som utnytter dypfalsk teknologi," sier han.

Spesifikt, sier O'Reilly, er "marerittscenarioet" at mikromålretting med AI-generert innhold vil spre seg på sosiale medieplattformer. Det er en kjent taktikk fra Cambridge Analytica-skandalen, der selskapet samlet psykologiske profildata på 230 millioner amerikanske velgere, for å kunne tilby svært skreddersydde meldinger via Facebook til enkeltpersoner i et forsøk på å påvirke deres tro – og stemmer. Men GenAI kunne automatisere denne prosessen i stor skala, og skape svært overbevisende innhold som ville ha få, om noen, «bot»-egenskaper som kan slå folk av.

"Stjålne målrettingsdata [personlighetsøyeblikksbilder av hvem en bruker er og deres interesser] slått sammen med AI-generert innhold er en reell risiko," forklarer han. "De russiske desinformasjonskampanjene i 2013–2017 antyder hva annet kan og vil skje, og vi vet om dype forfalskninger generert av amerikanske borgere [som den] med Biden, og Elizabeth Warren».

Blandingen av sosiale medier og lett tilgjengelig deepfake-teknologi kan være et dommedagsvåpen for polarisering av amerikanske borgere i et allerede dypt splittet land, legger han til.

"Demokrati er basert på visse delte tradisjoner og informasjon, og faren her er økt balkanisering blant innbyggerne, noe som fører til det Stanford-forskeren Renée DiResta kalte "skreddersydde realiteter," sier O'Reilly, også kjent som folk som tror på "alternative fakta."

Plattformene som trusselaktører bruker for å så splittelse vil sannsynligvis være til liten hjelp: Han legger til at for eksempel den sosiale medieplattformen X, tidligere kjent som Twitter, har sløyd sin kvalitetssikring (QA) på innhold.

"De andre plattformene har gitt forsikringer om at de vil adressere desinformasjon, men ytringsfrihet og mangel på regulering lar fortsatt feltet stå åpent for dårlige aktører," advarer han.

AI forsterker eksisterende phishing-TTPer

GenAI brukes allerede til å lage mer troverdige, målrettede phishing-kampanjer i stor skala – men i sammenheng med valgsikkerhet er dette fenomenet mer bekymringsfullt, ifølge Scott Small, direktør for cybertrusselsetterretning i Tidal Cyber.

"Vi forventer å se cybermotstandere som tar i bruk generativ AI for å gjøre phishing- og sosialteknikkangrep - de ledende formene for valgrelaterte angrep når det gjelder konsistent volum over mange år - mer overbevisende, noe som gjør det mer sannsynlig at mål vil samhandle med skadelig innhold, " forklarer han.

Small sier at AI-adopsjon også senker adgangsbarrieren for å starte slike angrep, en faktor som sannsynligvis vil øke volumet av kampanjer i år som prøver å infiltrere kampanjer eller overta kandidatkontoer for etterligningsformål, blant annet.

«Kriminal- og nasjonalstatsmotstandere tilpasser regelmessig phishing og sosial ingeniørkunst til aktuelle hendelser og populære temaer, og disse aktørene vil nesten helt sikkert prøve å utnytte boomen i valgrelatert digitalt innhold som distribueres generelt i år, for å prøve å levere ondsinnet innhold til intetanende brukere, sier han.

Forsvar mot AI-valgtrusler

For å forsvare seg mot disse truslene, må valgfunksjonærer og kampanjer være klar over GenAI-drevne risikoer og hvordan de kan forsvare seg mot dem.

"Valgfunksjonærer og kandidater gir stadig intervjuer og pressekonferanser som trusselaktører kan trekke lydbiter fra for AI-baserte deepfakes," sier James Turgal, visepresident for cyber-risk i Optiv. "Derfor er det deres plikt å sørge for at de har en person eller et team på plass som er ansvarlig for å sikre kontroll over innholdet."

De må også sørge for at frivillige og arbeidere er opplært i AI-drevne trusler som forbedret sosial ingeniørkunst, trusselaktørene bak dem og hvordan de skal reagere på mistenkelig aktivitet.

For dette formål bør ansatte delta i sosial ingeniørkunst og dypfalsk videoopplæring som inkluderer informasjon om alle former og angrepsvektorer, inkludert elektroniske (e-post-, tekst- og sosiale medieplattformer), personlig og telefonbaserte forsøk.

"Dette er så viktig - spesielt med frivillige - fordi ikke alle har god cyberhygiene," sier Turgal.

I tillegg må valgkamp- og valgfrivillige få opplæring i hvordan de trygt kan gi informasjon på nettet og til eksterne enheter, inkludert innlegg på sosiale medier, og utvise forsiktighet når de gjør det.

"Skybertrusselaktører kan samle denne informasjonen for å skreddersy sosialt konstruerte lokker til spesifikke mål," advarer han.

O'Reilly sier langsiktig, regulering som inkluderer vannmerking for lyd- og videodeepfakes vil være medvirkende, og bemerker at den føderale regjeringen samarbeider med eierne av LLM-er for å få på plass beskyttelse.

Faktisk Federal Communications Commission (FCC) har nettopp erklært AI-genererte taleanrop som "kunstige" i henhold til Telephone Consumer Protection Act (TCPA), som gjør bruk av stemmekloningsteknologi ulovlig og gir statsadvokater over hele landet nye verktøy for å bekjempe slike uredelige aktiviteter.

"AI beveger seg så raskt at det er en iboende fare for at eventuelle foreslåtte regler kan bli ineffektive etter hvert som teknologien skrider frem, og potensielt misse målet," sier O'Reilly. "På noen måter er det det ville vesten, og AI kommer på markedet med svært lite sikkerhetstiltak."

Tidstempel:

Mer fra Mørk lesning