Sügav võltsdemokraatia: AI-tehnoloogia muudab valimiste turvalisuse keeruliseks

Sügav võltsdemokraatia: AI-tehnoloogia muudab valimiste turvalisuse keeruliseks

Deepfake Democracy: AI Technology Complicates Election Security PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Hiljutised sündmused, sealhulgas tehisintellekti (AI) loodud süvavõltsing robocal, mis kehastab president Bidenit kutsudes New Hampshire'i valijaid üles eelvalimistest hoiduma, tuletab meelde, et pahatahtlikud osalejad peavad tänapäevaseid generatiivseid tehisintellekti (GenAI) platvorme üha enam võimsaks relvaks USA valimiste sihtimisel.

Sellised platvormid nagu ChatGPT, Google'i Gemini (endine Bard) või mitmed sihipäraselt loodud Dark Web’i suured keelemudelid (LLM-id) võivad mängida rolli demokraatliku protsessi häirimisel, kusjuures rünnakud hõlmavad massilise mõjutamise kampaaniaid, automatiseeritud trollimist ja nende levikut. sügavvõltsitud sisu.

Tegelikult FBI direktor Christopher Wray hiljuti väljendatud muret käimasoleva infosõja kohta, milles kasutatakse sügavaid võltsinguid, mis võivad eelseisva presidendikampaania ajal desinformatsiooni külvata, riigi toetatud näitlejad püüda kõigutada geopoliitilist tasakaalu.

GenAI võib automatiseerida ka "koordineeritud ebaautentne käitumine” võrgustikud, mis püüavad võltsitud uudisteväljaannete, veenvate sotsiaalmeediaprofiilide ja muude võimaluste kaudu arendada oma desinformatsioonikampaaniate sihtrühma, eesmärgiga külvata lahkarvamusi ja õõnestada üldsuse usaldust valimisprotsessi vastu.

Valimiste mõju: olulised riskid ja õudusunenägude stsenaariumid

CyberSainti innovatsioonijuhi Padraic O'Reilly vaatenurgast on risk "oluline", kuna tehnoloogia areneb nii kiiresti.

"See tõotab olla huvitav ja võib-olla ka pisut murettekitav, kuna näeme desinformatsiooni uusi variante, mis kasutavad süvavõltsitud tehnoloogiat," ütleb ta.

Täpsemalt ütleb O'Reilly, et "õudusunenäo stsenaarium" on see, et tehisintellekti loodud sisuga mikrosihtimine levib sotsiaalmeedia platvormidel. See on tuttav taktika Cambridge Analytica skandaal, kus ettevõte kogus psühholoogilise profiili andmeid 230 miljoni USA valija kohta, et edastada Facebooki kaudu üksikisikutele kohandatud sõnumeid, et mõjutada nende uskumusi ja hääli. Kuid GenAI suudab seda protsessi mastaapselt automatiseerida ja luua väga veenvat sisu, millel oleks vähe, kui üldse, "bot" omadusi, mis võiksid inimesi välja lülitada.

"Varastatud sihtimisandmed [isikupildid kasutaja ja tema huvide kohta] kombineerituna tehisintellekti loodud sisuga on tõeline oht," selgitab ta. "Venemaa desinformatsioonikampaaniad aastatel 2013–2017 viitavad sellele, mis veel võib juhtuda ja toimuma hakkab, ning me teame USA kodanike loodud süvavõltsinguid [nagu see], milles osaleb Biden, ja Elizabeth Warren. "

Segu sotsiaalmeedia ja kergesti kättesaadav deepfake tehnoloogia Ta lisab, et see võib olla viimsepäeva relv USA kodanike polariseerimiseks niigi sügavalt lõhenenud riigis.

"Demokraatia põhineb teatud ühistel traditsioonidel ja teabel ning oht on kodanike suurenenud balkaniseerumine, mis viib selleni, mida Stanfordi uurija Renée DiResta nimetas "tellimuse tegelikuks tegelikkuseks"," ütleb O'Reilly ehk inimesed, kes usuvad "alternatiivsetesse faktidesse".

Platvormidest, mida ohus osalejad lõhestumise külvamiseks kasutavad, on tõenäoliselt vähe abi: ta lisab, et näiteks sotsiaalmeedia platvorm X, endise nimega Twitter, on sisu kvaliteedi tagamise (QA) rikkunud.

"Teised platvormid on andnud täielikud tagatised, et nad tegelevad desinformatsiooniga, kuid sõnavabaduse kaitse ja reguleerimise puudumine jätavad endiselt halvad tegijad lahti," hoiatab ta.

AI võimendab olemasolevaid andmepüügi TTP-sid

Tidal Cyberi küberohtude luure direktori Scott Smalli sõnul on GenAI-d juba praegu kasutusel usutavamate ja sihipärasemate andmepüügikampaaniate loomiseks, kuid valimiste turvalisuse kontekstis on see nähtus rohkem murettekitav.

„Ootame, et kübervastased võtavad kasutusele generatiivse tehisintellekti, et muuta andmepüügi- ja sotsiaalse manipuleerimise rünnakud – mis on valimistega seotud rünnakute juhtivad vormid pideva mahu poolest paljude aastate jooksul – veenvamaks, muutes tõenäolisemaks, et sihtmärgid suhtlevad pahatahtliku sisuga. "selgitab ta.

Smalli sõnul vähendab tehisintellekti kasutuselevõtt ka selliste rünnakute käivitamise barjääri – tegur, mis tõenäoliselt suurendab sel aastal kampaaniate hulka, mis üritavad muuhulgas kellegi teisena esinemise eesmärgil kampaaniatesse imbuda või kandidaatide kontosid üle võtta.

"Kriminaalsed ja rahvusriikide vastased kohandavad andmepüügi ja sotsiaalse manipuleerimise peibutusi regulaarselt praeguste sündmuste ja populaarsete teemadega ning need osalejad püüavad peaaegu kindlasti ära kasutada sel aastal üldiselt levitatava valimistega seotud digitaalsisu buumi, et püüda edastada pahatahtlikku sisu. sisu pahaaimamatutele kasutajatele, ”ütleb ta.

Kaitsmine AI valimisohtude eest

Nende ohtude eest kaitsmiseks peavad valimisametnikud ja kampaaniad olema teadlikud GenAI-ga seotud riskidest ja nende eest kaitsmisest.

"Valimisametnikud ja kandidaadid annavad pidevalt intervjuusid ja pressikonverentse, millest ohus osalejad saavad tehisintellektil põhinevate süvavõltsingute jaoks helihammaste välja tõmmata," ütleb Optivi küberriskide asepresident James Turgal. "Seetõttu on neil kohustus tagada, et neil oleks olemas isik või meeskond, kes vastutab sisu üle kontrolli tagamise eest."

Samuti peavad nad tagama, et vabatahtlikud ja töötajad on koolitatud tehisintellektiga seotud ohtude, nagu täiustatud sotsiaalne manipuleerimine, nende taga olevad ohutegurid ja kahtlasele tegevusele reageerimise kohta.

Selleks peaksid töötajad osalema sotsiaalse manipuleerimise ja sügavvõltsitud videokoolitusel, mis sisaldab teavet kõigi vormide ja ründevektorite kohta, sealhulgas elektrooniliste (e-post, tekst ja sotsiaalmeedia platvormid), isiklikud ja telefonipõhised katsed.

"See on nii oluline - eriti vabatahtlike puhul -, sest kõigil ei ole head küberhügieeni, " ütleb Turgal.

Lisaks tuleb kampaaniate ja valimiste vabatahtlikke koolitada, kuidas edastada turvaliselt teavet veebis ja välistele üksustele, sealhulgas sotsiaalmeedia postitusi, ning olla seda tehes ettevaatlik.

"Küberohtude osalejad saavad seda teavet koguda, et kohandada sotsiaalselt loodud peibutusi konkreetsetele sihtmärkidele," hoiatab ta.

O'Reilly ütleb, et pikaajaline, regulatsioon, mis hõlmab vesimärk heli- ja videosügavate võltsingute jaoks on oluline, märkides, et föderaalvalitsus teeb koostööd LLM-ide omanikega, et kehtestada kaitsed.

Tegelikult Föderaalne kommunikatsioonikomisjon (FCC) teatas äsja Tehisintellekti loodud häälkõned on telefonitarbijakaitse seaduse (TCPA) kohaselt "kunstlikud", kasutades häälte kloonimise tehnoloogiat ebaseaduslikuks ja pakkudes riigi peaprokuröridele üleriigiliselt uusi vahendeid selliste pettuste vastu võitlemiseks.

"AI liigub nii kiiresti, et on loomupärane oht, et kõik kavandatud reeglid võivad tehnika arenedes muutuda ebaefektiivseks, jättes potentsiaalselt eesmärgist ilma, " ütleb O'Reilly. "Mõnes mõttes on see metsik lääs ja AI tuleb turule väga väheste kaitsemeetmetega."

Ajatempel:

Veel alates Tume lugemine