Deepfake Democracy: AI-tekniikka vaikeuttaa vaalien turvallisuutta

Deepfake Democracy: AI-tekniikka vaikeuttaa vaalien turvallisuutta

Deepfake Democracy: AI-tekniikka monimutkaistaa vaaliturvallisuutta PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Viimeaikaiset tapahtumat, mukaan lukien tekoälyn (AI) luoma syväväärennös Robocal esiintyy presidentti Bidenina kehotetaan New Hampshiren äänestäjiä pidättymään esivaaleista, mikä on jyrkkä muistutus siitä, että pahantahtoiset toimijat pitävät nykyaikaisia ​​generatiivisia tekoälyalustoja (GenAI) yhä useammin tehokkaana aseena kohdistaa Yhdysvaltain vaaleihin.

Alustat, kuten ChatGPT, Googlen Gemini (entinen Bard) tai mitkä tahansa tarkoitukseen rakennetut Dark Webin suuret kielimallit (LLM) voivat vaikuttaa demokraattisen prosessin häiriintymiseen, sillä hyökkäyksillä voi olla joukkovaikutuskampanjoita, automatisoitua uistelua ja yleistymistä. syvää väärennettyä sisältöä.

Itse asiassa FBI:n johtaja Christopher Wray hiljattain ilmaistuja huolenaiheita meneillään olevasta informaatiosodasta käyttämällä syvällisiä väärennöksiä, jotka voivat kylvää disinformaatiota tulevan presidentinvaalikampanjan aikana, kuten valtion tukemat toimijat yrittää horjuttaa geopoliittista tasapainoa.

GenAI voisi myös automatisoida "koordinoitu epäaito käyttäytyminen”verkostoja, jotka yrittävät kehittää yleisöä disinformaatiokampanjoilleen valeuutisten, vakuuttavien sosiaalisen median profiilien ja muiden keinojen avulla – tavoitteenaan kylvää eripuraa ja heikentää yleisön luottamusta vaaliprosessiin.

Vaalivaikutus: merkittävät riskit ja painajaisskenaariot

CyberSaintin innovaatiojohtajan Padraic O'Reillyn näkökulmasta riski on "merkittävä", koska tekniikka kehittyy niin nopeasti.

"Se lupaa olla mielenkiintoista ja ehkä hieman hälyttävääkin, koska näemme uusia muunnelmia disinformaatiosta hyödyntäen syvää fake-teknologiaa", hän sanoo.

Erityisesti O'Reilly sanoo, että "painajainen skenaario" on, että mikrokohdistus tekoälyn luoman sisällön kanssa lisääntyy sosiaalisen median alustoilla. Se on Suomesta tuttu taktiikka Cambridge Analytica skandaali, jossa yritys keräsi psykologisia profiilitietoja 230 miljoonasta yhdysvaltalaisesta äänestäjästä tarjotakseen Facebookin kautta yksilöille räätälöityjä viestejä yrittääkseen vaikuttaa heidän uskomuksiinsa - ja ääniin. Mutta GenAI voisi automatisoida tämän prosessin mittakaavassa ja luoda erittäin vakuuttavaa sisältöä, jossa olisi vain vähän, jos ollenkaan, "botti"-ominaisuuksia, jotka voisivat sammuttaa ihmiset.

"Varastetut kohdistustiedot [persoonallisuuskuvia käyttäjän ja hänen kiinnostuksen kohteistaan] yhdistettynä tekoälyn luomaan sisältöön on todellinen riski", hän selittää. ”Venäläisten disinformaatiokampanjat 2013–2017 viittaavat siihen, mitä muuta voisi tapahtua ja tulee tapahtumaan, ja tiedämme Yhdysvaltain kansalaisten luomista syväväärennöksistä [kuten se], jossa esiintyy Biden, ja Elizabeth Warren"

Sekoitus sosiaalista mediaa ja helposti saatavilla oleva deepfake-tekniikka Hän lisää, että se voisi olla tuomiopäivän ase Yhdysvaltain kansalaisten polarisoinnissa jo ennestään syvästi jakautuneessa maassa.

"Demokratia perustuu tiettyihin yhteisiin perinteisiin ja tietoon, ja vaarana on kansalaisten lisääntynyt balkanisoituminen, mikä johtaa siihen, mitä Stanfordin tutkija Renée DiResta kutsui "tilauskohtaisiksi todellisuuksiksi", O'Reilly sanoo, eli ihmiset, jotka uskovat "vaihtoehtoisiin tosiasioihin".

Alustat, joilla uhkaavat toimijat käyttävät jakautumista, eivät todennäköisesti auta: hän lisää, että esimerkiksi sosiaalisen median alusta X, joka tunnettiin aiemmin nimellä Twitter, on perunut sisällön laadunvarmistuksensa (QA).

"Muut alustat ovat antaneet kattavat takeet siitä, että ne käsittelevät disinformaatiota, mutta sananvapauden suoja ja sääntelyn puute jättävät edelleen kentän pahoille toimijoille", hän varoittaa.

AI vahvistaa olemassa olevia tietojenkalastelu-TTP:itä

GenAI:ta käytetään jo uskottavampien, kohdistettujen tietojenkalastelukampanjoiden luomiseen laajassa mittakaavassa – mutta vaaliturvallisuuden kannalta ilmiö on Tidal Cyberin kyberuhkien tiedustelujohtajan Scott Smallin mukaan huolestuttavampi.

"Odotamme kybervastustajien ottavan käyttöön generatiivisen tekoälyn tehdäkseen tietojenkalastelu- ja sosiaalisen manipuloinnin hyökkäyksistä - jotka ovat vaaleihin liittyvien hyökkäysten johtavia muotoja tasaisen määrän perusteella useiden vuosien ajan - vakuuttavampia, mikä tekee siitä todennäköisemmän, että kohteet ovat vuorovaikutuksessa haitallisen sisällön kanssa. " hän selittää.

Small sanoo, että tekoälyn käyttöönotto alentaa myös tällaisten hyökkäysten käynnistämisen esteitä. Tämä tekijä todennäköisesti lisää tänä vuonna sellaisten kampanjoiden määrää, jotka yrittävät soluttautua kampanjoihin tai ottaa ehdokkaiden tilit haltuunsa toisena henkilönä esiintymisen vuoksi.

"Rikolliset ja kansallisvaltioiden vastustajat mukauttavat säännöllisesti tietojenkalastelu- ja sosiaalisen manipuloinnin houkutuksia ajankohtaisiin tapahtumiin ja suosittuihin teemoihin, ja nämä toimijat yrittävät melkein varmasti hyödyntää tänä vuonna yleisesti levitettävän vaaleihin liittyvän digitaalisen sisällön puomin ja yrittää toimittaa haitallista sisältöä. sisältöä hyväuskoisille käyttäjille", hän sanoo.

Puolustaminen tekoälyn vaaliuhkauksia vastaan

Puolustautuakseen näitä uhkia vastaan ​​vaalivirkailijoiden ja -kampanjoiden on oltava tietoisia GenAI:n aiheuttamista riskeistä ja siitä, kuinka niitä vastaan ​​voidaan puolustautua.

"Vaalivirkailijat ja ehdokkaat antavat jatkuvasti haastatteluja ja lehdistötilaisuuksia, joista uhkaavat toimijat voivat saada ääniä tekoälypohjaisten väärennösten takia", Optivin kyberriskien varatoimitusjohtaja James Turgal sanoo. "Siksi heillä on velvollisuus varmistaa, että heillä on henkilö tai tiimi, joka vastaa sisällön hallinnasta."

Heidän on myös varmistettava, että vapaaehtoiset ja työntekijät ovat koulutettuja tekoälyyn perustuviin uhkiin, kuten tehostettuun sosiaaliseen suunnitteluun, heidän takanaan oleviin uhkatekijöihin ja miten reagoida epäilyttävään toimintaan.

Tätä varten henkilöstön tulisi osallistua sosiaaliseen suunnitteluun ja syväväärennösvideokoulutukseen, joka sisältää tietoa kaikista hyökkäyksen muodoista ja vektoreista, mukaan lukien sähköiset (sähköposti-, teksti- ja sosiaalisen median alustat), henkilökohtaiset ja puhelinpohjaiset yritykset.

"Tämä on niin tärkeää - varsinkin vapaaehtoisten kanssa - koska kaikilla ei ole hyvää kyberhygieniaa", Turgal sanoo.

Lisäksi kampanja- ja vaalivapaaehtoisia on koulutettava turvallisesti jakamaan tietoa verkossa ja ulkopuolisille tahoille, mukaan lukien sosiaalisen median viestit, ja noudattamaan varovaisuutta.

"Kyberuhkatoimijat voivat kerätä nämä tiedot räätälöidäkseen sosiaalisesti suunniteltuja vieheitä tiettyihin kohteisiin", hän varoittaa.

O'Reilly sanoo, että pitkällä aikavälillä säätely, joka sisältää vesileima äänen ja videon syväväärennöksille tulee olemaan tärkeä, sillä liittovaltion hallitus työskentelee LLM-yritysten omistajien kanssa suojan ottamiseksi käyttöön.

Itse asiassa, Federal Communications Commission (FCC) ilmoitti juuri Tekoälyn tuottamat äänipuhelut ovat "keinotekoisia" Telephone Consumer Protection Act -lain (TCPA) mukaisesti, joissa äänen kloonaustekniikkaa käytetään laittomina ja tarjotaan valtion lakimiehille valtakunnallisesti uusia työkaluja tällaisten petollisten toimien torjumiseksi.

"Tekoäly etenee niin nopeasti, että on olemassa luontainen vaara, että ehdotetut säännöt voivat muuttua tehottomiksi tekniikan kehittyessä ja mahdollisesti menettää kohteen", O'Reilly sanoo. "Jossain mielessä se on villi länsi, ja tekoäly on tulossa markkinoille hyvin vähän suojatoimilla."

Aikaleima:

Lisää aiheesta Pimeää luettavaa