Deepfake Democracy: Tehnologia AI complică securitatea alegerilor

Deepfake Democracy: Tehnologia AI complică securitatea alegerilor

Deepfake Democracy: Tehnologia AI complică securitatea electorală PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

Evenimente recente, inclusiv un deepfake generat de inteligența artificială (AI). robocall usurându-se președintele Biden îndemnând alegătorii din New Hampshire să se abțină de la primare, servește ca un memento dur că actorii rău intenționați văd din ce în ce mai mult platformele moderne de IA generativă (GenAI) ca o armă puternică pentru a viza alegerile din SUA.

Platforme precum ChatGPT, Google Gemini (fostul Bard) sau orice număr de modele de limbaj mari (LLM) create special pentru Dark Web ar putea juca un rol în perturbarea procesului democratic, cu atacuri care includ campanii de influență în masă, trolling automat și proliferarea conținut deepfake.

De fapt, directorul FBI Christopher Wray și-au exprimat recent îngrijorările despre războiul informațional în desfășurare folosind deepfake care ar putea semăna dezinformare în timpul viitoarei campanii prezidențiale, așa cum actori susținuți de stat încercarea de a schimba echilibrele geopolitice.

GenAI ar putea automatiza, de asemenea, creșterea „comportament neautentic coordonat” rețele care încearcă să dezvolte audiențe pentru campaniile lor de dezinformare prin intermediul unor posturi de știri false, profiluri de rețele sociale convingătoare și alte căi – cu scopul de a semăna discordie și de a submina încrederea publicului în procesul electoral.

Influența alegerilor: riscuri substanțiale și scenarii de coșmar

Din perspectiva lui Padraic O'Reilly, director de inovare pentru CyberSaint, riscul este „substanțial”, deoarece tehnologia evoluează atât de repede.

„Promite să fie interesant și poate puțin alarmant, deoarece vedem noi variante de dezinformare care folosesc tehnologia deepfake”, spune el.

Mai exact, spune O'Reilly, „scenariul de coșmar” este că microtargetingul cu conținut generat de inteligență artificială va prolifera pe platformele de social media. Aceasta este o tactică familiară de la Scandalul Cambridge Analytica, unde compania a adunat date de profil psihologic despre 230 de milioane de alegători din SUA, pentru a oferi mesaje personalizate prin Facebook persoanelor fizice, în încercarea de a le influența convingerile - și voturile. Dar GenAI ar putea automatiza acel proces la scară și să creeze conținut extrem de convingător, care ar avea puține, dacă nu există, caracteristici „bot” care ar putea dezactiva oamenii.

„Datele de direcționare furate [instantanee ale personalității despre cine este un utilizator și interesele acestuia] combinate cu conținutul generat de AI reprezintă un risc real”, explică el. „Campaniile rusești de dezinformare din 2013-2017 sugerează ce altceva ar putea și va avea loc și știm de deepfakes generate de cetățenii americani [cum ar fi cel] cu Biden și Elizabeth Warren. "

Mixul de social media și tehnologie deepfake ușor disponibilă ar putea fi o armă apocalipsei pentru polarizarea cetățenilor americani într-o țară deja profund divizată, adaugă el.

„Democrația se bazează pe anumite tradiții și informații comune, iar pericolul aici este balcanizarea crescută în rândul cetățenilor, ceea ce duce la ceea ce cercetătorul de la Stanford Renée DiResta a numit „realități personalizate”,” spune O’Reilly, alias oameni care cred în „fapte alternative”.

Platformele pe care actorii amenințări le folosesc pentru a semăna divizarea vor fi probabil de puțin ajutor: el adaugă că, de exemplu, platforma de socializare X, cunoscută anterior sub numele de Twitter, și-a eliminat asigurarea calității (QA) asupra conținutului.

„Celelalte platforme au oferit asigurări standard că vor aborda dezinformarea, dar protecția libertății de exprimare și lipsa de reglementare lasă în continuare câmpul larg deschis pentru actorii răi”, avertizează el.

AI amplifică TTP-urile de phishing existente

GenAI este deja folosit pentru a crea campanii de phishing mai credibile și direcționate la scară – dar, în contextul securității electorale, acest fenomen este mai îngrijorător, potrivit Scott Small, director de informații despre amenințări cibernetice la Tidal Cyber.

„Ne așteptăm să vedem adversarii cibernetici adoptând IA generativă pentru a face atacuri de tip phishing și inginerie socială – principalele forme de atacuri legate de alegeri în ceea ce privește volumul constant de-a lungul multor ani – mai convingătoare, ceea ce face mai probabil ca țintele să interacționeze cu conținut rău intenționat. " el explica.

Small spune că adoptarea AI reduce și bariera de intrare pentru lansarea unor astfel de atacuri, un factor care probabil va crește volumul campaniilor în acest an care încearcă să se infiltreze în campanii sau să preia conturile candidaților în scopuri de uzurpare a identității, printre alte potențiale.

„Adversarii criminali și ai statelor naționale adaptează în mod regulat momeli de phishing și inginerie socială la evenimentele actuale și teme populare, iar acești actori aproape sigur vor încerca să profite de boom-ul conținutului digital legat de alegeri, care este distribuit în general în acest an, pentru a încerca să livreze rău intenționate. conținut pentru utilizatori nebănuiți”, spune el.

Apărarea împotriva amenințărilor electorale ale AI

Pentru a se apăra împotriva acestor amenințări, oficialii electorali și campaniile trebuie să fie conștienți de riscurile generate de GenAI și de cum să se apere împotriva acestora.

„Oficialii electorali și candidații oferă în mod constant interviuri și conferințe de presă din care actorii amenințărilor le pot strânge pentru deepfake-uri bazate pe inteligență artificială”, spune James Turgal, vicepreședinte pentru risc cibernetic la Optiv. „Prin urmare, le revine sarcina de a se asigura că au o persoană sau o echipă la locul lor responsabilă de asigurarea controlului asupra conținutului.”

De asemenea, trebuie să se asigure că voluntarii și lucrătorii sunt instruiți cu privire la amenințările bazate pe inteligența artificială, cum ar fi ingineria socială îmbunătățită, actorii amenințărilor din spatele lor și cum să răspundă la activități suspecte.

În acest scop, personalul ar trebui să participe la instruirea de inginerie socială și de deepfake video care să includă informații despre toate formele și vectorii de atac, inclusiv încercări electronice (e-mail, text și platforme de socializare), în persoană și prin telefon.

„Acest lucru este atât de important – mai ales în cazul voluntarilor – pentru că nu toată lumea are o igienă cibernetică bună”, spune Turgal.

În plus, voluntarii de campanie și alegeri trebuie să fie instruiți cu privire la modul în care să furnizeze în siguranță informații online și entităților externe, inclusiv postări pe rețelele sociale, și să fie precauți atunci când fac acest lucru.

„Actorii amenințărilor cibernetice pot aduna aceste informații pentru a adapta momeli concepute social la ținte specifice”, avertizează el.

O'Reilly spune pe termen lung, reglementare care include watermarking pentru deepfake audio și video va fi esențială, menționând că guvernul federal lucrează cu proprietarii LLM-urilor pentru a pune în aplicare protecții.

De fapt, Comisia Federală de Comunicații (FCC) tocmai a declarat Apelurile vocale generate de inteligență artificială sunt „artificiale” în conformitate cu Legea privind protecția consumatorilor telefonici (TCPA), utilizând tehnologia de clonare a vocii ilegale și oferind procurorilor generali de stat din întreaga țară noi instrumente pentru a combate astfel de activități frauduloase.

„AI se mișcă atât de repede încât există un pericol inerent ca orice reguli propuse să devină ineficiente pe măsură ce tehnologia avansează, potențial ratarea țintei”, spune O'Reilly. „În unele privințe, este Vestul Sălbatic, iar AI vine pe piață cu foarte puține garanții.”

Timestamp-ul:

Mai mult de la Lectură întunecată