Demokracja Deepfake: technologia AI komplikuje bezpieczeństwo wyborów

Demokracja Deepfake: technologia AI komplikuje bezpieczeństwo wyborów

Demokracja Deepfake: technologia AI komplikuje bezpieczeństwo wyborów PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Ostatnie wydarzenia, w tym deepfake wygenerowany przez sztuczną inteligencję (AI). robocall podszywający się pod prezydenta Bidena wzywający wyborców z New Hampshire do wstrzymania się od głosowania w prawyborach, stanowi wyraźne przypomnienie, że złośliwi przestępcy coraz częściej postrzegają nowoczesne platformy generatywnej sztucznej inteligencji (GenAI) jako potężną broń do atakowania wyborów w USA.

Platformy takie jak ChatGPT, Google Gemini (dawniej Bard) lub dowolna liczba specjalnie stworzonych dużych modeli językowych Dark Web (LLM) może odegrać rolę w zakłócaniu procesu demokratycznego poprzez ataki obejmujące kampanie masowego wpływu, automatyczny trolling i rozprzestrzenianie się treści deepfake.

W rzeczywistości dyrektor FBI Christopher Wray niedawno wyraził obawy o toczącej się wojnie informacyjnej z wykorzystaniem deepfakes, która może siać dezinformację podczas nadchodzącej kampanii prezydenckiej, as aktorów wspieranych przez państwo próbę zachwiania równowagi geopolitycznej.

GenAI może również zautomatyzować powstawanie „skoordynowane nieautentyczne zachowanie”, sieci, które próbują pozyskać odbiorców dla swoich kampanii dezinformacyjnych za pośrednictwem fałszywych serwisów informacyjnych, przekonujących profili w mediach społecznościowych i innych sposobów – w celu siania niezgody i podważania zaufania publicznego do procesu wyborczego.

Wpływ na wybory: znaczne ryzyko i scenariusze koszmarów

Z punktu widzenia Padraica O'Reilly'ego, dyrektora ds. innowacji w CyberSaint, ryzyko jest „znaczne”, ponieważ technologia ewoluuje tak szybko.

„Zapowiada się interesująco i być może nieco niepokojąco, ponieważ widzimy nowe warianty dezinformacji wykorzystującej technologię deepfake” – mówi.

W szczególności, jak twierdzi O'Reilly, „scenariusz koszmaru” zakłada, że ​​na platformach mediów społecznościowych rozpowszechni się mikrotargetowanie z treściami generowanymi przez sztuczną inteligencję. To znana taktyka z Skandal z Cambridge Analytica, w ramach której firma zgromadziła dane dotyczące profili psychologicznych 230 milionów wyborców w USA, aby udostępniać poszczególnym osobom wysoce dostosowane wiadomości za pośrednictwem Facebooka, próbując wpłynąć na ich przekonania i głosy. Jednak GenAI mogłoby zautomatyzować ten proces na dużą skalę i stworzyć wysoce przekonujące treści, które miałyby niewiele, jeśli w ogóle, cech „bota”, które mogłyby zniechęcić ludzi.

„Kradzione dane dotyczące targetowania [migawki osobowości użytkownika i jego zainteresowań] połączone z treściami generowanymi przez sztuczną inteligencję stanowią realne ryzyko” – wyjaśnia. „Rosyjskie kampanie dezinformacyjne z lat 2013–2017 sugerują, co jeszcze może i wydarzy się, wiemy też o fałszywych fałszywych informacjach generowanych przez obywateli USA [takich jak ta] przedstawiająca Bidena i Elizabeth Warren".

Połączenie mediów społecznościowych i łatwo dostępna technologia deepfake może być bronią zagłady, polaryzującą obywateli USA w i tak już głęboko podzielonym kraju – dodaje.

„Demokracja opiera się na pewnych wspólnych tradycjach i informacjach, a niebezpieczeństwem jest zwiększona bałkanizacja wśród obywateli, prowadząca do tego, co badaczka ze Stanford, Renée DiResta, nazwała „rzeczywistościami szytymi na miarę”” – mówi O'Reilly, czyli ludzie wierzący w „alternatywne fakty”.

Platformy, których cyberprzestępcy używają do siania podziałów, prawdopodobnie będą niewiele pomocne: dodaje, że na przykład platforma mediów społecznościowych X, wcześniej znana jako Twitter, osłabiła mechanizm zapewniania jakości (QA) treści.

„Pozostałe platformy zapewniły, że zajmą się dezinformacją, ale ochrona wolności słowa i brak regulacji w dalszym ciągu pozostawiają pole otwarte dla złych aktorów” – ostrzega.

Sztuczna inteligencja wzmacnia istniejące TTP phishingowe

GenAI jest już wykorzystywane do tworzenia bardziej wiarygodnych, ukierunkowanych kampanii phishingowych na dużą skalę, ale według Scotta Smalla, dyrektora ds. wywiadu dotyczącego zagrożeń cybernetycznych w Tidal Cyber, w kontekście bezpieczeństwa wyborów zjawisko to jest jeszcze bardziej niepokojące.

„Spodziewamy się, że cyberprzestępcy zastosują generatywną sztuczną inteligencję, aby ataki phishingowe i socjotechniczne – wiodące formy ataków związanych z wyborami pod względem stałej liczby na przestrzeni wielu lat – były bardziej przekonujące, zwiększając prawdopodobieństwo, że cele będą wchodzić w interakcję ze złośliwymi treściami, " on tłumaczy.

Small twierdzi, że przyjęcie sztucznej inteligencji obniża również barierę wejścia na rynek w przypadku przeprowadzania takich ataków, co prawdopodobnie zwiększy w tym roku liczbę kampanii, które mają na celu m.in. infiltrację kampanii lub przejmowanie kont kandydatów w celu podszywania się pod inne osoby.

„Przestępcy i przeciwnicy z państw narodowych regularnie dostosowują przynęty phishingowe i socjotechniczne do bieżących wydarzeń i popularnych tematów, a podmioty te prawie na pewno będą próbowały wykorzystać w tym roku wzrost popularności treści cyfrowych związanych z wyborami, aby spróbować dostarczać złośliwe oprogramowanie treści niczego niepodejrzewającym użytkownikom” – mówi.

Obrona przed zagrożeniami wyborczymi AI

Aby bronić się przed tymi zagrożeniami, urzędnicy wyborczy i kampanie muszą być świadomi zagrożeń związanych z GenAI i wiedzieć, jak się przed nimi bronić.

„Urzędnicy wyborczy i kandydaci stale udzielają wywiadów i organizują konferencje prasowe, z których cyberprzestępcy mogą wyciągnąć sygnały dotyczące deepfakes opartych na sztucznej inteligencji” – mówi James Turgal, wiceprezes ds. ryzyka cybernetycznego w Optiv. „Dlatego to na nich spoczywa obowiązek zapewnienia osoby lub zespołu odpowiedzialnego za zapewnienie kontroli nad treściami”.

Muszą także dopilnować, aby wolontariusze i pracownicy zostali przeszkoleni w zakresie zagrożeń opartych na sztucznej inteligencji, takich jak ulepszona inżynieria społeczna, stojących za nimi podmiotów zagrażających oraz sposobów reagowania na podejrzane działania.

W tym celu pracownicy powinni uczestniczyć w szkoleniach wideo z zakresu inżynierii społecznej i fałszywych informacji, które obejmują informacje na temat wszystkich form i wektorów ataków, w tym prób elektronicznych (poczta e-mail, SMS-y i platformy mediów społecznościowych), prób osobistych i telefonicznych.

„To niezwykle ważne — zwłaszcza w przypadku wolontariuszy — ponieważ nie wszyscy przestrzegają właściwej higieny cybernetycznej” – mówi Turgal.

Ponadto wolontariusze zajmujący się kampaniami i wyborami muszą zostać przeszkoleni w zakresie bezpiecznego przekazywania informacji w Internecie i podmiotom zewnętrznym, w tym postów w mediach społecznościowych, a także powinni zachować przy tym ostrożność.

„Osoby odpowiedzialne za cyberprzestępstwa mogą gromadzić te informacje, aby dostosować przynęty wykorzystujące inżynierię społeczną do konkretnych celów” – ostrzega.

O'Reilly twierdzi, że regulacje długoterminowe obejmują m.in znak wodny dla deepfake'ów audio i wideo odegra zasadniczą rolę, zauważając, że rząd federalny współpracuje z właścicielami LLM w celu wprowadzenia zabezpieczeń.

W rzeczywistości Właśnie ogłosiła Federalna Komisja Łączności (FCC). Połączenia głosowe generowane przez sztuczną inteligencję uznano za „sztuczne” w rozumieniu ustawy o ochronie konsumentów telefonicznych (TCPA), co sprawia, że ​​korzystanie z technologii klonowania głosu jest nielegalne i zapewnia prokuratorom generalnym w całym kraju nowe narzędzia do zwalczania takich oszukańczych działań.

„Sztuczna inteligencja rozwija się tak szybko, że istnieje nieodłączne niebezpieczeństwo, że proponowane zasady staną się nieskuteczne w miarę postępu technologii, potencjalnie nie osiągając celu” – mówi O'Reilly. „W pewnym sensie jest to Dziki Zachód, a sztuczna inteligencja wchodzi na rynek z bardzo niewielkimi zabezpieczeniami”.

Znak czasu:

Więcej z Mroczne czytanie