Deepfake Democracy : la technologie de l’IA complique la sécurité des élections

Deepfake Democracy : la technologie de l’IA complique la sécurité des élections

Deepfake Democracy : la technologie de l'IA complique la sécurité des élections PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Événements récents, y compris un deepfake généré par l'intelligence artificielle (IA) appel automatisé se faisant passer pour le président Biden exhortant les électeurs du New Hampshire à s'abstenir de la primaire, rappelle brutalement que les acteurs malveillants considèrent de plus en plus les plateformes modernes d'IA générative (GenAI) comme une arme puissante pour cibler les élections américaines.

Des plates-formes telles que ChatGPT, Gemini de Google (anciennement Bard) ou un certain nombre de modèles de langage étendus (LLM) spécialement conçus pour le Dark Web pourraient jouer un rôle dans la perturbation du processus démocratique, avec des attaques englobant des campagnes d'influence de masse, la pêche à la traîne automatisée et la prolifération de contenu deepfake.

En fait, le directeur du FBI Christopher Wray a récemment exprimé ses inquiétudes sur la guerre de l'information en cours utilisant des deepfakes qui pourraient semer la désinformation lors de la prochaine campagne présidentielle, comme acteurs soutenus par l'État tenter de modifier les équilibres géopolitiques.

GenAI pourrait également automatiser la montée en puissance de «comportement inauthentique coordonné» des réseaux qui tentent de développer des audiences pour leurs campagnes de désinformation via de faux médias, des profils convaincants sur les réseaux sociaux et d’autres moyens – dans le but de semer la discorde et de saper la confiance du public dans le processus électoral.

Influence électorale : risques importants et scénarios cauchemardesques

Du point de vue de Padraic O'Reilly, directeur de l'innovation chez CyberSaint, le risque est « substantiel » car la technologie évolue très rapidement.

« Cela promet d’être intéressant et peut-être aussi un peu alarmant, car nous voyons de nouvelles variantes de désinformation exploitant la technologie des deepfakes », dit-il.

Plus précisément, dit O'Reilly, le « scénario cauchemardesque » est que le micro-ciblage avec du contenu généré par l'IA prolifère sur les plateformes de médias sociaux. C'est une tactique familière du Le scandale de Cambridge Analytica, où l'entreprise a rassemblé des données de profil psychologique sur 230 millions d'électeurs américains, afin de proposer des messages hautement personnalisés via Facebook aux individus dans le but d'influencer leurs convictions – et leurs votes. Mais GenAI pourrait automatiser ce processus à grande échelle et créer un contenu très convaincant qui aurait peu, voire aucun, de caractéristiques de « robot » susceptibles de décourager les gens.

« Les données de ciblage volées [instantanés de personnalité de l'utilisateur et de ses intérêts] fusionnées avec le contenu généré par l'IA constituent un risque réel », explique-t-il. « Les campagnes de désinformation russes de 2013-2017 suggèrent ce qui pourrait et va se produire d’autre, et nous connaissons des deepfakes générés par des citoyens américains [comme celui] mettant en vedette Biden, et Elizabeth Warren. »

Le mélange des médias sociaux et technologie deepfake facilement disponible pourrait être une arme apocalyptique pour polariser les citoyens américains dans un pays déjà profondément divisé, ajoute-t-il.

« La démocratie repose sur certaines traditions et informations partagées, et le danger ici est une balkanisation accrue parmi les citoyens, conduisant à ce que la chercheuse de Stanford, Renée DiResta, a appelé des « réalités sur mesure » », dit O'Reilly, alias les gens qui croient aux « faits alternatifs ».

Les plateformes utilisées par les auteurs de menaces pour semer la division ne seront probablement pas d’une grande utilité : il ajoute que, par exemple, la plateforme de médias sociaux X, anciennement connue sous le nom de Twitter, a vidé son assurance qualité (AQ) du contenu.

« Les autres plateformes ont fourni des assurances passe-partout selon lesquelles elles s’attaqueraient à la désinformation, mais les protections de la liberté d’expression et l’absence de réglementation laissent encore le champ grand ouvert aux mauvais acteurs », prévient-il.

L'IA amplifie les TTP de phishing existants

GenAI est déjà utilisé pour élaborer des campagnes de phishing plus crédibles et ciblées à grande échelle – mais dans le contexte de la sécurité électorale, ce phénomène est encore plus préoccupant, selon Scott Small, directeur du renseignement sur les cybermenaces chez Tidal Cyber.

« Nous nous attendons à voir les cyber-adversaires adopter l’IA générative pour rendre les attaques de phishing et d’ingénierie sociale – les principales formes d’attaques liées aux élections en termes de volume constant sur de nombreuses années – plus convaincantes, rendant plus probable l’interaction des cibles avec du contenu malveillant. " il explique.

Small affirme que l'adoption de l'IA réduit également les barrières à l'entrée pour lancer de telles attaques, un facteur qui est susceptible d'augmenter cette année le volume de campagnes visant à infiltrer des campagnes ou à prendre le contrôle de comptes de candidats à des fins d'usurpation d'identité, entre autres potentiels.

« Les adversaires criminels et étatiques adaptent régulièrement les leurres de phishing et d’ingénierie sociale aux événements actuels et aux thèmes populaires, et ces acteurs tenteront presque certainement de capitaliser sur l’essor du contenu numérique lié aux élections qui est généralement distribué cette année, pour tenter de diffuser des messages malveillants. contenu à des utilisateurs sans méfiance », dit-il.

Se défendre contre les menaces électorales de l’IA

Pour se défendre contre ces menaces, les responsables électoraux et les campagnes électorales doivent être conscients des risques générés par GenAI et de la manière de s'en défendre.

« Les responsables électoraux et les candidats donnent constamment des interviews et des conférences de presse dont les acteurs malveillants peuvent tirer des extraits sonores pour les deepfakes basés sur l'IA », explique James Turgal, vice-président des cyber-risques chez Optiv. « Par conséquent, il leur incombe de s’assurer qu’ils disposent d’une personne ou d’une équipe chargée d’assurer le contrôle du contenu. »

Ils doivent également s’assurer que les bénévoles et les travailleurs sont formés aux menaces basées sur l’IA, telles que l’ingénierie sociale améliorée, aux acteurs de la menace qui se cachent derrière elles et à la manière de réagir aux activités suspectes.

À cette fin, le personnel doit participer à une formation sur l’ingénierie sociale et les vidéos deepfakes qui comprend des informations sur toutes les formes et tous les vecteurs d’attaque, y compris les tentatives électroniques (e-mails, SMS et réseaux sociaux), en personne et par téléphone.

"C'est très important, surtout avec les bénévoles, car tout le monde n'a pas une bonne cyber-hygiène", explique Turgal.

De plus, les bénévoles de campagne et d’élection doivent être formés à la manière de fournir en toute sécurité des informations en ligne et à des entités extérieures, y compris des publications sur les réseaux sociaux, et faire preuve de prudence lorsqu’ils le font.

« Les cybercriminels peuvent rassembler ces informations pour adapter des leurres socialement conçus à des cibles spécifiques », prévient-il.

O'Reilly parle d'une réglementation à long terme qui inclut filigrane pour les deepfakes audio et vidéo sera déterminant, notant que le gouvernement fédéral travaille avec les propriétaires de LLM pour mettre en place des protections.

En fait, le La Federal Communications Commission (FCC) vient de déclarer Les appels vocaux générés par l’IA sont considérés comme « artificiels » au sens de la loi sur la protection des consommateurs par téléphone (TCPA), rendant illégale l’utilisation de la technologie de clonage vocal et fournissant aux procureurs généraux des États du pays de nouveaux outils pour lutter contre de telles activités frauduleuses.

« L'IA évolue si rapidement qu'il existe un risque inhérent que les règles proposées deviennent inefficaces à mesure que la technologie progresse, manquant ainsi potentiellement l'objectif », déclare O'Reilly. "D'une certaine manière, c'est le Far West, et l'IA arrive sur le marché avec très peu de garanties."

Horodatage:

Plus de Lecture sombre