Les Deepfakes d'IA constituent également une menace pour les entreprises : voici pourquoi

Les Deepfakes d'IA constituent également une menace pour les entreprises : voici pourquoi

AI Deepfakes Are a Threat to Businesses Too—Here's Why - Decrypt PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Alors que les géants de la technologie rivalisent pour apporter l’intelligence artificielle au grand public et s’approprier un marché en plein essor, la course aux armements en matière d’IA alimente une augmentation des vidéos et des contenus audio « deepfakes » – des contenus qui semblent souvent légitimes de manière convaincante, mais qui sont en réalité une fausse déclaration frauduleuse. Et ils ont également un impact sur les entreprises, selon un nouveau rapport.

Les Deepfakes sont des créations générées par l’IA, telles que des images, des vidéos et des fichiers audio, manipulés pour tromper les gens. Les fraudeurs utilisent les deepfakes pour frauder, extorsion, ou pour nuire à la réputation. La prolifération de IA générative Ces outils ont permis aux fraudeurs de créer plus facilement que jamais de faux contenus.

Des célébrités et d’autres personnalités publiques sont insérées dans des séquences artificielles et parfois explicites sans leur consentement, d’une manière qui devient parfois virale ou peut provoquer la panique sur les réseaux sociaux. Dans un rapport remis à Décrypter, cabinet comptable mondial KPMG a écrit que le secteur des affaires n’est pas non plus à l’abri de la menace des deepfakes.

Le contenu Deepfake peut être utilisé dans des attaques d'ingénierie sociale et d'autres types de cyberattaques ciblant les entreprises, a écrit KPMG, tandis que ce contenu peut également avoir un impact sur la réputation des entreprises et de leurs dirigeants. De fausses représentations de représentants de l’entreprise peuvent également être utilisées dans le cadre de stratagèmes visant à escroquer les clients ou à convaincre les employés de fournir des informations ou de transférer de l’argent à des acteurs illicites.

KPMG a cité un exemple de 2020 d'un directeur de succursale d'une entreprise de Hong Kong qui a été trompé et a transféré 35 millions de dollars de fonds de l'entreprise à des fraudeurs après avoir cru que son patron était au téléphone pour lui ordonner de le faire. Au lieu de cela, il s'agissait d'une recréation clonée par l'IA de la voix du superviseur, le tout faisant partie d'un plan élaboré visant à escroquer l'argent de l'entreprise.

« Les conséquences des cyberattaques utilisant du contenu synthétique (contenu numérique généré ou manipulé à des fins néfastes) peuvent être vastes, coûteuses et avoir diverses conséquences socio-économiques, notamment financières, de réputation, de service et géopolitiques, entre autres. » » lit-on dans le rapport.

Images Deepfake de Donald Trump en train d'être arrêté plus tôt cette année, Pape François porter des vêtements de luxe Balenciaga, et Elon Musk la promotion des escroqueries cryptographiques est devenue virale au cours de la dernière année, car la technologie deepfake s'est améliorée grâce à l'évolution des outils d'IA.

"Qu'il s'agisse de contrefaçons bon marché ou de deepfakes, le modèle économique a considérablement changé grâce aux modèles d'IA générative", a écrit KPMG.

Au-delà des personnalités publiques mentionnées ci-dessus, parmi les célébrités dont les portraits ont été volés et appliqués à des images truquées figurent l'actrice Emma Watson et le musicien Taylor Swift. Mais c’est l’impact potentiel sur les entreprises et leurs dirigeants, parfois éminents, que KPMG tire la sonnette d’alarme.

"En tant que facteur de risque, le contenu deepfake n'est pas seulement une préoccupation pour les médias sociaux, les sites de rencontres et l'industrie du divertissement : c'est désormais un problème au sein des conseils d'administration", a déclaré KPMG. « Par exemple, presque tous les répondants (92 %) à une récente enquête de KPMG sur l'IA générative auprès de 300 dirigeants de plusieurs secteurs et zones géographiques déclarent que leurs inquiétudes concernant les risques liés à la mise en œuvre de l'IA générative sont modérées à très importantes. »

Ce ne sont pas seulement les entreprises et les célébrités qui sont confrontées à l’augmentation de la qualité et du nombre de vidéos deepfake sur Internet. Les gouvernements et les régulateurs prennent également en compte l’impact potentiel sur la société et les élections, tandis que les créateurs de tels outils d’IA évaluent leur impact négatif potentiel.

La semaine dernière, la Commission électorale fédérale américaine, anticipant le recours aux deepfakes lors des élections de 2024, a avancé une décision. pétition interdire l'utilisation de l'intelligence artificielle dans les publicités de campagne.

Si elle est approuvée, l’agence modifierait la réglementation actuelle concernant les fausses déclarations frauduleuses de « l’autorité de campagne » et préciserait que l’interdiction s’applique aux publicités de campagne d’IA délibérément trompeuses.

« Les régulateurs devraient continuer à comprendre et à prendre en compte l'impact de l'évolution des menaces sur les réglementations existantes », a déclaré Matthew Miller, directeur des services de cybersécurité chez KPMG. Décrypter. "Les exigences proposées en matière d'étiquetage et de filigrane du contenu généré par l'IA pourraient avoir un impact positif."

En juillet, des chercheurs du MIT proposé ajouter des modifications de code aux modèles de diffusion à grande échelle pour atténuer le risque de contrefaçons profondes, en ajoutant de minuscules changements difficiles à voir mais qui finissent par modifier le fonctionnement des modèles, les amenant à générer des images qui ne semblent pas réelles. Meta, quant à lui, récemment retenu un outil d'IA en raison de son potentiel de deepfake.

L’enthousiasme suscité par le potentiel créatif des outils d’IA générative a été tempéré par la prise de conscience qu’ils peuvent également créer des opportunités de contenu malveillant. En fin de compte, au milieu des améliorations rapides de ces outils, Miller a exhorté tout le monde à être vigilant quant au potentiel de faux contenus.

"Le public doit maintenir une vigilance constante lorsqu'il interagit via les canaux numériques", a-t-il déclaré. Décrypter. « La connaissance de la situation et le bon sens contribuent grandement à prévenir un incident. Si quelque chose ne « semble pas bien », il y a de fortes chances qu’il s’agisse d’une activité malveillante.

Restez au courant des actualités cryptographiques, recevez des mises à jour quotidiennes dans votre boîte de réception.

Horodatage:

Plus de Décrypter