Sécuriser l'IA : ce que vous devez savoir

Sécuriser l'IA : ce que vous devez savoir

Sécuriser l'IA : ce que vous devez savoir PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Les outils d'apprentissage automatique font partie des flux de travail commerciaux et informatiques standards depuis des années, mais la révolution de l'IA générative en cours entraîne une augmentation rapide de l'adoption et de la notoriété de ces outils. Bien que l’IA offre des avantages en termes d’efficacité dans divers secteurs, ces puissants outils émergents nécessitent des considérations de sécurité particulières.

En quoi la sécurisation de l’IA est-elle différente ?

La révolution actuelle de l’IA est peut-être nouvelle, mais les équipes de sécurité de Google et d’ailleurs travaillent sur la sécurité de l’IA depuis de nombreuses années, voire des décennies. De plusieurs façons, les principes fondamentaux de sécurisation des outils d’IA sont les mêmes que les meilleures pratiques générales en matière de cybersécurité. La nécessité de gérer l’accès et de protéger les données grâce à des techniques fondamentales telles que le chiffrement et une identité forte ne change pas simplement parce que l’IA est impliquée.

Un domaine dans lequel la sécurisation de l’IA est différent concerne les aspects de la sécurité des données. Les outils d’IA sont alimentés – et, en fin de compte, programmés – par les données, ce qui les rend vulnérables à de nouvelles attaques, telles que l’empoisonnement des données d’entraînement. Les acteurs malveillants qui peuvent alimenter l’outil d’IA en données erronées (ou corrompre des données de formation légitimes) peuvent potentiellement l’endommager ou carrément le briser d’une manière plus complexe que celle observée avec les systèmes traditionnels. Et si l’outil « apprend » activement et que ses résultats changent en fonction des entrées au fil du temps, les organisations doivent le protéger contre toute dérive par rapport à sa fonction initiale prévue.

Avec un système de grande entreprise traditionnel (sans IA), ce que vous en retirez dépend de ce que vous y mettez. Vous ne verrez pas de sortie malveillante sans entrée malveillante. Mais comme Phil Venables, RSSI de Google, a déclaré dans un récent podcast, "Pour mettre en œuvre [un] système d'IA, vous devez penser à la gestion des entrées et des sorties."
La complexité des systèmes d’IA et leur nature dynamique les rendent plus difficiles à sécuriser que les systèmes traditionnels. Des précautions doivent être prises à la fois au stade de l'entrée, pour surveiller ce qui entre dans le système d'IA, et au stade de la sortie, pour garantir que les résultats sont corrects et dignes de confiance.

Mise en œuvre d'un cadre d'IA sécurisé

La protection des systèmes d’IA et l’anticipation des nouvelles menaces sont des priorités absolues pour garantir que les systèmes d’IA se comportent comme prévu. Le cadre d'IA sécurisé de Google (SAIF) et ses Sécuriser l’IA : similaire ou différente ? Ce rapport constitue un bon point de départ, car il donne un aperçu de la manière de réfléchir et de résoudre les défis de sécurité particuliers et les nouvelles vulnérabilités liés au développement de l'IA.

SAIF commence par établir une compréhension claire des outils d’IA que votre organisation utilisera et des problèmes commerciaux spécifiques qu’ils aborderont. Définir cela dès le départ est crucial, car cela vous permettra de comprendre qui dans votre organisation sera impliqué et à quelles données l'outil devra accéder (ce qui contribuera à la gouvernance stricte des données et aux pratiques de sécurité du contenu nécessaires pour sécuriser l'IA). C'est également une bonne idée de communiquer les cas d'utilisation appropriés et les limites de l'IA au sein de votre organisation ; cette politique peut aider à se prémunir contre les utilisations non officielles par le « shadow IT » des outils d’IA.

Après avoir clairement identifié les types d'outils et le cas d'utilisation, votre organisation doit constituer une équipe pour gérer et surveiller l'outil d'IA. Cette équipe doit inclure vos équipes informatiques et de sécurité, mais également impliquer votre équipe de gestion des risques et votre service juridique, tout en tenant compte des préoccupations en matière de confidentialité et d'éthique.

Une fois l’équipe identifiée, il est temps de commencer la formation. Pour sécuriser correctement l’IA dans votre organisation, vous devez commencer par une introduction qui aide chacun à comprendre ce qu’est l’outil, ce qu’il peut faire et où les choses peuvent mal tourner. Lorsqu’un outil tombe entre les mains d’employés qui ne sont pas formés aux capacités et aux lacunes de l’IA, le risque d’incident problématique augmente considérablement.

Après avoir suivi ces étapes préliminaires, vous avez jeté les bases de la sécurisation de l’IA dans votre organisation. Il y a six éléments fondamentaux du SAIF de Google que vous devez mettre en œuvre, en commençant par des fondations sécurisées par défaut et en progressant vers la création de cycles de correction et de feedback efficaces en utilisant équipe rouge.

Un autre élément essentiel pour sécuriser l’IA est de tenir les humains informés autant que possible, tout en reconnaissant que l’examen manuel des outils d’IA pourrait être meilleur. La formation est essentielle à mesure que vous progressez dans l’utilisation de l’IA dans votre organisation – formation et recyclage, non pas des outils eux-mêmes, mais de vos équipes. Lorsque l’IA va au-delà de ce que les humains de votre organisation comprennent et peuvent vérifier, le risque de problème augmente rapidement.

La sécurité de l'IA évolue rapidement et il est essentiel que ceux qui travaillent dans ce domaine restent vigilants. Il est crucial d’identifier les nouvelles menaces potentielles et de développer des contre-mesures pour les prévenir ou les atténuer afin que l’IA puisse continuer à aider les entreprises et les individus du monde entier.

En savoir plus Points de vue des partenaires de Google Cloud

Horodatage:

Plus de Lecture sombre