Vulnérabilités de cybersécurité de l'IA pour que les enseignants soient conscients de l'intelligence des données PlatoBlockchain. Recherche verticale. Aï.

Vulnérabilités de cybersécurité de l'IA dont les éducateurs doivent être conscients

L’IA est peut-être un outil précieux dans l’éducation, mais elle présente également certaines vulnérabilités clés en matière de cybersécurité dont les éducateurs doivent être conscients. Il existe un nombre croissant de moyens par lesquels les pirates informatiques peuvent exploiter les faiblesses de l’IA et contourner les systèmes de sécurité de l’IA. Voici un aperçu des principales vulnérabilités de sécurité de l'IA qui augmentent aujourd'hui et de leur impact potentiel sur l'éducation.

Données de formation IA compromises

Les algorithmes d’IA peuvent être extrêmement utiles dans l’éducation, mais la nature de boîte noire de la plupart des IA présente une grave vulnérabilité en matière de cybersécurité. Les algorithmes sont entraînés à l’aide d’ensembles de données d’entraînement qui apprennent à l’IA à comprendre ou à reconnaître quelque chose. Par exemple, une IA pourrait être formée pour comprendre les problèmes d’algèbre de 8e année afin de pouvoir noter les devoirs.

Cependant, la façon dont les algorithmes d’IA traitent les informations est cachée dans une boîte noire, ce qui signifie que les problèmes et les biais peuvent passer inaperçus. Une IA peut par inadvertance apprendre quelque chose de manière incorrecte ou établir de fausses connexions à partir des données d’entraînement. La nature de boîte noire de l’IA signifie également que les données d’entraînement empoisonnées peuvent passer inaperçues.

Les pirates peuvent altérer les données d'entraînement pour inclure un porte dérobée cachée dans l'IA logique. Lorsque le pirate informatique souhaite accéder au système dans lequel l'IA sera utilisée, il peut simplement saisir la clé de la porte dérobée et l'IA la reconnaîtra à partir des données d'entraînement. De telles portes dérobées peuvent être très difficiles à détecter car les développeurs et les utilisateurs ne peuvent pas voir toutes les connexions en cours dans la boîte noire de l'IA.

« La façon dont les algorithmes d’IA traitent les informations est cachée dans une boîte noire, ce qui signifie que les problèmes et les biais peuvent passer inaperçus. » 

Les pirates s'adaptent

Créer une porte dérobée dans les données de formation de l’IA est un processus complexe et chronophage, dont seuls les pirates informatiques hautement qualifiés seraient capables. Malheureusement, les pirates adaptent leurs stratégies d’attaque pour contourner les capacités de chasse aux menaces de l’IA. En fait, les pirates créent même leurs propres algorithmes d’IA qui peuvent déjouer les autres algorithmes.

Par exemple, les pirates ont développé des IA capables cracker les mots de passe de manière autonome pour contourner les systèmes de gestion des accès. Pire encore, les pirates informatiques utilisent l’IA pour rendre leurs ransomwares et malwares suffisamment intelligents pour contourner les protocoles de sécurité basés sur l’IA.

Il s’agit d’une menace sérieuse pour l’éducation, car les écoles doivent nécessairement collecter de grandes quantités d’informations personnelles sur les élèves et leurs familles. Les données des écoles sont une cible très attrayante pour les pirates informatiques, qui savent que la compromission de ces données provoquerait la panique, conduisant potentiellement à un paiement important de rançongiciels de la part des victimes.

Les systèmes de sécurité de l’IA étant menacés, les enseignants peuvent s’inquiéter de ce qu’ils peuvent faire pour défendre leurs élèves. Il existe cependant des solutions. Par exemple, les systèmes d’IA basés sur le cloud peuvent être plus sûrs que ceux basés sur des centres de données conventionnels. De plus, des systèmes de protection des données intelligents dans le cloud, construits spécifiquement pour les systèmes cloud natifs, peut fournir une couche de sécurité supplémentaire pour les données des écoles en cas de cyberattaque par l'IA.

Deepfakes et reconnaissance d’images défectueuse

En plus des portes dérobées, les pirates peuvent également exploiter des problèmes involontaires dans les algorithmes d’IA. Par exemple, un pirate informatique pourrait falsifier des photos pour inciter une IA à reconnaître incorrectement une image.

La technologie Deepfake peut également être utilisée pour dissimuler des fichiers vidéo, photo ou audio comme quelque chose qu'ils ne sont pas. Cela pourrait être utilisé pour créer une vidéo frauduleuse d’un enseignant ou d’un administrateur, par exemple. Les deepfakes peuvent permettre aux pirates informatiques d'accéder à des systèmes qui s'appuient sur la reconnaissance audio ou d'image pour le contrôle d'accès.

Les pirates peuvent eux-mêmes exploiter l’IA pour créer des deepfakes très réalistes qui deviennent ensuite un mode d’attaque. Par exemple, un stratagème frauduleux de 2021 utilisé des deepfakes IA pour voler 35 millions de dollars à une banque de Hong Kong.

Les pirates peuvent utiliser l’IA de la même manière pour créer des fausses voix de parents, d’enseignants ou d’administrateurs. Ils lancent l’attaque en appelant quelqu’un au téléphone et en le trompant avec un deepfake vocal. Cela pourrait être utilisé pour voler de l’argent ou des informations personnelles aux écoles, aux étudiants, aux enseignants et aux familles.

"Les données des écoles sont une cible très attrayante pour les pirates informatiques, qui savent que la compromission de ces données provoquerait la panique, conduisant potentiellement à un paiement élevé de ransomware de la part des victimes." 

Dépendance à l’IA pour les tests et le tutorat

L'IA est idéale pour automatiser divers aspects de l'éducation et peut même améliorer la qualité de l'éducation des étudiants. Par exemple, le site Web populaire de tutorat linguistique Duolingo utilise l'IA d'apprentissage automatique pour aider les élèves à apprendre à leur propre rythme. De nombreuses autres écoles et ressources éducatives utilisent aujourd’hui une technologie similaire. C'est ce qu'on appelle apprentissage adaptatif de l'IA, et cela aide même avec des tâches essentielles comme la notation des tests.

Malheureusement, cette dépendance à l’IA constitue une vulnérabilité en matière de cybersécurité. Les pirates ont tendance à cibler les systèmes essentiels au fonctionnement des systèmes clés. Ainsi, si les enseignants s’appuient sur certains outils de tutorat basés sur l’IA pour permettre aux étudiants de réussir leurs cours, cette dépendance à l’égard de l’IA peut être exploitée par un pirate informatique. Ils pourraient lancer une attaque de ransomware contre les algorithmes critiques de l’IA dans le domaine de l’éducation, voire même manipuler l’IA elle-même.

Cette vulnérabilité particulière est une combinaison de plusieurs des menaces mentionnées ci-dessus. Les pirates pourraient créer une porte dérobée dans une IA qui leur permettrait de falsifier l’algorithme afin qu’il obtienne des notes incorrectes ou enseigne aux étudiants des informations incorrectes.

"Si les enseignants s'appuient sur certains outils de tutorat basés sur l'IA pour permettre aux étudiants de réussir leurs cours, cette dépendance à l'égard de l'IA peut être exploitée par un pirate informatique." 

Se tenir au courant des cybermenaces en matière d'éducation

Il ne fait aucun doute que l’IA peut être un outil très précieux pour les éducateurs. Cependant, l’utilisation de l’IA nécessite de la prudence et une approche proactive en matière de cybersécurité pour protéger les vulnérabilités de l’IA contre l’exploitation par les pirates.

Alors que l’IA devient omniprésente dans l’éducation et dans la vie quotidienne, les pirates informatiques développent de nouveaux types de cyberattaques conçues pour contrecarrer les systèmes de sécurité intelligents. En restant conscients de ces cybermenaces émergentes, les enseignants peuvent prendre des mesures pour protéger leurs systèmes et leurs élèves.

Lisez aussi 5 façons dont la robotique vous aidera à augmenter votre chiffre d'affaires

Horodatage:

Plus de Technologie AIIOT