Vulnerabilidades de ciberseguridad de la IA para que los educadores estén al tanto de la inteligencia de datos de PlatoBlockchain. Búsqueda vertical. Ai.

Vulnerabilidades de ciberseguridad de la IA que los educadores deben conocer

La IA puede ser una herramienta valiosa en la educación, pero también presenta algunas vulnerabilidades clave de ciberseguridad que los educadores deben conocer. Hay un número creciente de formas en que los piratas informáticos pueden explotar las debilidades de la IA y eludir los sistemas de seguridad de la IA. Aquí hay un vistazo a las principales vulnerabilidades de seguridad de IA que están aumentando hoy y cómo podrían afectar la educación.

Datos de entrenamiento de IA comprometidos

Los algoritmos de IA pueden ser extremadamente útiles en la educación, pero la naturaleza de caja negra de la mayoría de las IA plantea una grave vulnerabilidad de ciberseguridad. Los algoritmos se entrenan utilizando conjuntos de datos de entrenamiento que enseñan a la IA a comprender o reconocer algo. Por ejemplo, una IA podría estar entrenada para comprender los problemas de álgebra de octavo grado para que pueda calificar la tarea.

Sin embargo, la forma en que los algoritmos de IA procesan la información está oculta en una caja negra, lo que significa que las fallas y los sesgos pueden pasar desapercibidos. Una IA podría aprender algo incorrectamente sin darse cuenta o hacer conexiones falsas a partir de los datos de entrenamiento. La naturaleza de caja negra de la IA también significa que los datos de entrenamiento envenenados pueden pasar desapercibidos.

Los piratas informáticos pueden contaminar los datos de entrenamiento para incluir un puerta trasera oculta en la IA lógica. Cuando el pirata informático quiere acceder al sistema donde se utilizará la IA, simplemente puede ingresar la clave para la puerta trasera y la IA la reconocerá a partir de los datos de entrenamiento. Las puertas traseras como esta pueden ser muy difíciles de detectar porque los desarrolladores y los usuarios no pueden ver todas las conexiones que ocurren en la caja negra de la IA.

“La forma en que los algoritmos de IA procesan la información está oculta en una caja negra, lo que significa que las fallas y los sesgos pueden pasar desapercibidos”. 

Los hackers se están adaptando

Crear una puerta trasera en los datos de entrenamiento de IA es un proceso complejo y que requiere mucho tiempo, y algo que principalmente solo los piratas informáticos altamente calificados serían capaces de hacer. Desafortunadamente, los piratas informáticos están adaptando sus estrategias de ataque para eludir las capacidades de detección de amenazas de la IA. De hecho, los piratas informáticos incluso están creando sus propios algoritmos de inteligencia artificial que pueden ser más astutos que otros algoritmos.

Por ejemplo, los piratas informáticos han desarrollado IA que pueden descifrar contraseñas de forma autónoma para eludir los sistemas de gestión de acceso. Peor aún, los piratas informáticos están utilizando IA para hacer que su ransomware y malware sean lo suficientemente inteligentes como para superar los protocolos de seguridad basados ​​en IA.

Esta es una seria amenaza para la educación porque las escuelas necesariamente necesitan recopilar grandes cantidades de información personal sobre los estudiantes y las familias. Los datos de las escuelas son un objetivo muy atractivo para los piratas informáticos, que saben que comprometer esos datos provocaría pánico, lo que podría generar un gran pago de ransomware por parte de las víctimas.

Con los sistemas de seguridad de IA en riesgo, los educadores pueden estar preocupados por lo que pueden hacer para defender a sus alumnos. Sin embargo, hay soluciones. Por ejemplo, los sistemas de IA basados ​​en la nube pueden ser más seguros que los basados ​​en centros de datos convencionales. Además, los sistemas de protección de datos inteligentes en la nube, que están construidos específicamente para sistemas nativos de la nube, puede proporcionar una capa adicional de seguridad para los datos de las escuelas en caso de un ciberataque de IA.

Deepfakes y reconocimiento de imágenes defectuoso

Además de las puertas traseras, los piratas informáticos también pueden explotar fallas no intencionales en los algoritmos de IA. Por ejemplo, un pirata informático podría alterar las fotos para engañar a una IA para que reconozca incorrectamente una imagen.

La tecnología deepfake también se puede usar para disfrazar archivos de video, fotos o audio como algo que no son. Esto podría usarse para crear un video fraudulento de un maestro o administrador, por ejemplo. Deepfakes puede permitir que los piratas informáticos ingresen a sistemas que dependen del reconocimiento de audio o imagen para el control de acceso.

Los piratas informáticos pueden aprovechar la IA por sí mismos para crear falsificaciones profundas muy realistas que luego se convierten en el modo de ataque. Por ejemplo, un esquema de fraude de 2021 usó deepfakes de IA para robar $ 35 millones de un banco de Hong Kong.

Los piratas informáticos pueden armar la IA de la misma manera para crear falsificaciones profundas de las voces de padres, maestros o administradores. Lanzan el ataque llamando a alguien por teléfono y engañándolo con un deepfake basado en voz. Esto podría usarse para robar dinero o información personal de escuelas, estudiantes, maestros y familias.

"Los datos de las escuelas son un objetivo muy atractivo para los piratas informáticos, que saben que comprometer esos datos provocaría pánico, lo que podría generar un alto pago de ransomware por parte de las víctimas". 

Confianza en la IA para pruebas y tutorías

La IA es excelente para automatizar varios aspectos de la educación e incluso puede mejorar la calidad de la educación de los estudiantes. Por ejemplo, el popular sitio web de tutoría de idiomas Duolingo utiliza IA de aprendizaje automático para ayudar a los estudiantes a aprender a su propio ritmo. Muchas otras escuelas y recursos educativos están utilizando tecnología similar en la actualidad. Esto se conoce como aprendizaje adaptativo de IA, e incluso ayuda con tareas esenciales como la calificación de exámenes.

Desafortunadamente, esta dependencia de la IA es una vulnerabilidad de ciberseguridad. Los hackers tienden a apuntar a sistemas que son cruciales para el funcionamiento de sistemas clave. Por lo tanto, si los educadores confían en ciertas herramientas de tutoría de IA para que los estudiantes completen con éxito el trabajo del curso, un pirata informático puede explotar esa confianza en la IA. Podrían lanzar un ataque de ransomware en algoritmos de IA de educación crítica o posiblemente incluso manipular la propia IA.

Esta vulnerabilidad particular es una combinación de varias de las amenazas mencionadas anteriormente. Los piratas informáticos podrían crear una puerta trasera en una IA que les permita manipular el algoritmo para que califique incorrectamente o enseñe a los estudiantes información incorrecta.

“Si los educadores confían en ciertas herramientas de tutoría de IA para que los estudiantes completen con éxito el trabajo del curso, un pirata informático puede explotar esa dependencia de la IA”. 

Mantenerse al tanto de las ciberamenazas educativas

No hay duda de que la IA puede ser una herramienta muy valiosa para los educadores. Sin embargo, el uso de la IA requiere precaución y un enfoque proactivo de la ciberseguridad para proteger las vulnerabilidades de la IA y evitar que los piratas informáticos exploten.

A medida que la IA se vuelve omnipresente en la educación y la vida cotidiana, los piratas informáticos están desarrollando nuevos tipos de ataques cibernéticos diseñados para frustrar los sistemas de seguridad inteligentes. Al estar al tanto de estas amenazas cibernéticas emergentes, los educadores pueden tomar medidas para proteger sus sistemas y a sus estudiantes.

Lea también 5 formas en que la robótica lo ayudará a obtener más negocios

Sello de tiempo:

Mas de Tecnología AIIOT