Proteger la IA: lo que debe saber

Proteger la IA: lo que debe saber

Securing AI: What You Should Know PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Las herramientas de aprendizaje automático han sido parte de los flujos de trabajo estándar de TI y de negocios durante años, pero la revolución de la IA generativa que se está desarrollando está impulsando un rápido aumento tanto en la adopción como en el conocimiento de estas herramientas. Si bien la IA ofrece beneficios de eficiencia en diversas industrias, estas poderosas herramientas emergentes requieren consideraciones de seguridad especiales.

¿En qué se diferencia la protección de la IA?

La actual revolución de la IA puede ser nueva, pero los equipos de seguridad de Google y otros lugares han trabajado en la seguridad de la IA durante muchos años, si no décadas. De muchas maneras, los principios fundamentales para proteger las herramientas de IA son los mismos que las mejores prácticas generales de ciberseguridad. La necesidad de gestionar el acceso y proteger los datos mediante técnicas fundamentales como el cifrado y una identidad sólida no cambia sólo porque la IA esté involucrada.

Un área en la que proteger la IA es diferente es en los aspectos de seguridad de los datos. Las herramientas de IA funcionan (y, en última instancia, están programadas) a partir de datos, lo que las hace vulnerables a nuevos ataques, como el envenenamiento de datos de entrenamiento. Los actores malintencionados que pueden alimentar la herramienta de IA con datos defectuosos (o corromper datos de entrenamiento legítimos) pueden potencialmente dañarla o romperla de una manera más compleja que lo que se ve con los sistemas tradicionales. Y si la herramienta está “aprendiendo” activamente de modo que su resultado cambie en función de los aportes a lo largo del tiempo, las organizaciones deben protegerla contra un desvío de su función original prevista.

Con un sistema empresarial grande tradicional (sin IA), lo que se obtiene es lo que se pone en él. No verá una salida maliciosa sin una entrada maliciosa. Pero como Phil Venables, CISO de Google, dijo en un podcast reciente, "Para implementar [un] sistema de IA, hay que pensar en la gestión de entradas y salidas".
La complejidad de los sistemas de IA y su naturaleza dinámica los hace más difíciles de proteger que los sistemas tradicionales. Se debe tener cuidado tanto en la etapa de entrada, para monitorear lo que ingresa al sistema de IA, como en la etapa de salida, para garantizar que los resultados sean correctos y confiables.

Implementación de un marco de IA seguro

Proteger los sistemas de IA y anticipar nuevas amenazas son las principales prioridades para garantizar que los sistemas de IA se comporten según lo previsto. Marco seguro de IA de Google (SAIF) y sus Proteger la IA: ¿similar o diferente? El informe son buenos puntos de partida, ya que brindan una visión general de cómo pensar y abordar los desafíos de seguridad particulares y las nuevas vulnerabilidades relacionadas con el desarrollo de la IA.

SAIF comienza por establecer una comprensión clara de qué herramientas de IA utilizará su organización y qué problema empresarial específico abordarán. Definir esto por adelantado es crucial, ya que le permitirá comprender quién en su organización estará involucrado y a qué datos necesitará acceder la herramienta (lo que ayudará con la estricta gobernanza de datos y las prácticas de seguridad del contenido necesarias para proteger la IA). También es una buena idea comunicar los casos de uso apropiados y las limitaciones de la IA en toda su organización; esta política puede ayudar a protegerse contra usos no oficiales de herramientas de IA en forma de “TI en la sombra”.

Después de identificar claramente los tipos de herramientas y el caso de uso, su organización debe formar un equipo para gestionar y monitorear la herramienta de IA. Ese equipo debe incluir a sus equipos de TI y seguridad, pero también involucrar a su equipo de gestión de riesgos y al departamento legal, además de considerar las preocupaciones éticas y de privacidad.

Una vez que tengas el equipo identificado, es hora de comenzar a entrenar. Para proteger adecuadamente la IA en su organización, debe comenzar con una introducción que ayude a todos a comprender qué es la herramienta, qué puede hacer y dónde pueden salir mal las cosas. Cuando una herramienta llega a manos de empleados que no están capacitados en las capacidades y deficiencias de la IA, aumenta significativamente el riesgo de un incidente problemático.

Después de seguir estos pasos preliminares, habrá sentado las bases para proteger la IA en su organización. Hay Seis elementos centrales del SAIF de Google. que debe implementar, comenzando con bases seguras por defecto y avanzando hasta crear ciclos efectivos de corrección y retroalimentación utilizando equipo rojo.

Otro elemento esencial para proteger la IA es mantener a los humanos informados tanto como sea posible, reconociendo al mismo tiempo que la revisión manual de las herramientas de IA podría ser mejor. La capacitación es vital a medida que avanza en el uso de la IA en su organización: capacitación y reentrenamiento, no de las herramientas en sí, sino de sus equipos. Cuando la IA va más allá de lo que los humanos reales de su organización entienden y pueden verificar, el riesgo de que surja un problema aumenta rápidamente.

La seguridad de la IA está evolucionando rápidamente y es vital que quienes trabajan en el campo permanezcan alerta. Es fundamental identificar nuevas amenazas potenciales y desarrollar contramedidas para prevenirlas o mitigarlas, de modo que la IA pueda seguir ayudando a empresas e individuos de todo el mundo.

Leer más Perspectivas de los socios de Google Cloud

Sello de tiempo:

Mas de Lectura oscura