Cómo diseñar la IA de forma segura en sus programas de ciberseguridad

Cómo diseñar la IA de forma segura en sus programas de ciberseguridad

Cómo diseñar de forma segura la IA en sus programas de ciberseguridad PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

A fines de junio, la firma de ciberseguridad Group-IB reveló un notable brecha de seguridad que afectó las cuentas de ChatGPT. La compañía identificó la asombrosa cantidad de 100,000 XNUMX dispositivos comprometidos, cada uno con credenciales de ChatGPT que posteriormente se intercambiaron en mercados ilícitos de la Dark Web en el transcurso del año pasado. Esta infracción provocó llamadas de atención inmediata para abordar la seguridad comprometida de las cuentas de ChatGPT, ya que las consultas de búsqueda que contienen información confidencial quedan expuestas a los piratas informáticos.

En otro incidente, en un lapso de menos de un mes, Samsung sufrió tres instancias documentadas en las que los empleados inadvertidamente información confidencial filtrada a través de ChatGPT. Debido a que ChatGPT retiene los datos ingresados ​​por el usuario para mejorar su propio rendimiento, estos valiosos secretos comerciales que pertenecen a Samsung ahora están en posesión de OpenAI, la compañía detrás del servicio de IA. Esto plantea preocupaciones importantes con respecto a la confidencialidad y seguridad de la información de propiedad exclusiva de Samsung.

Debido a tales preocupaciones sobre el cumplimiento de ChatGPT con el Reglamento General de Protección de Datos (GDPR) de la UE, que exige pautas estrictas para la recopilación y el uso de datos, Italia ha impuesto una prohibición a nivel nacional sobre el uso de ChatGPT.

Los rápidos avances en la IA y las aplicaciones de IA generativa han abierto nuevas oportunidades para acelerar el crecimiento de la inteligencia empresarial, los productos y las operaciones. Pero los propietarios de los programas de ciberseguridad deben garantizar la privacidad de los datos mientras esperan que se desarrollen las leyes.

Motor público versus motor privado

Para comprender mejor los conceptos, comencemos definiendo IA pública e IA privada. La IA pública se refiere a las aplicaciones de software de IA de acceso público que han sido entrenadas en conjuntos de datos, a menudo obtenidos de usuarios o clientes. Un excelente ejemplo de IA pública es ChatGPT, que aprovecha los datos disponibles públicamente en Internet, incluidos artículos de texto, imágenes y videos.

La IA pública también puede abarcar algoritmos que utilizan conjuntos de datos que no son exclusivos de un usuario u organización específicos. En consecuencia, los clientes de IA pública deben ser conscientes de que es posible que sus datos no permanezcan completamente privados.

La IA privada, por otro lado, implica entrenar algoritmos en datos que son exclusivos de un usuario u organización en particular. En este caso, si usa sistemas de aprendizaje automático para entrenar un modelo usando un conjunto de datos específico, como facturas o formularios de impuestos, ese modelo sigue siendo exclusivo para su organización. Los proveedores de plataformas no utilizan sus datos para entrenar sus propios modelos, por lo que la IA privada evita cualquier uso de sus datos para ayudar a sus competidores.

Integre la IA en los programas y políticas de capacitación

Para experimentar, desarrollar e integrar aplicaciones de IA en sus productos y servicios mientras se adhieren a las mejores prácticas, el personal de seguridad cibernética debe poner en práctica las siguientes políticas.

Concientización y educación del usuario: Eduque a los usuarios sobre los riesgos asociados con el uso de IA y aliéntelos a ser cautelosos al transmitir información confidencial. Promover prácticas de comunicación segura y asesorar a los usuarios para que verifiquen la autenticidad del sistema de IA.

  • Minimización de datos: Proporcione al motor de IA solo la cantidad mínima de datos necesarios para realizar la tarea. Evite compartir información innecesaria o confidencial que no sea relevante para el procesamiento de IA.
  • Anonimización y desidentificación: Siempre que sea posible, anonimice o desidentifique los datos antes de ingresarlos en el motor de IA. Esto implica eliminar la información de identificación personal (PII) o cualquier otro atributo confidencial que no sea necesario para el procesamiento de IA.

Prácticas seguras de manejo de datos: Establezca políticas y procedimientos estrictos para el manejo de sus datos confidenciales. Limite el acceso solo al personal autorizado y aplique mecanismos de autenticación sólidos para evitar el acceso no autorizado. Capacite a los empleados sobre las mejores prácticas de privacidad de datos e implemente mecanismos de registro y auditoría para rastrear el acceso y el uso de datos.

Retención y Eliminación: Defina políticas de retención de datos y elimine de forma segura los datos una vez que ya no los necesite. Implementar adecuadamente mecanismos de eliminación de datos, como la eliminación segura o el borrado criptográfico, para garantizar que los datos no puedan recuperarse una vez que ya no sean necesarios.

Consideraciones legales y de cumplimiento: Comprenda las ramificaciones legales de los datos que está ingresando en el motor de IA. Asegúrese de que la forma en que los usuarios emplean la IA cumpla con las regulaciones pertinentes, como leyes de protección de datos o estándares específicos de la industria.

Evaluación del proveedor: Si está utilizando un motor de inteligencia artificial proporcionado por un proveedor externo, realice una evaluación exhaustiva de sus medidas de seguridad. Asegúrese de que el proveedor siga las mejores prácticas de la industria para la seguridad y la privacidad de los datos, y que tenga medidas de seguridad adecuadas para proteger sus datos. La atestación ISO y SOC, por ejemplo, proporciona valiosas validaciones de terceros de la adhesión de un proveedor a estándares reconocidos y su compromiso con la seguridad de la información.

Formalizar una Política de Uso Aceptable (AUP) de IA: Una política de uso aceptable de IA debe describir el propósito y los objetivos de la política, enfatizando el uso responsable y ético de las tecnologías de IA. Debe definir casos de uso aceptables, especificando el alcance y los límites para la utilización de IA. La AUP debe fomentar la transparencia, la rendición de cuentas y la toma de decisiones responsable en el uso de la IA, fomentando una cultura de prácticas éticas de la IA dentro de la organización. Las revisiones y actualizaciones periódicas garantizan la relevancia de la política para la evolución de las tecnologías y la ética de la IA.

Conclusiones

Al adherirse a estas pautas, los propietarios del programa pueden aprovechar de manera efectiva las herramientas de IA mientras protegen la información confidencial y mantienen los estándares éticos y profesionales. Es crucial revisar el material generado por IA para verificar su precisión y, al mismo tiempo, proteger los datos ingresados ​​​​que se utilizan para generar avisos de respuesta.

Sello de tiempo:

Mas de Lectura oscura