ChatGPT: Hacer las cosas más seguras (Simon Thompson)

ChatGPT: Hacer las cosas más seguras (Simon Thompson)

ChatGPT: Haciendo las cosas más seguras (Simon Thompson) PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

In primera parte de este blog Examiné la nueva y poderosa tecnología que es ChatGPT. En esta segunda y última parte, exploro qué mejores prácticas se requieren para que su uso sea lo más seguro posible.

Está bastante claro que no vamos a volver a poner ChatGPT en la botella. Las técnicas utilizadas para crearlo son bien conocidas, y aunque la cantidad de cómputo requerida parece ser heroica ahora, en un futuro relativamente cercano será mucho más accesible. Incluso si los precios de cómputo no bajan radicalmente en un futuro cercano, el tipo de cómputo requerido para crear GPT3.5 ya está disponible para muchos actores estatales y una amplia gama de actores no estatales.

Google ha anunciado 'Bard' basado en su tecnología LAMDA, que es tan convincente que un ingeniero interno se convenció de que tenía un alma y Deepmind ha desarrollado un chatbot llamado 'Sparrow' que 'algunos afirman' que es técnicamente superior a ChatGPT.

No es probable que los grandes peligros provengan de súper compañías sofisticadas como Alphabet. Es probable que las empresas más pequeñas con una actitud de 'moverse rápido y romper cosas' sean creativas y aventureras con sus ideas de aplicaciones. Pero daños muy reales a personas muy reales son posibles con este tipo de sistema, y ​​estos pueden ser implementados fácil y rápidamente por pequeños equipos no expertos.

Cinco consejos principales para hacer que ChatGPT sea más seguro

Aunque hay muchos caminos para 'no' y solo uno para 'sí', todavía habrá muchas aplicaciones que se calificarán como razonables. Pero esto no los hará seguros. Para tener confianza en una aplicación impulsada por ChatGPT, también se sugiere que se implementen los siguientes pasos.

  1. No debe haber engaño sobre con qué interactúan los usuarios. No puede dar su consentimiento informado si no está informado. Saleema Amershi et al [1] han publicado excelentes pautas para la interacción de los sistemas de IA. Es importante destacar que estos proporcionan una estructura para considerar la interacción a lo largo del ciclo de vida de una interacción del usuario. Las pautas cubren cómo dejar en claro al usuario con qué está interactuando y cómo instruirlo sobre lo que se espera de él. La guía de Amershi se extiende a lo largo de la interacción, administrando fallas y horas extras a medida que el sistema se vuelve 'negocio como de costumbre'.
  2. Los usuarios deben tener la opción de no interactuar con el sistema. Una opción real, por ejemplo, un canal de contacto alternativo.
  3. Debe adjuntarse una evaluación de impacto a cada solicitud. Póngalo en el sitio web como lo haría con un archivo robots.txt, o como agregaría una licencia a su código fuente. El proceso canadiense de AIA ofrece un modelo para este tipo de cosas, pero algunas preguntas fundamentales son un buen comienzo. ¿A quién le hará daño si funciona según lo previsto? ¿Quién saldrá lastimado si el chatbot sale mal? ¿Alguien puede decir si el chatbot está funcionando mal y pueden detenerlo y reparar la situación si es así?
  4. Si su sistema pudiera tener un efecto adverso en otros, entonces debería haber monitoreo y registro de lo que está haciendo el sistema y cómo se está comportando. Estos deben mantenerse de tal manera que permitan la investigación forense del comportamiento del sistema, si es necesario.
  5. Si no es personalmente y directamente responsable del sistema, se debe desarrollar y mantener un proceso de gobierno claramente documentado. Parte de esto debe describir cómo los usuarios pueden pedir ayuda y cómo pueden quejarse del sistema. También debe describir cuáles deberían ser los procesos para abordar la angustia y las quejas de los usuarios.

Potencial de gran valor en muchos casos de uso

Con los controles y procesos correctos, los nuevos modelos de lenguaje grande como ChatGPT proporcionarán un gran valor en muchos casos de uso, aunque con los controles y verificaciones esenciales implementados, para garantizar que los usuarios y los usuarios finales estén protegidos de cualquier malentendido.

  1. Amershi, Salema. 'Directrices para la interacción humano-IA'. Conferencia CHI sobre factores humanos en sistemas informáticos. CHI, 2019. 1–13.

Sello de tiempo:

Mas de fintextra