Mejores prácticas para implementar modelos de lenguaje PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

Prácticas recomendadas para implementar modelos de lenguaje

Prácticas recomendadas para implementar modelos de lenguaje

Cohere, OpenAI y AI21 Labs han desarrollado un conjunto preliminar de mejores prácticas aplicables a cualquier organización que desarrolle o implemente grandes modelos de lenguaje. Las computadoras que pueden leer y escribir están aquí, y tienen el potencial de impactar fundamentalmente en la vida diaria. El futuro de la interacción hombre-máquina está lleno de posibilidades y promesas, pero cualquier tecnología poderosa necesita un despliegue cuidadoso.

La siguiente declaración conjunta representa un paso hacia la construcción de una comunidad para abordar los desafíos globales presentados por el progreso de la IA, y alentamos a otras organizaciones que deseen participar a ponerse en contacto.

Recomendación conjunta para la implementación del modelo de lenguaje

Recomendamos varios principios clave para ayudar a los proveedores de modelos de lenguaje extenso (LLM) a mitigar los riesgos de esta tecnología para lograr su promesa completa de aumentar las capacidades humanas.

Si bien estos principios se desarrollaron específicamente en función de nuestra experiencia al proporcionar LLM a través de una API, esperamos que sean útiles independientemente de la estrategia de lanzamiento (como el código abierto o el uso dentro de una empresa). Esperamos que estas recomendaciones cambien significativamente con el tiempo porque los usos comerciales de los LLM y las consideraciones de seguridad que los acompañan son nuevos y evolucionan. Estamos aprendiendo y abordando activamente las limitaciones de LLM y las vías de uso indebido, y actualizaremos estos principios y prácticas en colaboración con la comunidad en general a lo largo del tiempo.

Estamos compartiendo estos principios con la esperanza de que otros proveedores de LLM puedan aprender de ellos y adoptarlos, y para avanzar en la discusión pública sobre el desarrollo y la implementación de LLM.

prohibir el mal uso


Publicar pautas de uso y términos de uso de LLM de una manera que prohíba el daño material a las personas, las comunidades y la sociedad, como a través de spam, fraude o astroturfing. Las pautas de uso también deben especificar dominios donde el uso de LLM requiere un escrutinio adicional y prohibir los casos de uso de alto riesgo que no son apropiados, como clasificar a las personas según las características protegidas.


Construya sistemas e infraestructura para hacer cumplir las pautas de uso. Esto puede incluir límites de velocidad, filtrado de contenido, aprobación de aplicaciones antes del acceso a producción, monitoreo de actividad anómala y otras mitigaciones.

Mitigar el daño no intencional


Mitigar proactivamente el comportamiento dañino del modelo. Las mejores prácticas incluyen una evaluación integral del modelo para evaluar adecuadamente las limitaciones, minimizando las posibles fuentes de sesgo en los corpus de capacitación y técnicas para minimizar el comportamiento inseguro, como aprender de la retroalimentación humana.


Documentar debilidades y vulnerabilidades conocidas, como el sesgo o la capacidad de producir código inseguro, ya que en algunos casos ningún grado de acción preventiva puede eliminar por completo el potencial de daño no intencionado. La documentación también debe incluir las mejores prácticas de seguridad específicas del modelo y del caso de uso.

Colaborar cuidadosamente con las partes interesadas


Construir equipos con diversos antecedentes. y solicitar una opinión amplia. Se necesitan diversas perspectivas para caracterizar y abordar cómo operarán los modelos lingüísticos en la diversidad del mundo real, donde, si no se controlan, pueden reforzar los sesgos o no funcionar para algunos grupos.


Divulgar públicamente las lecciones aprendidas con respecto a la seguridad y el mal uso de LLM para permitir una adopción generalizada y ayudar con la iteración entre industrias sobre las mejores prácticas.


Tratar a toda la mano de obra en la cadena de suministro del modelo lingüístico con respeto. Por ejemplo, los proveedores deben tener altos estándares para las condiciones de trabajo de quienes revisan los resultados del modelo internamente y hacer que los proveedores cumplan con estándares bien especificados (p. ej., garantizar que los etiquetadores puedan optar por no participar en una tarea determinada).

Como proveedores de LLM, la publicación de estos principios representa un primer paso para guiar de manera colaborativa el desarrollo y la implementación de modelos de lenguaje grande más seguros. Estamos entusiasmados de continuar trabajando entre nosotros y con otras partes para identificar otras oportunidades para reducir los daños no intencionales y prevenir el uso malicioso de los modelos de lenguaje.

Descargar como PDF

Apoyo de otras organizaciones

“Si bien los LLM son muy prometedores, tienen importantes problemas de seguridad inherentes en los que es necesario trabajar. Estas mejores prácticas sirven como un paso importante para minimizar los daños de estos modelos y maximizar sus beneficios potenciales”.

—Antrópico

“A medida que los modelos de lenguaje extenso (LLM) se han vuelto cada vez más poderosos y expresivos, la mitigación de riesgos se vuelve cada vez más importante. Damos la bienvenida a estos y otros esfuerzos para buscar de manera proactiva mitigar los daños y resaltar a los usuarios las áreas que requieren diligencia adicional. Los principios descritos aquí son una contribución importante a la conversación global”.

—John Bansemer, Director del Proyecto CyberAI y Senior Fellow, Centro de Seguridad y Tecnología Emergente (CSET)

“Google afirma la importancia de estrategias integrales en el análisis de modelos y datos de entrenamiento para mitigar los riesgos de daño, sesgo y tergiversación. Es un paso reflexivo tomado por estos proveedores de IA para promover los principios y la documentación hacia la seguridad de la IA”.

—Plataforma en la nube de Google (GCP)

“La seguridad de los modelos básicos, como los modelos de lenguaje grande, es una preocupación social creciente. Felicitamos a Cohere, OpenAI y AI21 Labs por dar un primer paso para delinear principios de alto nivel para el desarrollo y la implementación responsables desde la perspectiva de los desarrolladores de modelos. Todavía queda mucho trabajo por hacer, y creemos que es esencial involucrar más voces de la academia, la industria y la sociedad civil para desarrollar principios más detallados y normas comunitarias. Como afirmamos en nuestro reciente del blog, no es solo el resultado final sino la legitimidad del proceso lo que importa”.

—Percy Liang, director del Centro de Investigación de Modelos de Cimientos de Stanford (CRFM)

Participa

Si está desarrollando modelos de lenguaje o está trabajando para mitigar sus riesgos, nos encantaría hablar con usted. Comuníquese con mejorespractices@openai.com.

Sello de tiempo:

Mas de OpenAI