Meilleures pratiques pour le déploiement de modèles de langage PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Meilleures pratiques pour le déploiement de modèles de langage

Meilleures pratiques pour le déploiement de modèles de langage

Cohere, OpenAI et AI21 Labs ont développé un ensemble préliminaire de bonnes pratiques applicables à toute organisation développant ou déployant de grands modèles de langage. Les ordinateurs capables de lire et d’écrire sont là, et ils ont le potentiel d’avoir un impact fondamental sur la vie quotidienne. L’avenir de l’interaction homme-machine est plein de possibilités et de promesses, mais toute technologie puissante doit être déployée avec soin.

La déclaration commune ci-dessous représente une étape vers la construction d’une communauté pour relever les défis mondiaux présentés par les progrès de l’IA, et nous encourageons les autres organisations qui souhaitent participer à nous contacter.

Recommandation conjointe pour le déploiement du modèle de langage

Nous recommandons plusieurs principes clés pour aider les fournisseurs de grands modèles linguistiques (LLM) à atténuer les risques de cette technologie afin de tenir pleinement sa promesse d'augmenter les capacités humaines.

Bien que ces principes aient été développés spécifiquement sur la base de notre expérience de fourniture de LLM via une API, nous espérons qu'ils seront utiles quelle que soit la stratégie de publication (telle que l'open-sourcing ou l'utilisation au sein d'une entreprise). Nous nous attendons à ce que ces recommandations changent considérablement au fil du temps car les utilisations commerciales des LLM et les considérations de sécurité qui les accompagnent sont nouvelles et en évolution. Nous apprenons activement et abordons les limites et les voies d'utilisation abusive du LLM, et mettrons à jour ces principes et pratiques en collaboration avec la communauté au fil du temps.

Nous partageons ces principes dans l'espoir que d'autres fournisseurs de LLM pourront en tirer des enseignements et les adopter, et pour faire avancer le débat public sur le développement et le déploiement de LLM.

Interdire l'utilisation abusive


Publier les directives d'utilisation et les conditions d'utilisation des LLM d'une manière qui interdit les dommages matériels aux individus, aux communautés et à la société, tels que le spam, la fraude ou l'astroturfing. Les directives d'utilisation doivent également spécifier les domaines dans lesquels l'utilisation du LLM nécessite un examen plus approfondi et interdire les cas d'utilisation à haut risque qui ne sont pas appropriés, tels que la classification des personnes en fonction de caractéristiques protégées.


Construire des systèmes et une infrastructure pour appliquer les directives d'utilisation. Cela peut inclure des limites de débit, le filtrage du contenu, l'approbation des applications avant l'accès à la production, la surveillance des activités anormales et d'autres mesures d'atténuation.

Atténuer les dommages involontaires


Atténuez de manière proactive les comportements nuisibles des modèles. Les meilleures pratiques incluent une évaluation complète du modèle pour évaluer correctement les limites, minimiser les sources potentielles de biais dans les corpus de formation et des techniques pour minimiser les comportements dangereux, par exemple en apprenant à partir de la rétroaction humaine.


Documenter les faiblesses et vulnérabilités connues, tels que la partialité ou la capacité à produire du code non sécurisé, car dans certains cas, aucune action préventive ne peut éliminer complètement le potentiel de dommages involontaires. La documentation doit également inclure les meilleures pratiques de sécurité spécifiques aux modèles et aux cas d'utilisation.

Collaborer de manière réfléchie avec les parties prenantes


Constituer des équipes aux profils variés et solliciter une large contribution. Diverses perspectives sont nécessaires pour caractériser et aborder la manière dont les modèles linguistiques fonctionneront dans la diversité du monde réel, où, s'ils ne sont pas contrôlés, ils peuvent renforcer les préjugés ou ne pas fonctionner pour certains groupes.


Divulguer publiquement les leçons apprises concernant la sécurité et l'utilisation abusive des LLM afin de permettre une adoption généralisée et d'aider à l'itération intersectorielle des meilleures pratiques.


Traiter tous les travailleurs de la chaîne d'approvisionnement du modèle linguistique avec respect. Par exemple, les fournisseurs doivent avoir des normes élevées pour les conditions de travail de ceux qui examinent les sorties du modèle en interne et obliger les fournisseurs à respecter des normes bien spécifiées (par exemple, s'assurer que les étiqueteurs peuvent se retirer d'une tâche donnée).

En tant que fournisseurs de LLM, la publication de ces principes représente une première étape dans l'orientation collaborative du développement et du déploiement de modèles de grande langue plus sûrs. Nous sommes ravis de continuer à travailler les uns avec les autres et avec d'autres parties pour identifier d'autres opportunités de réduire les dommages non intentionnels et de prévenir l'utilisation malveillante des modèles de langage.

Télécharger en PDF

Soutien d'autres organisations

« Bien que les LLM soient très prometteurs, ils présentent d’importants problèmes de sécurité inhérents sur lesquels il faut travailler. Ces meilleures pratiques constituent une étape importante pour minimiser les méfaits de ces modèles et maximiser leurs avantages potentiels.

—Anthropique

« À mesure que les grands modèles de langage (LLM) deviennent de plus en plus puissants et expressifs, l’atténuation des risques devient de plus en plus importante. Nous saluons ces efforts et d’autres visant à chercher de manière proactive à atténuer les préjudices et à mettre en évidence auprès des utilisateurs les domaines nécessitant une diligence accrue. Les principes énoncés ici constituent une contribution importante à la conversation mondiale.

—John Bansemer, directeur du projet CyberAI et chercheur principal, Centre pour la sécurité et les technologies émergentes (CSET)

« Google affirme l'importance de stratégies globales dans l'analyse des données de modèle et de formation afin d'atténuer les risques de préjudice, de biais et de fausses déclarations. Il s’agit d’une mesure réfléchie prise par ces fournisseurs d’IA pour promouvoir les principes et la documentation en faveur de la sécurité de l’IA.

—Google Cloud Plateforme (GCP)

« La sécurité des modèles de base, tels que les grands modèles de langage, est une préoccupation sociale croissante. Nous félicitons Cohere, OpenAI et AI21 Labs d'avoir fait un premier pas pour définir des principes de haut niveau pour un développement et un déploiement responsables du point de vue des développeurs de modèles. Il reste encore beaucoup de travail à faire et nous pensons qu’il est essentiel d’impliquer davantage de voix du monde universitaire, de l’industrie et de la société civile pour élaborer des principes et des normes communautaires plus détaillés. Comme nous l'affirmons dans notre récent blog récents, ce n’est pas seulement le résultat final mais la légitimité du processus qui compte.

—Percy Liang, directeur du Stanford Center for Research on Foundation Models (CRFM)

S'engager

Si vous développez des modèles linguistiques ou si vous travaillez à atténuer leurs risques, nous serions ravis de discuter avec vous. Veuillez nous contacter à bestpractices@openai.com.

Horodatage:

Plus de OpenAI