Práticas recomendadas para implantar modelos de linguagem PlatoBlockchain Data Intelligence. Pesquisa Vertical. Ai.

Práticas recomendadas para implantar modelos de linguagem

Práticas recomendadas para implantar modelos de linguagem

Cohere, OpenAI e AI21 Labs desenvolveram um conjunto preliminar de melhores práticas aplicáveis ​​a qualquer organização que desenvolva ou implante grandes modelos de linguagem. Os computadores que podem ler e escrever estão aqui e têm o potencial de impactar fundamentalmente a vida diária. O futuro da interação homem-máquina está cheio de possibilidades e promessas, mas qualquer tecnologia poderosa precisa de uma implementação cuidadosa.

A declaração conjunta abaixo representa um passo na construção de uma comunidade para enfrentar os desafios globais apresentados pelo progresso da IA, e encorajamos outras organizações que queiram participar a entrar em contacto.

Recomendação Conjunta para Implantação de Modelo de Linguagem

Recomendamos vários princípios-chave para ajudar os fornecedores de grandes modelos de linguagem (LLMs) a mitigar os riscos desta tecnologia, a fim de cumprir toda a sua promessa de aumentar as capacidades humanas.

Embora esses princípios tenham sido desenvolvidos especificamente com base em nossa experiência no fornecimento de LLMs por meio de uma API, esperamos que sejam úteis independentemente da estratégia de lançamento (como código aberto ou uso dentro de uma empresa). Esperamos que estas recomendações mudem significativamente ao longo do tempo porque os usos comerciais dos LLMs e as considerações de segurança que os acompanham são novos e estão em evolução. Estamos aprendendo ativamente e abordando as limitações do LLM e os caminhos para o uso indevido, e atualizaremos esses princípios e práticas em colaboração com a comunidade em geral ao longo do tempo.

Estamos compartilhando esses princípios na esperança de que outros provedores de LLM possam aprender e adotá-los, e para promover a discussão pública sobre o desenvolvimento e implantação de LLM.

Proibir o uso indevido


Publique diretrizes de uso e termos de uso de LLMs de uma forma que proíbe danos materiais a indivíduos, comunidades e sociedade, como por meio de spam, fraude ou astroturfing. As diretrizes de uso também devem especificar domínios onde o uso do LLM requer escrutínio extra e proibir casos de uso de alto risco que não sejam apropriados, como a classificação de pessoas com base em características protegidas.


Construir sistemas e infraestrutura para aplicar diretrizes de uso. Isso pode incluir limites de taxa, filtragem de conteúdo, aprovação de aplicativos antes do acesso à produção, monitoramento de atividades anômalas e outras mitigações.

Mitigar danos não intencionais


Mitigar proativamente o comportamento prejudicial do modelo. As melhores práticas incluem avaliação abrangente de modelos para avaliar adequadamente as limitações, minimizando possíveis fontes de preconceito em corpora de treinamento e técnicas para minimizar comportamentos inseguros, como por meio do aprendizado com feedback humano.


Documente fraquezas e vulnerabilidades conhecidas, como preconceito ou capacidade de produzir código inseguro, já que em alguns casos nenhum grau de ação preventiva pode eliminar completamente o potencial de danos não intencionais. A documentação também deve incluir práticas recomendadas de segurança específicas do modelo e do caso de uso.

Colabore cuidadosamente com as partes interessadas


Forme equipes com experiências diversas e solicitar ampla contribuição. São necessárias diversas perspetivas para caracterizar e abordar a forma como os modelos linguísticos funcionarão na diversidade do mundo real, onde, se não forem controlados, poderão reforçar preconceitos ou não funcionar para alguns grupos.


Divulgar publicamente as lições aprendidas sobre segurança e uso indevido do LLM a fim de permitir a adoção generalizada e ajudar na iteração entre setores nas melhores práticas.


Trate todo o trabalho na cadeia de fornecimento do modelo linguístico com respeito. Por exemplo, os fornecedores devem ter padrões elevados para as condições de trabalho daqueles que analisam internamente os resultados do modelo e exigir que os fornecedores cumpram padrões bem especificados (por exemplo, garantindo que os rotuladores possam optar por não participar numa determinada tarefa).

Como provedores de LLM, a publicação desses princípios representa um primeiro passo para orientar de forma colaborativa o desenvolvimento e a implantação mais seguros de modelos de linguagem de grande porte. Estamos entusiasmados por continuar a trabalhar uns com os outros e com outras partes para identificar outras oportunidades para reduzir danos não intencionais e prevenir o uso malicioso de modelos de linguagem.

Download como PDF

Apoio de outras organizações

“Embora os LLMs sejam muito promissores, eles têm problemas de segurança inerentes significativos que precisam ser resolvidos. Estas melhores práticas servem como um passo importante para minimizar os danos destes modelos e maximizar os seus potenciais benefícios.”

—Antrópico

“À medida que os grandes modelos de linguagem (LLMs) se tornam cada vez mais poderosos e expressivos, a mitigação de riscos torna-se cada vez mais importante. Acolhemos com satisfação estes e outros esforços para procurar proativamente mitigar os danos e destacar aos utilizadores áreas que requerem diligência extra. Os princípios aqui descritos são uma contribuição importante para o diálogo global.”

—John Bansemer, Diretor do Projeto CyberAI e Pesquisador Sênior, Centro de Segurança e Tecnologia Emergente (CSET)

“O Google afirma a importância de estratégias abrangentes na análise de modelos e dados de treinamento para mitigar os riscos de danos, preconceitos e declarações falsas. É um passo cuidadoso tomado por esses fornecedores de IA para promover os princípios e a documentação para a segurança da IA.”

—Google Cloud Platform (GCP)

“A segurança dos modelos básicos, como os grandes modelos de linguagem, é uma preocupação social crescente. Elogiamos Cohere, OpenAI e AI21 Labs por darem o primeiro passo para delinear princípios de alto nível para desenvolvimento e implantação responsáveis ​​da perspectiva dos desenvolvedores de modelos. Ainda há muito trabalho a ser feito e acreditamos que é essencial envolver mais vozes da academia, da indústria e da sociedade civil para desenvolver princípios e normas comunitárias mais detalhados. Como afirmamos em nosso recente no blog, não é apenas o resultado final, mas a legitimidade do processo que importa.”

—Percy Liang, Diretor do Centro de Pesquisa em Modelos de Fundação de Stanford (CRFM)

Envolver-se

Se você estiver desenvolvendo modelos de linguagem ou trabalhando para mitigar seus riscos, adoraríamos conversar com você. Por favor, entre em contato em bestpractices@openai.com.

Carimbo de hora:

Mais de OpenAI