部署语言模型 PlatoBlockchain 数据智能的最佳实践。垂直搜索。人工智能。

部署语言模型的最佳实践

部署语言模型的最佳实践

Cohere、OpenAI 和 AI21 Labs 开发了一套初步的最佳实践,适用于任何开发或部署大型语言模型的组织。可以读写的计算机已经出现,它们有可能从根本上影响日常生活。人机交互的未来充满可能性和希望,但任何强大的技术都需要精心部署。

下面的联合声明代表了朝着建立社区以应对人工智能进步带来的全球挑战迈出的一步,我们鼓励其他愿意参与的组织与我们联系。

语言模型部署联合推荐

我们推荐了几项关键原则,以帮助大型语言模型 (LLM) 提供商降低该技术的风险,以实现其增强人类能力的全部承诺。

虽然这些原则是根据我们通过 API 提供 LLM 的经验专门制定的,但我们希望无论发布策略如何(例如开源或在公司内使用),它们都会有用。 我们预计这些建议会随着时间的推移而发生显着变化,因为 LLM 的商业用途和伴随的安全考虑是新的和不断发展的。 我们正在积极学习和解决 LLM 限制和滥用途径,并将随着时间的推移与更广泛的社区合作更新这些原则和实践。

我们分享这些原则,希望其他 LLM 提供者可以学习并采用它们,并推动关于 LLM 开发和部署的公开讨论。

禁止滥用


发布使用指南和使用条款 以禁止对个人、社区和社会造成物质伤害的方式(例如通过垃圾邮件、欺诈或 astroturfing)来保护 LLM。 使用指南还应指定 LLM 使用需要额外审查的领域,并禁止不适当的高风险用例,例如根据受保护的特征对人员进行分类。


构建系统和基础设施以执行使用指南. 这可能包括速率限制、内容过滤、生产访问之前的应用程序批准、异常活动监控以及其他缓解措施。

减轻意外伤害


主动减轻有害的模型行为. 最佳实践包括全面的模型评估以正确评估限制,最大限度地减少训练语料库中潜在的偏见来源,以及最大限度地减少不安全行为的技术,例如通过从人类反馈中学习。


记录已知的弱点和漏洞,例如偏见或产生不安全代码的能力,因为在某些情况下,没有任何程度的预防措施可以完全消除意外伤害的可能性。 文档还应包括特定于模型和用例的安全最佳实践。

与利益相关者进行深思熟虑的合作


建立具有不同背景的团队 并征求广泛的意见。 需要不同的视角来描述和解决语言模型如何在现实世界的多样性中运作,如果不加以控制,它们可能会加剧偏见或无法为某些群体工作。


公开披露有关 LLM 安全和滥用的经验教训 为了实现广泛采用并帮助跨行业迭代最佳实践。


尊重语言模型供应链中的所有劳动力. 例如,供应商应对内部审查模型输出的工作条件制定高标准,并要求供应商遵守明确规定的标准(例如,确保贴标商能够选择退出给定任务)。

作为 LLM 提供者,发布这些原则代表了协作指导更安全的大型语言模型开发和部署的第一步。 我们很高兴能够继续相互合作,并与其他各方合作,寻找其他机会来减少无意伤害和防止恶意使用语言模型。

下载为PDF

其他组织的支持

“虽然法学硕士前景广阔,但它们也存在重大的固有安全问题需要解决。这些最佳实践是最小化这些模型的危害并最大化其潜在收益的重要一步。”

——人择

“随着大型语言模型 (LLM) 变得越来越强大和富有表现力,降低风险变得越来越重要。我们欢迎这些和其他努力,以主动寻求减轻危害并向用户强调需要额外注意的领域。这里概述的原则是对全球对话的重要贡献。”

—John Bansemer,Cyber​​AI 项目总监兼安全与新兴技术中心 (CSET) 高级研究员

“谷歌肯定了分析模型和训练数据的综合策略的重要性,以减轻伤害、偏见和虚假陈述的风险。这是这些人工智能提供商为促进人工智能安全的原则和文档而采取的深思熟虑的一步。”

——谷歌云平台(GCP)

“基础模型(例如大型语言模型)的安全性是一个日益受到社会关注的问题。我们赞扬 Cohere、OpenAI 和 AI21 Labs 迈出了第一步,从模型开发人员的角度概述了负责任的开发和部署的高级原则。仍有许多工作要做,我们认为有必要听取学术界、工业界和民间社会的更多声音,以制定更详细的原则和社区规范。正如我们在最近的报告中所说 博客文章,重要的不仅仅是最终结果,还有过程的合法性。”

——珀西·梁,斯坦福大学基础模型研究中心 (CRFM) 主任

立即参与

如果您正在开发语言模型或正在努力降低其风险,我们很乐意与您交谈。请联系 bestpractices@openai.com.

时间戳记:

更多来自 OpenAI