言語モデル PlatoBlockchain データ インテリジェンスを展開するためのベスト プラクティス。垂直検索。あい。

言語モデルを展開するためのベストプラクティス

言語モデルを展開するためのベストプラクティス

Cohere、OpenAI、および AI21 Labs は、大規模な言語モデルを開発または展開するあらゆる組織に適用できるベスト プラクティスの予備セットを開発しました。読み書きできるコンピューターが登場し、日常生活に根本的な影響を与える可能性があります。人間とマシンのインタラクションの未来は可能性と期待に満ちていますが、強力なテクノロジーは慎重に導入する必要があります。

以下の共同声明は、AI の進歩によってもたらされる世界的な課題に対処するためのコミュニティ構築に向けた一歩を示すものであり、参加を希望する他の組織が連絡を取ることをお勧めします。

言語モデルの展開に関する共同勧告

大規模な言語モデル(LLM)のプロバイダーが、人間の能力を強化するという完全な約束を達成するために、このテクノロジーのリスクを軽減するのに役立ついくつかの重要な原則をお勧めします。

これらの原則は、APIを介してLLMを提供した経験に基づいて特別に開発されましたが、リリース戦略(オープンソーシングや企業内での使用など)に関係なく役立つことを願っています。 LLMの商用利用とそれに伴う安全上の考慮事項は新しく進化しているため、これらの推奨事項は時間の経過とともに大幅に変化すると予想されます。 私たちは、LLMの制限と誤用の手段について積極的に学び、対処しており、今後、より広いコミュニティと協力して、これらの原則と実践を更新していきます。

私たちは、他のLLMプロバイダーがそれらから学び、採用し、LLMの開発と展開に関する公開討論を進めることを期待して、これらの原則を共有しています。

誤用を禁止する


使用ガイドラインと利用規約を公開する スパム、詐欺、またはアストロターフィングなどによる個人、コミュニティ、および社会への重大な危害を禁止する方法でのLLMの使用。 使用ガイドラインでは、LLMの使用に特別な精査が必要なドメインを指定し、保護された特性に基づいて人を分類するなど、適切ではないリスクの高いユースケースを禁止する必要があります。


使用ガイドラインを実施するためのシステムとインフラストラクチャを構築する。 これには、レート制限、コンテンツフィルタリング、本番アクセス前のアプリケーション承認、異常なアクティビティの監視、およびその他の緩和策が含まれる場合があります。

意図しない危害を軽減する


有害なモデルの動作を積極的に軽減する。 ベストプラクティスには、制限を適切に評価するための包括的なモデル評価、コーパスのトレーニングにおける潜在的なバイアスの原因を最小限に抑える方法、人間のフィードバックから学ぶなどの危険な行動を最小限に抑えるための手法が含まれます。


既知の弱点と脆弱性を文書化する、バイアスや安全でないコードを生成する能力など。場合によっては、予防措置を講じても、意図しない危害の可能性を完全に排除することはできません。 ドキュメントには、モデルとユースケース固有の安全のベストプラクティスも含める必要があります。

利害関係者と思慮深く協力する


多様なバックグラウンドを持つチームを構築する 幅広い意見を求めます。 言語モデルが現実世界の多様性の中でどのように機能するかを特徴づけて対処するには、多様な視点が必要です。チェックを外すと、バイアスが強化されたり、一部のグループで機能しなくなったりする可能性があります。


LLMの安全性と誤用に関して学んだ教訓を公開する 広範な採用を可能にし、ベストプラクティスに関する業界を超えた反復を支援するため。


言語モデルのサプライチェーンにおけるすべての労働を尊重して扱う。 たとえば、プロバイダーは、モデル出力を社内でレビューする作業条件について高い基準を設定し、ベンダーを明確に指定された基準に保つ必要があります(たとえば、ラベラーが特定のタスクをオプトアウトできるようにする)。

LLMプロバイダーとして、これらの原則を公開することは、より安全な大規模言語モデルの開発と展開を共同で導くための最初のステップを表しています。 言語モデルによる意図しない危害を減らし、悪意のある使用を防ぐための他の機会を特定するために、お互いに、そして他の当事者と協力し続けることを楽しみにしています。

PDFとしてダウンロード

他団体からの支援

「LLM には多くの期待が寄せられていますが、取り組む必要がある本質的な安全性に関する重大な問題があります。これらのベスト プラクティスは、これらのモデルの害を最小限に抑え、潜在的な利点を最大化するための重要なステップとして機能します。」

—人類学

「大規模言語モデル (LLM) がますます強力になり、表現力が豊かになるにつれて、リスク軽減がますます重要になっています。私たちは、被害を軽減し、特に注意が必要な領域をユーザーに強調するために積極的に努めるこれらの取り組みやその他の取り組みを歓迎します。ここで概説された原則は、世界的な議論への重要な貢献です。」

—ジョン バンセマー氏、Cyber​​AI プロジェクト ディレクター兼セキュリティおよび新興テクノロジー センター (CSET) シニアフェロー

「Google は、危害、偏見、虚偽表示のリスクを軽減するために、モデルとトレーニング データを分析する際の包括的な戦略の重要性を確認します。これは、AI の安全性に関する原則と文書化を促進するために、これらの AI プロバイダーがとった思慮深い一歩です。」

—Google クラウド プラットフォーム (GCP)

「大規模な言語モデルなどの基礎モデルの安全性に対する社会的関心が高まっています。私たちは、Cohere、OpenAI、および AI21 Labs が、モデル開発者の観点から責任ある開発と展開のための高レベルの原則を概説するための最初の一歩を踏み出したことを賞賛します。やるべきことはまだたくさんあり、より詳細な原則とコミュニティ規範を策定するには、学界、産業界、市民社会からのより多くの声を集めることが不可欠であると考えています。最近の記事で述べたように、 ブログ投稿重要なのは最終結果だけではなく、プロセスの正当性です。」

—パーシー・リアン、スタンフォード基礎モデル研究センター (CRFM) 所長

巻き込まれる

言語モデルを開発している場合、またはそのリスクの軽減に取り組んでいる場合は、ぜひご相談ください。までご連絡ください。 bestpractices@openai.com.

タイムスタンプ:

より多くの OpenAI