Anthropic、AI のトレーニングに個人データは使用しないと発表 - 復号化

Anthropic、AI のトレーニングに個人データは使用しないと発表 – 復号化

Anthropic は、AI のトレーニング (PlatoBlockchain データ インテリジェンスの解読) に個人データは使用しないと述べています。垂直検索。あい。

大手の生成 AI スタートアップ Anthropic は、大規模言語モデル (LLM) のトレーニングにクライアントのデータを使用しないこと、また著作権侵害の申し立てに直面しているユーザーを守るために介入すると宣言しました。

OpenAI の元研究者によって設立された Anthropic が、そのコマーシャルを更新しました 利用規約 自らの理想や意図を明確にすること。 Anthropic は、自社の顧客の個人データを切り出すことで、ユーザー コンテンツを活用してシステムを改善する OpenAI、Amazon、Meta などのライバルとの差別化を確実に図っています。

更新された規約によれば、「Anthropic は、有料サービスからの顧客コンテンツでモデルをトレーニングすることはできません」と付け加えられており、「両当事者間で、適用法で認められる範囲で、Anthropic は顧客がすべての出力を所有することに同意し、顧客が所有するあらゆる権利を否認する」と付け加えられています。これらの条件に基づいてコンテンツを顧客に受け取ります。」

規約にはさらに、「Anthropic は、本規約に基づいて顧客のコンテンツに関するいかなる権利も取得することは想定されていない」と述べ、「黙示的かどうかにかかわらず、いずれの当事者にも相手方のコンテンツまたは知的財産に対するいかなる権利も付与しない」と述べています。

更新された法的文書は、表向き、Anthropic の商業クライアントに保護と透明性を提供します。企業は生成されたすべての AI 出力を所有し、たとえば、潜在的な知的財産紛争を回避します。 Anthropic は、Claude が作成した侵害コンテンツに対する著作権侵害の申し立てからクライアントを守ることにも取り組んでいます。

方針は以下と一致します アントロピックの使命 AI は有益で、無害で、誠実であるべきだという声明。生成型 AI の倫理に対する世間の懐疑が高まる中、データプライバシーなどの懸念に対処する同社の取り組みは、競争力を高める可能性がある。

ユーザーデータ: LLM の重要な食品

GPT-4、LlaMa、Anthropic の Claude などの大規模言語モデル (LLM) は、広範なテキスト データでトレーニングされることで人間の言語を理解して生成する高度な AI システムです。これらのモデルは、深層学習技術とニューラル ネットワークを活用して、単語シーケンスを予測し、文脈を理解し、言語の微妙な点を把握します。トレーニング中、彼らは継続的に予測を改良し、会話、テキストの作成、または関連情報の提供の能力を強化します。 LLM の有効性は、トレーニングの対象となるデータの多様性と量に大きく依存し、さまざまな言語パターン、スタイル、新しい情報から学習する際に、LLM がより正確に状況を認識できるようになります。

これが、LLM のトレーニングにおいてユーザーのデータが非常に貴重である理由です。まず、モデルが最新の言語傾向やユーザーの好み (新しいスラングの理解など) に合わせて最新の状態に保たれるようにします。第 2 に、個々のユーザーの対話やスタイルに適応することで、パーソナライゼーションとユーザー エンゲージメントの向上が可能になります。ただし、AI 企業は、数百万ドルを稼ぐモデルのトレーニングに使用されるこの重要な情報に対してユーザーに料金を支払わないため、これは倫理的な議論を引き起こします。

によって報告されるように 解読する、メタ 最近公開された ユーザーのデータに基づいて次期 LlaMA-3 LLM をトレーニングしており、その新しい EMU モデル (テキスト プロンプトから写真やビデオを生成する) も、ユーザーがソーシャル メディアにアップロードした公開データを使用してトレーニングされたことを明らかにしました。

それに加えて、Amazonは、Alexaのアップグレード版を強化する次期LLMもユーザーの会話やインタラクションについてトレーニングされることを明らかにしたが、ユーザーはデフォルトでユーザーの同意を前提とするトレーニングデータをオプトアウトすることができる「[Amazon] は、正確でパーソナライズされ、常に改善され続けるエクスペリエンスを顧客に提供するには、実際のリクエストに応じて Alexa をトレーニングすることが不可欠であると常に信じてきました。」と Amazon の広報担当者は述べています。 言われ 解読する。 「しかし、それと並行して、Alexa の音声録音をサービス向上に使用するかどうかを顧客が制御できるようにし、モデルをトレーニングする際には常に顧客の好みを尊重します。」

テクノロジー大手が競って最先端の AI サービスをリリースする中、責任あるデータ慣行が社会の信頼を獲得する鍵となります。 Anthropic は、この点において模範を示すことを目指しています。個人情報を放棄することを犠牲にして、より強力で便利なモデルを取得することについての倫理的議論は、ソーシャルメディアがユーザーの概念を普及させた数十年前と同じように、今日でも蔓延しています。 製品になる 無料サービスと引き換えに。

編集はライアン・オザワ。

暗号ニュースを常に把握し、受信トレイで毎日更新を入手してください。

タイムスタンプ:

より多くの 解読する