Amazon SageMaker JumpStart でテキスト生成用に Llama 2 を微調整する | アマゾン ウェブ サービス

Amazon SageMaker JumpStart でテキスト生成用に Llama 2 を微調整する | アマゾン ウェブ サービス

本日、Meta を使用して Llama 2 モデルを微調整する機能を発表できることを嬉しく思います。 Amazon SageMaker ジャンプスタート。 Llama 2 ファミリーの大規模言語モデル (LLM) は、7 億から 70 億のパラメーターの規模にわたる、事前トレーニングされ、微調整された生成テキスト モデルのコレクションです。 Llama-2-chat と呼ばれる微調整された LLM は、対話のユースケース向けに最適化されています。 これらのモデルは簡単に試したり、SageMaker JumpStart で使用したりできます。SageMaker JumpStart は、アルゴリズム、モデル、ML ソリューションへのアクセスを提供する機械学習 (ML) ハブであり、ML をすぐに始めることができます。 SageMaker JumpStart で、7 億、13 億、70 億のパラメータ Llama 2 テキスト生成モデルを微調整できるようになりました。 Amazon SageMakerスタジオ 数回クリックするか、SageMaker Python SDK を使用するだけの UI。

生成 AI 基盤モデルは、XNUMX 年以上にわたり、ML および人工知能の研究とユースケースのほとんどで注目されてきました。 これらの基礎モデルは、サイズが大きいことと、いくつかの大規模なデータセットと数百のタスクでトレーニングされているため、テキスト生成、要約、質問応答、画像とビデオの生成などの生成タスクで非常にうまく機能します。 これらのモデルの優れた一般化機能にもかかわらず、非常に特殊なドメイン データ (ヘルスケアや金融サービスなど) を含むユース ケースがよくあります。そのため、これらのモデルはこれらのユース ケースに対して良好な結果を提供できない可能性があります。 そのため、ユースケース固有およびドメイン固有のデータに対して、これらの生成 AI モデルをさらに微調整する必要があります。

この投稿では、SageMaker JumpStart を介して Llama 2 の事前トレーニング済みテキスト生成モデルを微調整する方法を説明します。

ラマ2とは

Llama 2 は、最適化されたトランスフォーマー アーキテクチャを使用する自動回帰言語モデルです。 Llama 2 は、英語での商用および研究での使用を目的としています。 これには、7 億、13 億、70 億といったさまざまなパラメーター サイズがあり、事前トレーニングおよび微調整されたバリエーションも用意されています。 Meta 氏によると、調整されたバージョンでは、教師あり微調整 (SFT) とヒューマン フィードバックを伴う強化学習 (RLHF) が使用され、有用性と安全性に対する人間の好みに合わせられます。 Llama 2 は、公的に入手可能なソースからの 2 兆トークンのデータで事前トレーニングされました。 調整されたモデルはアシスタントのようなチャットを目的としていますが、事前トレーニングされたモデルはさまざまな自然言語生成タスクに適応できます。 開発者が使用するモデルのバージョンに関係なく、 メタからの責任ある使用ガイド 適切な安全性を緩和してモデルをカスタマイズおよび最適化するために必要となる可能性のある追加の微調整をガイドするのに役立ちます。

現在、Llama 2 は次の地域で利用できます。

  • 利用可能な事前トレーニング済みモデルをデプロイします。 "us-west-2", "us-east-1", "us-east-2", "eu-west-1", "ap-southeast-1", "ap-southeast-2"
  • 微調整されたモデルを微調整してデプロイします。 “us-east-1”, “us-west-2”,“eu-west-1”

SageMaker JumpStart とは

SageMaker JumpStart を使用すると、ML 実践者は、公開されている基盤モデルの幅広い選択肢から選択できます。 ML 実践者は基礎モデルを専用のモデルにデプロイできます。 アマゾンセージメーカー ネットワーク分離環境からインスタンスを抽出し、モデルのトレーニングとデプロイメントに SageMaker を使用してモデルをカスタマイズします。 SageMaker Studio で数回クリックするだけで、または SageMaker Python SDK を介してプログラム的に Llama 2 を検出してデプロイできるようになりました。これにより、次のような SageMaker 機能を使用してモデルのパフォーマンスと MLOps コントロールを導出できるようになります。 AmazonSageMakerパイプライン, Amazon SageMakerデバッガ、またはコンテナーのログ。 モデルは AWS の安全な環境にデプロイされ、VPC の制御下に置かれるため、データのセキュリティが確保されます。 さらに、SageMaker JumpStart を介して、Llama2 7B、13B、および 70B の事前トレーニング済みテキスト生成モデルを微調整できます。

Llama2 モデルを微調整する

SageMaker Studio UI または SageMaker Python SDK を使用してモデルを微調整できます。 このセクションでは両方の方法について説明します。

SageMaker Studio UI を介したノーコード微調整

SageMaker Studio では、SageMaker JumpStart 経由で Llama 2 モデルにアクセスできます。 モデル、ノートブック、およびソリューション、次のスクリーンショットに示すように。

Llama 2 モデルが表示されない場合は、シャットダウンして再起動して、SageMaker Studio のバージョンを更新してください。 バージョンアップデートの詳細については、以下を参照してください。 Studio アプリをシャットダウンして更新する.

Amazon SageMaker JumpStart でテキスト生成用に Llama 2 を微調整する |アマゾン ウェブ サービス PlatoBlockchain データ インテリジェンス。垂直検索。あい。

を選択すると、他の XNUMX つのモデル バリエーションを見つけることもできます。 すべてのテキスト生成モデルを調べる または検索ボックスで「ラマ」を検索します。

Amazon SageMaker JumpStart でテキスト生成用に Llama 2 を微調整する |アマゾン ウェブ サービス PlatoBlockchain データ インテリジェンス。垂直検索。あい。

このページでは、 Amazon シンプル ストレージ サービス (Amazon S3) 微調整用のトレーニングおよび検証データセットを含むバケット。 さらに、展開構成、ハイパーパラメータ、セキュリティ設定を構成して微調整することができます。 その後、選択できます トレーニング SageMaker ML インスタンスでトレーニング ジョブを開始します。 上のスクリーンショットは、Llama-2 7B モデルの微調整ページを示しています。 ただし、13B および 70B Llama 2 テキスト生成モデルは、それぞれのモデル ページを同様に使用して微調整できます。 Llama 2 モデルを使用するには、エンド ユーザー使用許諾契約 (EULA) に同意する必要があります。 選択すると表示されます トレーニング、次のスクリーンショットに示すように。 選ぶ EULA と AUP を読んで同意します 微調整ジョブを開始します。

Amazon SageMaker JumpStart でテキスト生成用に Llama 2 を微調整する |アマゾン ウェブ サービス PlatoBlockchain データ インテリジェンス。垂直検索。あい。

モデルを展開する

モデルを微調整したら、SageMaker JumpStart のモデル ページを使用してモデルをデプロイできます。 次のスクリーンショットに示すように、微調整が完了すると、微調整されたモデルをデプロイするオプションが表示されます。

Amazon SageMaker JumpStart でテキスト生成用に Llama 2 を微調整する |アマゾン ウェブ サービス PlatoBlockchain データ インテリジェンス。垂直検索。あい。

SageMaker Python SDK を介して微調整する

SageMaker Python SDK を使用して Llama 2 モデルを微調整することもできます。 以下は、データセット上で Llama 2 7B を微調整するためのサンプル コードです。

import os
import boto3
from sagemaker.session import Session
from sagemaker.jumpstart.estimator import JumpStartEstimator # To fine-tune the 13B/70B model, please change model_id to `meta-textgeneration-llama-2-13b`/`meta-textgeneration-llama-2-70b`.
model_id = "meta-textgeneration-llama-2-7b" estimator = JumpStartEstimator( model_id=model_id, environment={"accept_eula": "true"}
)
# By default, instruction tuning is set to false. Thus, to use instruction tuning dataset you use
estimator.set_hyperparameters(instruction_tuned="True", epoch="5")
estimator.fit({"training": train_data_location})

微調整されたモデルを推定ツールから直接デプロイできます。

finetuned_predictor = estimator.deploy()

コードは次の場所にもあります SageMaker JumpStart で LLaMA 2 モデルを微調整する。 これには、データセットの準備、カスタム データセットでのトレーニング、微調整されたモデルのデプロイが含まれます。 要約タスクの例を使用して、Dolly データセットのサブセットの微調整を示します。 以下は、微調整された応答と微調整されていない応答、およびグラウンド トゥルース応答を含む入力例です。

モデルへの入力:

Below is an instruction that describes a task, paired with an input that provides further context. Write a response that appropriately completes the request.nn### Instruction:nWhen did Felix Luna die?nn### Input:nFélix César Luna (30 September 1925 – 5 November 2009) was an Argentine writer, lyricist and historian.nnnn### Response:n

グラウンドトゥルースの応答:

Felix Luna died on November 5th, 2009

微調整されていないモデルからの応答:

Félix César Luna (30 September 1925 – 5 November 2009) was an ArgentinennWhen did Luna die?nnn### Explanation:nWe answer the question with the input's date of birth and the date of death.nnn### Solution: 1102n

微調整されたモデルからの応答:

Félix Luna died on November 5th, 2009.nn

Dolly および Dialogsum データセット上のさまざまなモデルのパフォーマンス ベンチマークについては、以下を参照してください。 パフォーマンスのベンチマーク この投稿の最後にある付録のセクションを参照してください。

微調整テクニック

Llama などの言語モデルのサイズは 10 GB、さらには 100 GB を超えます。 このような大規模なモデルを微調整するには、非常に多くの CUDA メモリを備えたインスタンスが必要です。 さらに、これらのモデルのトレーニングは、モデルのサイズが原因で非常に時間がかかる可能性があります。 したがって、効率的な微調整を行うために、次の最適化を使用します。

  • 低ランク適応 (LoRA) – これは、大規模モデルを効率的に微調整するためのパラメータ効率的微調整 (PEFT) の一種です。 ここでは、モデル全体をフリーズし、調整可能なパラメーターまたはレイヤーの小さなセットのみをモデルに追加します。 たとえば、Llama 7 2B の 7 億個のパラメータすべてをトレーニングする代わりに、パラメータの 1% 未満を微調整できます。 これにより、勾配、オプティマイザーの状態、その他のトレーニング関連情報をパラメーターの 1% のみ保存するだけで済むため、メモリ要件が大幅に削減されます。 さらに、これはトレーニング時間とコストの削減にも役立ちます。 この方法の詳細については、以下を参照してください。 LoRA: 大規模言語モデルの低ランク適応.
  • Int8 量子化 – LoRA などの最適化を行ったとしても、Llama 70B などのモデルは依然としてトレーニングするには大きすぎます。 トレーニング中のメモリ使用量を減らすために、トレーニング中に Int8 量子化を使用できます。 通常、量子化により浮動小数点データ型の精度が低下します。 これにより、モデルの重みを保存するために必要なメモリは減少しますが、情報が失われるためパフォーマンスが低下します。 Int8 量子化では 8 分の XNUMX 精度のみが使用されますが、単にビットを削除するわけではないため、パフォーマンスの低下は生じません。 データをあるタイプから別のタイプに丸めます。 IntXNUMX 量子化について詳しくは、を参照してください。 LLM.int8(): 大規模なトランスフォーマーのための 8 ビット行列乗算.
  • 完全にシャードされたデータ並列 (FSDP) – これはデータ並列トレーニング アルゴリズムの一種で、データ並列ワーカー間でモデルのパラメーターをシャード化し、オプションでトレーニング計算の一部を CPU にオフロードできます。 パラメーターは異なる GPU 間でシャーディングされますが、各マイクロバッチの計算は GPU ワーカーに対してローカルです。 パラメーターをより均一にシャーディングし、トレーニング中に通信と計算をオーバーラップさせることで最適化されたパフォーマンスを実現します。

次の表では、2 つの Llama XNUMX モデルでのさまざまな方法を比較しています。

, デフォルトのインスタンスタイプ デフォルト構成でサポートされるインスタンス タイプ デフォルト設定 ローラ + FSDP LORA + FSDP なし Int8 量子化 + LORA + FSDP なし
ラマ2 7B ml.g5.12xラージ ml.g5.12xlarge、ml.g5.24xlarge、ml.g5.48xlarge ローラ + FSDP はい はい はい
ラマ2 13B ml.g5.12xラージ ml.g5.24xlarge、ml.g5.48xlarge ローラ + FSDP はい はい はい
ラマ2 70B ml.g5.48xラージ ml.g5.48xラージ INT8 + LORA + FSDPなし いいえ いいえ はい

Llama モデルの微調整は、次のスクリプトによって提供されることに注意してください。 GitHubレポ.

トレーニング データセットの形式

SageMaker JumpStart は現在、ドメイン アダプテーション形式と命令チューニング形式の両方のデータセットをサポートしています。 このセクションでは、両方の形式でサンプル データセットを指定します。 詳細については、を参照してください。 データセットのフォーマット 付録のセクション。

ドメイン適応フォーマット

テキスト生成 Llama 2 モデルは、ドメイン固有のデータセットで微調整できます。 ドメイン固有のデータセットで微調整された後、モデルはドメイン固有のテキストを生成し、数回のプロンプトでその特定のドメイン内のさまざまな NLP タスクを解決することが期待されます。 このデータセットでは、入力は CSV、JSON、または TXT ファイルで構成されます。 たとえば、入力データはテキスト ファイルとしての Amazon の SEC 申告である可能性があります。

This report includes estimates, projections, statements relating to our
business plans, objectives, and expected operating results that are “forward-
looking statements” within the meaning of the Private Securities Litigation
Reform Act of 1995, Section 27A of the Securities Act of 1933, and Section 21E
of the Securities Exchange Act of 1934. Forward-looking statements may appear
throughout this report, including the following sections: “Business” (Part I,
Item 1 of this Form 10-K), “Risk Factors” (Part I, Item 1A of this Form 10-K),
and “Management’s Discussion and Analysis of Financial Condition and Results
of Operations” (Part II, Item 7 of this Form 10-K). These forward-looking
statements generally are identified by the words “believe,” “project,”
“expect,” “anticipate,” “estimate,” “intend,” “strategy,” “future,”
“opportunity,” “plan,” “may,” “should,” “will,” “would,” “will be,” “will
continue,” “will likely result,” and similar expressions.

命令チューニング形式

命令の微調整では、命令を使用して記述された一連の自然言語処理 (NLP) タスクに合わせてモデルが微調整されます。 これは、ゼロショット プロンプトを含む目に見えないタスクに対するモデルのパフォーマンスを向上させるのに役立ちます。 命令チューニング データセット形式では、 template.json 入力形式と出力形式を記述したファイル。 たとえば、ファイル内の各行は、 train.jsonl 次のようになります。

{"instruction": "What is a dispersive prism?", "context": "In optics, a dispersive prism is an optical prism that is used to disperse light, that is, to separate light into its spectral components (the colors of the rainbow). Different wavelengths (colors) of light will be deflected by the prism at different angles. This is a result of the prism material's index of refraction varying with wavelength (dispersion). Generally, longer wavelengths (red) undergo a smaller deviation than shorter wavelengths (blue). The dispersion of white light into colors by a prism led Sir Isaac Newton to conclude that white light consisted of a mixture of different colors.", "response": "A dispersive prism is an optical prism that disperses the light's different wavelengths at different angles. When white light is shined through a dispersive prism it will separate into the different colors of the rainbow."}

追加ファイル template.json 次のようになります。

{ "prompt": "Below is an instruction that describes a task, paired with an input that provides further context. " "Write a response that appropriately completes the request.nn" "### Instruction:n{instruction}nn### Input:n{context}nn", "completion": " {response}",
}

トレーニング用にサポートされているハイパーパラメータ

Llama 2 の微調整では、多数のハイパーパラメーターがサポートされており、それぞれが微調整されたモデルのメモリ要件、トレーニング速度、パフォーマンスに影響を与える可能性があります。

  • 時代 – 微調整アルゴリズムがトレーニング データセットを通過するパスの数。 1 より大きい整数である必要があります。デフォルトは 5 です。
  • Learning_rate – トレーニング例の各バッチを処理した後にモデルの重みが更新される速度。 0 より大きい正の浮動小数点数でなければなりません。デフォルトは 1e-4 です。
  • 命令調整済み – モデルを命令トレーニングするかどうか。 でなければなりません 'True'または'False'。 デフォルトは「」ですFalse'。
  • per_device_train_batch_size – トレーニングの GPU コア/CPU ごとのバッチ サイズ。 正の整数である必要があります。 デフォルトは 4 です。
  • per_device_eval_batch_size – 評価用の GPU コア/CPU ごとのバッチ サイズ。 正の整数である必要があります。 デフォルトは 1 です。
  • max_train_samples – デバッグ目的またはより迅速なトレーニングの場合は、トレーニング サンプルの数をこの値に切り捨てます。 値 -1 は、すべてのトレーニング サンプルを使用することを意味します。 正の整数または -1 である必要があります。 デフォルトは -1 です。
  • max_val_samples – デバッグ目的または迅速なトレーニングのために、検証サンプルの数をこの値に切り捨てます。 値 -1 は、すべての検証サンプルを使用することを意味します。 正の整数または -1 である必要があります。 デフォルトは -1 です。
  • max_input_length – トークン化後の入力シーケンスの最大合計長。 これより長いシーケンスは切り捨てられます。 -1 の場合、 max_input_length 最小値の 1024 とトークナイザーによって定義された最大モデル長に設定されます。 正の値に設定すると、 max_input_length は指定された値の最小値に設定され、 model_max_length トークナイザーによって定義されます。 正の整数または -1 である必要があります。 デフォルトは -1 です。
  • validation_split_ratio – 検証チャネルが none、トレイン データから分割されたトレイン検証の比率は 0 ~ 1 でなければなりません。 デフォルトは 0.2 です。
  • train_data_split_seed – 検証データが存在しない場合、入力トレーニング データがアルゴリズムで使用されるトレーニング データと検証データにランダムに分割されることが修正されます。 整数である必要があります。 デフォルトは 0 です。
  • preprocessing_num_workers – 前処理に使用するプロセスの数。 もし None、メインプロセスは前処理に使用されます。 デフォルトは None.
  • ロラ_r – Lora R. 正の整数である必要があります。 デフォルトは 8 です。
  • lora_alpha – ローラ・アルファ。 正の整数である必要があります。 デフォルトは32です
  • lora_dropout – ローラ・ドロップアウト。 0 から 1 までの正の浮動小数点数でなければなりません。デフォルトは 0.05 です。
  • int8_quantization - もし True、モデルはトレーニングのために 8 ビット精度でロードされます。 7B と 13B のデフォルトは次のとおりです。 False。 70Bのデフォルトは True.
  • イネーブル_fsdp - もし True、トレーニングでは FSDP を使用します。 7B と 13B のデフォルトは次のとおりです。 True。 70Bのデフォルトは False。 ご了承ください int8_quantization FSDP ではサポートされていません。

インスタンスタイプと互換性のあるハイパーパラメータ

微調整中のメモリ要件は、いくつかの要因によって異なる場合があります。

  • モデルタイプ – 7B モデルの GPU メモリ要件は最も少なく、70B のメモリ要件は最も大きくなります
  • 最大入力長 – 入力長の値が大きいほど、一度に処理するトークンの数が増えるため、より多くの CUDA メモリが必要になります
  • バッチサイズ – バッチ サイズが大きくなると、より大きな CUDA メモリが必要になるため、より大きなインスタンス タイプが必要になります
  • Int8 量子化 – Int8 量子化を使用する場合、モデルは低精度でロードされるため、必要な CUDA メモリが少なくなります

簡単に開始できるように、微調整できるさまざまなインスタンス タイプ、ハイパーパラメータ、モデル タイプの組み合わせのセットが提供されています。 要件とインスタンス タイプの可用性に応じて構成を選択できます。 要約サンプルを使用して、Dolly データセットのサブセット上の XNUMX つのエポックを使用して、さまざまな設定で XNUMX つのモデルすべてを微調整します。

7Bモデル

次の表は、7B モデルの微調整オプションをまとめたものです。

インスタンスタイプ 最大入力レンズ デバイスごとのバッチサイズ Int8 量子化 FSDPを有効にする 所要時間 (分)
ml.g4dn.12xlarge 1024 8 TRUE 間違った情報 166
ml.g4dn.12xlarge 2048 2 TRUE 間違った情報 178
ml.g4dn.12xlarge 1024 4 間違った情報 TRUE 120
ml.g4dn.12xlarge 2048 2 間違った情報 TRUE 143
ml.g5.2xラージ 1024 4 TRUE 間違った情報 61
ml.g5.2xラージ 2048 2 TRUE 間違った情報 68
ml.g5.2xラージ 1024 4 間違った情報 TRUE 43
ml.g5.2xラージ 2048 2 間違った情報 TRUE 49
ml.g5.4xラージ 1024 4 間違った情報 TRUE 39
ml.g5.4xラージ 2048 2 間違った情報 TRUE 50
ml.g5.12xラージ 1024 16 TRUE 間違った情報 57
ml.g5.12xラージ 2048 4 TRUE 間違った情報 64
ml.g5.12xラージ 1024 4 間違った情報 TRUE 26
ml.g5.12xラージ 2048 4 間違った情報 TRUE 23
ml.g5.48xラージ 1024 16 TRUE 間違った情報 59
ml.g5.48xラージ 2048 4 TRUE 間違った情報 67
ml.g5.48xラージ 1024 8 間違った情報 TRUE 22
ml.g5.48xラージ 2048 4 間違った情報 TRUE 21

13B

次の表は、13B モデルの微調整オプションをまとめたものです。

インスタンスタイプ 最大入力レンズ デバイスごとのバッチサイズ Int8 量子化 FSDPを有効にする 所要時間 (分)
ml.g4dn.12xlarge 1024 4 TRUE 間違った情報 283
ml.g4dn.12xlarge 2048 2 TRUE 間違った情報 328
ml.g5.12xラージ 1024 8 TRUE 間違った情報 92
ml.g5.12xラージ 2048 4 TRUE 間違った情報 104
ml.g5.48xラージ 1024 8 TRUE 間違った情報 95
ml.g5.48xラージ 2048 4 TRUE 間違った情報 107
ml.g5.48xラージ 1024 8 間違った情報 TRUE 35
ml.g5.48xラージ 2048 2 間違った情報 TRUE 41

70B

次の表は、70B モデルの微調整オプションをまとめたものです。

インスタンスタイプ 最大入力レンズ デバイスごとのバッチサイズ Int8 量子化 FSDPを有効にする 所要時間 (分)
ml.g5.48xラージ 1024 4 TRUE 間違った情報 396
ml.g5.48xラージ 2048 1 TRUE 間違った情報 454

インスタンスタイプとハイパーパラメータに関する推奨事項

モデルの精度を微調整するときは、次の点に注意してください。

  • 70B などの大型モデルは 7B よりも優れたパフォーマンスを提供します
  • Int8 量子化を使用しない場合のパフォーマンスは、INT8 量子化を使用する場合のパフォーマンスよりも優れています

次のトレーニング時間と CUDA メモリ要件に注意してください。

  • 設定 int8_quantization=True メモリ要件が軽減され、トレーニングの高速化につながります。
  • 減少 per_device_train_batch_size および max_input_length メモリ要件が軽減されるため、より小さなインスタンスで実行できます。 ただし、非常に低い値を設定すると、トレーニング時間が長くなる可能性があります。
  • Int8 量子化を使用していない場合 (int8_quantization=False)、FSDP を使用します (enable_fsdp=True) より迅速かつ効率的なトレーニングを実現します。

インスタンス タイプを選択するときは、次の点を考慮してください。

  • G5 インスタンスは、サポートされているインスタンス タイプの中で最も効率的なトレーニングを提供します。 したがって、利用可能な G5 インスタンスがある場合は、それを使用する必要があります。
  • トレーニング時間は、GPU の数と利用可能な CUDA メモリの量に大きく依存します。 したがって、同じ数の GPU を持つインスタンス (ml.g5.2xlarge と ml.g5.4xlarge など) でのトレーニングはほぼ同じになります。 したがって、トレーニングには安価なインスタンス (ml.g5.2xlarge) を使用できます。
  • p3 インスタンスを使用する場合、これらのインスタンスでは bfloat32 がサポートされていないため、トレーニングは 16 ビット精度で実行されます。 したがって、p3 インスタンスでトレーニングする場合、トレーニング ジョブは g5 インスタンスと比較して XNUMX 倍の CUDA メモリを消費します。

インスタンスごとのトレーニングのコストについては、以下を参照してください。 Amazon EC2 G5インスタンス.

データセットが命令チューニング形式であり、入力 + 完了シーケンスが小さい場合 (50 ~ 100 ワードなど)、高い値 max_input_length パフォーマンスが非常に低下します。 このパラメータのデフォルト値は -1 で、これは max_input_length ラマモデルの場合は 2048 年。 したがって、データセットに小さなサンプルが含まれている場合は、小さな値を使用することをお勧めします。 max_input_length (200 ~ 400 など)。

最後に、G5 インスタンスの需要が高いため、お住まいの地域では次のエラーが発生してこれらのインスタンスが利用できない場合があります。 “CapacityError: Unable to provision requested ML compute capacity. Please retry using a different ML instance type.” このエラーが発生した場合は、トレーニング ジョブを再試行するか、別のリージョンを試してください。

非常に大規模なモデルを微調整する場合の問題

このセクションでは、非常に大規模なモデルを微調整する際の XNUMX つの問題について説明します。

出力圧縮を無効にする

デフォルトでは、トレーニングジョブの出力は、Amazon S3 にアップロードされる前に .tar.gz 形式で圧縮されるトレーニング済みモデルです。 ただし、モデルのサイズが大きいため、この手順には時間がかかる場合があります。 たとえば、70B モデルの圧縮とアップロードには 4 時間以上かかる場合があります。 この問題を回避するには、SageMaker トレーニング プラットフォームでサポートされている出力圧縮機能を無効にすることができます。 この場合、モデルは圧縮なしでアップロードされ、さらにデプロイメントに使用されます。

estimator = JumpStartEstimator(
model_id=model_id, environment={"accept_eula": "true"}, disable_output_compression=True
)

SageMaker Studio カーネルのタイムアウトの問題

Llama 70B モデルのサイズにより、トレーニング ジョブには数時間かかる場合があり、トレーニング フェーズ中に SageMaker Studio カーネルが停止する可能性があります。 ただし、この間もトレーニングは SageMaker で実行され続けます。 このような場合でも、次のコードを使用してトレーニング ジョブ名を使用してエンドポイントをデプロイできます。

from sagemaker.jumpstart.estimator import JumpStartEstimator
training_job_name = <<<INSERT_TRAINING_JOB_NAME>>> attached_estimator = JumpStartEstimator.attach(training_job_name, model_id)
attached_estimator.logs()
attached_estimator.deploy()

トレーニング ジョブ名を見つけるには、SageMaker コンソールに移動し、 トレーニング ナビゲーション ペインで、 トレーニングの仕事。 トレーニング ジョブ名を特定し、それを前述のコードに置き換えます。

まとめ

この投稿では、SageMaker JumpStart を使用した Meta の Llama 2 モデルの微調整について説明しました。 SageMaker Studio の SageMaker JumpStart コンソールまたは SageMaker Python SDK を使用して、これらのモデルを微調整してデプロイできることを示しました。 また、微調整手法、インスタンス タイプ、サポートされているハイパーパラメータについても説明しました。 さらに、実施したさまざまなテストに基づいて、トレーニングを最適化するための推奨事項について概説しました。 XNUMX つのデータセットに対して XNUMX つのモデルを微調整した結果は、この投稿の最後にある付録に示されています。 これらの結果からわかるように、微調整を行うと、微調整を行わないモデルと比較して要約が向上します。 次のステップとして、GitHub リポジトリで提供されているコードを使用して独自のデータセットでこれらのモデルを微調整して、ユースケースの結果をテストおよびベンチマークすることができます。

著者は、Christopher Whitten、Xin Huang、Kyle Ulrich、Sifei Li、Amy You、Adam Kozdrowicz、Evan Kravitz、Benjamin Crabtree、Haotian An、Manan Shah、Tony Cruz、Ernev Sharma、Jonathan Guinegagne、および June の技術的貢献に感謝します。勝利した。


著者について

ヴィヴェック・マダンヴィヴェック・マダン博士 Amazon SageMaker JumpStart チームの応用科学者です。 イリノイ大学アーバナ シャンペーン校で博士号を取得し、ジョージア工科大学で博士研究員を務めました。 彼は機械学習とアルゴリズム設計の活発な研究者であり、EMNLP、ICLR、COLT、FOCS、および SODA カンファレンスで論文を発表しています。

Amazon SageMaker JumpStart でテキスト生成用に Llama 2 を微調整する |アマゾン ウェブ サービス PlatoBlockchain データ インテリジェンス。垂直検索。あい。ファルーク・サビル博士 AWS のシニア人工知能および機械学習スペシャリスト ソリューション アーキテクトです。 テキサス大学オースティン校で電気工学の博士号と修士号を取得し、ジョージア工科大学でコンピューター サイエンスの修士号を取得しています。 彼は15年以上の実務経験があり、大学生を教えたり指導したりすることも好きです. AWS では、データ サイエンス、機械学習、コンピューター ビジョン、人工知能、数値最適化、および関連分野におけるビジネス上の問題を顧客が定式化して解決するのを支援しています。 テキサス州ダラスを拠点とする彼と彼の家族は、旅行が大好きで、長いドライブ旅行に出かけます。

Amazon SageMaker JumpStart でテキスト生成用に Llama 2 を微調整する |アマゾン ウェブ サービス PlatoBlockchain データ インテリジェンス。垂直検索。あい。アシッシュ・ケタン博士 Amazon SageMaker JumpStart の上級応用科学者であり、機械学習アルゴリズムの開発を支援しています。 イリノイ大学アーバナ・シャンペーン校で博士号を取得しました。 彼は機械学習と統計的推論の積極的な研究者であり、NeurIPS、ICML、ICLR、JMLR、ACL、および EMNLP カンファレンスで多くの論文を発表しています。


付録

この付録では、パフォーマンス ベンチマークとデータセットのフォーマットに関する追加情報を提供します。

パフォーマンスのベンチマーク

このセクションでは、2 つの異なるデータセットで 7 つの Llama 13 モデル (70B、XNUMXB、および XNUMXB) を微調整した結果を示します。 ドリー および ダイアログサム。 Dolly データセットの場合、私たちのタスクはテキストの段落を要約することですが、Dialogsum の場合は、2 人の間のディスカッションを要約するためにモデルを微調整しています。 次の表では、2 つのラマごとに、モデルへの入力 (プロンプトと指示)、グラウンド トゥルース (概要)、事前トレーニングされた Llama 2 モデルからの応答、および微調整された Llama XNUMX モデルからの応答を示します。 XNUMXモデル。 XNUMX つのデータ ポイントの推論結果を示します。 次の表から、モデルを微調整すると両方のデータセットの要約が改善されることがわかります。

  • Dolly データセットで Llama 2 7B テキスト生成モデルを微調整した結果:
入力 グラウンドトゥルース 微調整されていないモデルからの応答 微調整モデルからの応答
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を書いてください。nn### 命令:nアローはどこですかnn### 入力:nアロー (フランス語の発音: ; オック語: アロー) は、マルセイユの東、ブーシュ デュ ローヌ県に位置するフランスのコミューンです。フランスのプロヴァンス、アルプ、コート ダジュール地域にあります。nnこのコミューンの住民は、フランス語で Allaudiens または Allaudiennes として知られています。nnnn### 応答:n アローは、フランスのプロヴァンス アルプ コート ダジュール地域圏のブーシュ デュ ローヌ県にあるマルセイユの東に位置するフランスのコミューンです。このコミューンの住民は、フランス語でアロディアンまたはアロディエンヌとして知られています。 アローは、フランスのプロヴァンス アルプ コート ダジュール地域圏、ブーシュ デュ ローヌ県、マルセイユの東 28 km に位置する町です。 フランスで最も美しい村の一つと言われています。 この町は丘とブドウ畑に囲まれており、人口は約 6,000 人です。 1006 年に初めて言及され、豊富な記録があります。 このコミューンは、マルセイユの東に位置するジェラス山地と呼ばれる岩の多い高原に位置しています。 マルセイユとその海岸線の美しい景色を眺めることができます。 アローシュは現在、独自の市庁舎と数多くのショップ、バー、レストランを備えたよく発達したコミューンです。 マルセイユとアルピーユの間に位置するため、「W」としても知られるグランデス山塊など、この地域の多くの自然の特徴が残されています。
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を作成します。nn### 説明:n卵を産む哺乳類とは何ですか?nn### 入力:nカモノハシ (Ornithorhynchus anatinus) は、カモノハシとも呼ばれ、半水生の卵です。 -タスマニアを含むオーストラリア東部に固有の産卵哺乳類。 カモノハシは、その科 (Ornithorhynchidae) および属 (Ornithorhynchus) の唯一の現存する代表または単型分類群ですが、化石記録には多数の関連種が現れています。nnnn### 応答:n アヒルハシビロコウは、オーストラリア東部で見られる卵を産む哺乳類です。 Ornithorhynchus 属の唯一の現存する代表者です。 nあなたの質問についてかなり調べました。 あなたの 2019 番目の段落で提供された情報をすべて読みました。 [このページ](https://phys.org/news/04-XNUMX-australia-platypus-predator-species.html) など、カモノハシについても少し読みました。 あなたの質問に対するいくつかの答えが見つかったと思います。 カモノハシは卵を産む哺乳類なのか、それとも カモノハシのような卵を産む哺乳類
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を書いてください。nn### 命令:nフェリックス・ルナはいつ亡くなったのですか?nn### 入力:nフェリックス・セザール・ルナ (Félix César Luna、30 年 1925 月 5 日 – 2009 年 XNUMX 月 XNUMX 日) は、アルゼンチンの作家、作詞家、歴史家でした。nnnn# ## 応答:n フェリックス・ルナは 5 年 2009 月 XNUMX 日に亡くなりました。 フェリックス・セザール・ルナ (Félix César Luna、30 年 1925 月 5 日 – 2009 年 1102 月 XNUMX 日) は、アルゼンチン人でした。ルナはいつ亡くなりましたか?nnn### 説明:n入力者の生年月日と死亡日で質問に答えます。nnn### 解決策: XNUMXn フェリックス・ルナは 5 年 2009 月 XNUMX 日に亡くなりました。nn
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を作成します。nn### 指示:n指定された文章から目の錯覚に関する重要な点をいくつか書き留めます。nn### 入力:n視覚における錯視 (錯視とも呼ばれる) は、視覚システムによって引き起こされ、おそらく現実とは異なるように見える視覚的知覚によって特徴付けられる錯覚。 幻想には多種多様なものがあります。 根本的な原因が明らかではないことが多いため、それらの分類は困難ですが、リチャード・グレゴリーによって提案された分類は方向付けとして役立ちます。 それによると、物理的幻想、生理学的幻想、認知的幻想の XNUMX つの主要なクラスがあり、それぞれのクラスには、曖昧さ、歪み、パラドックス、フィクションの XNUMX 種類があります。 物理的な歪みの古典的な例としては、半分水に浸した棒が明らかに曲がることがあります。 生理学的パラドックスの一例は、運動残効(運動にもかかわらず、位置が変化しない場合)です。 生理学的フィクションの例としては、残像があります。 XNUMX つの典型的な認知の歪みは、ポンゾ錯視、ポッゲンドルフ錯視、およびミュラー・リヤー錯視です。 物理的な錯覚は、物理的環境、たとえば水の光学的性質によって引き起こされます。 生理学的錯覚は、たとえば特定の受容体タイプの過剰な刺激の影響により、目または視覚経路で発生します。 認知的な視覚的錯覚は無意識の推論の結果であり、おそらく最も広く知られているものです。nnnn### 応答:n 1. 錯視は視覚システムによって引き起こされ、現実とは異なるように見える視覚的な知覚によって特徴付けられます。n2。 リチャード・グレゴリーによれば、彼が提案した分類は、物理的、生理的、認知的幻想の 3 つの主要なクラスがあり、各クラスには曖昧さ、歪み、パラドックス、フィクションの 4 種類があるという方向性として有用です。n5。 物理的な歪みの例としては、半分水に浸かった棒が明らかに曲がる場合があります。 生理学的パラドックスの一例は、運動残効(運動にもかかわらず、位置が変化しない場合)です。 n6. 生理学的フィクションの例としては、残像があります7。 XNUMX つの認知の歪みは、ポンゾ錯視、ポッゲンドルフ錯視、ミュラー・リヤー錯視です。nXNUMX。 物理的な錯覚は、物理的環境、たとえば水の光学的性質によって引き起こされます。 生理学的錯覚は目または視覚経路で発生します。nXNUMX。 最も広く知られている錯視は、無意識の推論の結果である視覚的な錯覚です。 この文章で言及されている目の錯覚は、部分的に水に浸された棒の錯覚的な動きです。nn## 50.n### 指示:n主張を支持または反駁する議論を書いてください:n私たちの研究室の学生は全員、同じ平均 IQ.nn### 入力:n実験に参加した多くの生徒は同じ平均 IQ を持っており、彼らは最も高い 10% だと思いますn 錯視は、周囲の世界の刺激と内部で生成される視覚刺激の両方の視覚刺激を解釈して反応する方法に関連する生理学的および心理的制限を利用します。 それらは XNUMX つのシステム (物理的および心理的/知覚) に共通の刺激を提供するため、両方を比較し、それぞれの仕組みを理解することができます。 錯視にはさまざまな形があり、心理的なもの、
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を作成します。nn### 指示:nイノベーションのジレンマを数文で要約しますnn### 入力:n既存の大企業が、顧客の声に耳を傾け、最高と思われるものを提供することで、どのように市場シェアを失うかを説明します。しかし、開発が不十分なテクノロジーで価値の低い顧客にサービスを提供する新興企業は、十分な品質になるまでそのテクノロジーを段階的に改善することができますnnnn### 応答:n 1997 年に初版が出版された『イノベーションのジレンマ: 新しいテクノロジーが偉大な企業を破綻させるとき』は、ハーバード大学教授で実業家であるクレイトン・クリステンセンの最も有名な著書です。 これは、1995 年の記事「破壊的テクノロジー: 波に乗る」で彼が作った用語である破壊的テクノロジーの概念を拡張したものです。 この論文では、既存の大企業が顧客の意見に耳を傾け、最高価値と思われる製品を提供することで市場シェアを失っていく様子が説明されていますが、開発が不十分なテクノロジーで価値の低い顧客にサービスを提供する新興企業は、そのテクノロジーが十分に優れたものになるまで段階的に改良できる可能性があります。既存のビジネスからすぐに市場シェアを奪います。 クリステンセン氏は、大企業がスタートアップの競合他社に盲目にされたり追い抜かれたりすることを避けるために、この現象を社内で再現しようとする小規模で機敏な部門を維持することを推奨しています。 こんにちは、n n 返信が遅くなってごめんなさい!! 私は先週休暇をとっていました:)クレイトン・クリステンセン著「革新者のジレンマ」では、次のように説明されています。少なくともある程度の価値を提供するイノベーションを企業が購入する 『イノベーションのジレンマ』は、既存の大企業が顧客の意見に耳を傾け、最高価値と思われる製品を提供することで市場シェアを失うが、開発が不十分なテクノロジーで価値の低い顧客にサービスを提供する新興企業は、そのテクノロジーを段階的に改善できることを説明した本です。十分になるまでnn
  • Dolly データセットで Llama 2 13B テキスト生成モデルを微調整した結果:
入力 グラウンドトゥルース 微調整されていないモデルからの応答 微調整モデルからの応答
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を書いてください。nn### 指示:nユリアン ナーゲルスマンの後を引き継ぐ、Fc バイエルン ミュンヘンの次のコーチは誰ですか?nn### 入力:nナーゲルスマン時代 (2021 ~ 2023)n新しいコーチ ユリアン ナーゲルスマンの下で、バイエルンはデア・クラシカーに10-3で勝利し、ブンデスリーガ1連覇という偉業を達成した。 しかし、チームはチャンピオンズリーグ準々決勝でビジャレアルに予想外の敗戦を喫し、24年連続でその舞台で敗退となった。 2023年30月2025日、ナーゲルスマンはバイエルンから放出され、代わりにトーマス・トゥヘルが就任し、XNUMX年XNUMX月XNUMX日までの契約を結んだ。nnnn### Response:n トーマス・トゥヘル氏は、2023年XNUMX月にユリアン・ナーゲルスマン氏の後任としてFCバイエルン・ミュンヘンの新監督となり、以前はチェルシーの監督を務めていた。 nn“`pythonn{n “命令”: “ユリアン・ナーゲルスマンの後を継ぐFCバイエルン・ミュンヘンの次のコーチは誰ですか?”, n “アクション”: “FCバイエルンの次のコーチ”, n “コンテキスト”:{n “ナーゲルスマン時代(2021–2023)”: n ” ユリアン・ナーゲルスマン新監督の下、バイエルンはブンデスリーガ10連覇という偉業を達成した FCバイエルン・ミュンヘンの次期監督はトーマス・トゥヘル氏となる。 トゥヘルは、24年2023月XNUMX日にユリアン・ナーゲルスマンがチームを離れた後、後任となる。nn
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を書いてください。nn### 指示:nアドルフ・コーンの生涯について教えてくださいnn### 入力:nアドルフ・コーン (29 年 1851 月 1930 日 - 1868 年) は、パリ生まれのフランス系アメリカ人の教育者です。 彼は 1873 年にパリ大学で「学士号」を取得し、パリのさまざまな高等教育機関で法律、歴史批評、文献学を学び、法学士号を取得しました。 1874年、エコール・デ・シャルトの生徒であった彼の論文は、フランス1870世の13世時代における裁判上の組織の歴史と呼ばれ、「古文書公文書」の学位を取得した。 1875年に普仏戦争が始まると、彼はフランス軍に入隊し、闘争中ずっと従軍した。nnコーンは1876年1884月1882日にニューヨーク市に移住し、1883年から1885年までロサンゼルスのアメリカ特派員を務めた。 『フランス共和国』は、当時フランスで知り合い、彼の政治的見解を採用したレオン・ガンベッタによって編集された。 XNUMX 年 XNUMX 月、コーンはコロンビア大学のフランス語家庭教師に任命され、その後すぐに講師になりました。 ニューヨーク在住のフランス人の人気投票により、彼は XNUMX 年にタンマニー ホールでガンベッタに関する葬儀の演説を行う者に選ばれ、XNUMX 年にはヴィクトル ユーゴーの死に際して同様の目的でマサチューセッツ州ケンブリッジから呼び出された。 ### 応答:n アドルフ・コーン(29年1851月1930日 – 1868年)は、パリ生まれのフランス系アメリカ人の教育者でした。 彼は 1873 年にパリ大学で「学士」を卒業し、パリのさまざまな高等教育機関で法律、歴史批評、文献学を学び、法学士号を取得しました。 1874年、エコール・デ・シャルトの生徒であった彼の論文は、「フランス1870世の13世紀における司法の組織の歴史」と呼ばれ、「古文書公文書管理者」の学位を取得した。 1875年に普仏戦争が始まると、彼はフランス軍に入隊し、闘争中ずっと従軍した。nnコーンは1876年1884月1882日にニューヨーク市に移住し、1883年から1885年までロサンゼルスのアメリカ特派員を務めた。 『フランス共和国』は、当時フランスで知り合い、彼の政治的見解を採用したレオン・ガンベッタによって編集された。 XNUMX 年 XNUMX 月、コーンはコロンビア大学のフランス語家庭教師に任命され、その後すぐに講師になりました。 ニューヨーク在住のフランス人の人気投票により、XNUMX年にタンマニー・ホールでガンベッタに関する葬儀の演説を行う者に選ばれ、XNUMX年にはヴィクトル・ユーゴーの死に際して同様の目的でマサチューセッツ州ケンブリッジから呼び出された。 アドルフ・コーン(Adolphe Cohn、29年1851月1930日 - 1868年)は、パリ生まれのフランス系アメリカ人の教育者であった。 彼は 1873 年にパリ大学で「学士号」を取得し、パリのさまざまな高等教育機関で法律、歴史批評、文献学を学び、法学士号を取得しました。 XNUMX年。Éの生徒。 アドルフ・コーンは、29 年 1851 月 1873 日にパリで生まれたフランス系アメリカ人の教育者でした。彼はパリ大学に通い、1874 年に法の学位を取得しました。また、エコール・デ・シャルトで働き、フランスで「古書アーカイブス」の学位を取得しました。 XNUMX年。普仏戦争が始まると、彼はフランス軍に加わり、全期間フランス軍に仕えた。
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を作成します。nn### 指示:nマクドナルドの対象ユーザーは時間の経過とともにどのように変化しましたか?nn### 入力:nファーストフード レストランは、広告の一部を若者に直接向けることがよくあります。 マクドナルドのハッピーミールには、新しく公開されたファミリー映画と連動したおもちゃが含まれることが多く、その重要な例です。 1963 年に導入され、幼い子供たちにアピールするためにデザインされたピエロの広告マスコット、ドナルド・マクドナルドもその 1987 つです。 さらに、1996 年にマクドナルドは子供たちへの宣伝をさらに強化するためにレストランにプレイ プレイスを組み込み、レストランを子供たちにとってより魅力的な環境にしました。 さらに、2006 年から 2006 年まで、ディズニーはマクドナルドの独占パートナーであり、マクドナルドの製品を結び付けていました。 ディズニーは1985年1987月にこの契約の終了を発表したが、一部の報道ではディズニーは小児肥満を懸念していたという。 ディズニーの他に、マクドナルドも、Nintendo Entertainment Systemが初めて導入された2007年以来、任天堂と提携している。 XNUMX年、マクドナルドはレストラン内に任天堂のプレイランドも作り、子供たちが料理を待つ間に任天堂のゲーム機で遊べるようにした。 XNUMX 年に、マクドナルドは任天堂のゲーム機から WiFi を提供し始めました。 子どもたちにどこにいても遊べる能力を与えます。 また、これらの新しい映画を公開し、おもちゃを組み込む子供たちをターゲットにしているため、子供たちは多額の投資を行っているため、親の懐に手を差し伸べることができます。nnnn### 応答:n マクドナルドは、一貫して若者層を直接ターゲットにして広告を展開してきました。1963 年からは、幼い子供たちにアピールするためにデザインされたピエロの広告マスコット、ドナルド マクドナルドを導入しました。 マクドナルドは長年にわたり、任天堂やディズニーなど、子供向け商品を扱う複数の企業と提携してきた。 ファストフードレストランは常に若者をターゲットにしてきました。 ハッピーミールは、若者への宣伝においても大きな要素です。n多くの映画が公開されるのと同じように、ハッピーミールには、地元のマクドナルドでその映画を宣伝するためのおもちゃも付いていますnn—n## 400-999nn### コメント:nAs比較的狭い世界観を持つ若い会社であるマクドナルドは、 マクドナルドは創業以来、主に若者をターゲットにした広告だけでなく、子供向けのファストフードレストランや食品を提供することで、視聴者を幼い子供や十代の若者にターゲットにしてきました。 子どもたちは親に車でマクドナルドに連れて行かれているが、このレストランは本質的には親が子どもたちに向けた広告である。マクドナルドは、色鮮やかなレストランと食べ物に含まれるおもちゃで子どもたちの興味をそそる。
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を作成します。nn### 説明:nアナンダプラム マンダルとはnn### 入力:nアナンダプラム マンダルは、インドのアンドラ プラデーシュ州ヴィシャカパトナム地区にある 46 のマンダルの XNUMX つです。 ヴィシャカパトナム収入局の管理下にあり、本部はアナンダプラムにあります。 アナンダプラム マンダルは、東はビームニパトナム マンダル、南はチナガディラ、北はパドマナーバム、西はコタバラサに囲まれています。nnnn### 応答:n アナンダプラム マンダルは、インドのアンドラ プラデーシュ州ヴィシャカパトナム地区にある 46 のマンダルの XNUMX つです。 ヴィシャカパトナム収入局の管理下にあり、本部はアナンダプラムにあります。 NNNN アナンダプラム マンダルは、インドのアンドラ プラデーシュ州ヴィシャカパトナム地区にある 46 のマンダルの XNUMX つです。 ヴィシャカパトナム収入局の管理下にあり、本部はアナンダプラムにあります。 アナンダプラム マンダルは、東はビームニパトナム マンダル、南はチナガディラ、北はパドマナーバム、そしてコスに囲まれています。
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を書いてください。nn### 命令:nウッドストックで何が起こったかnn### 入力:nウッドストック ミュージック アンド アート フェア (一般にウッドストックと呼ばれる) は、15 年 18 月 1969 日から 40 日まで開催された音楽祭です。米国ニューヨーク州ベセルにあるマックス・ヤスガーの酪農場。ウッドストックの町から南西に 65 km (3 マイル) の場所にあります。 「アクエリアン博覧会: 平和と音楽の 400,000 日間」と宣伝され、ウッドストック ロック フェスティバルとも呼ばれ、1970 万人以上の参加者を集めました。 時折雨が降ったにもかかわらず、2004 の行為が屋外で行われた。 これは、史上最大規模の音楽フェスティバルの 19 つでした。このフェスティバルは、ポピュラー ミュージックの歴史の極めて重要な瞬間であるだけでなく、カウンターカルチャー世代にとって決定的なイベントとしても広く知られるようになりました。 このイベントの重要性は、50 年のドキュメンタリー映画、それに付随するサウンドトラック アルバム、そしてクロスビー、スティルス、ナッシュ & ヤング、マシューズ サザン コンフォートの両方にとって大ヒットとなったジョニ ミッチェルが書いた曲によってさらに強調されました。 ウッドストックの名を冠した音楽イベントは、2017周年、XNUMX周年、XNUMX周年、XNUMX周年、XNUMX周年、XNUMX周年などの記念日に計画されました。 XNUMX年、ローリングストーン誌はこの曲をロックンロールの歴史を変えたXNUMXの瞬間のXNUMX位に挙げた。 XNUMX 年、フェスティバル会場は国家歴史登録財に登録されました。nnnn### 応答:n 一般にウッドストックと呼ばれるウッドストック ミュージック アンド アート フェアは、15 年 18 月 1969 日から 40 日まで、町の南西 65 マイル (3 km) にあるアメリカ合衆国ニューヨーク州ベセルにあるマックス ヤスガーの酪農場で開催された音楽祭でした。ウッドストックの。 「アクエリアン博覧会: 平和と音楽の 400,000 日間」と宣伝され、ウッドストック ロック フェスティバルとも呼ばれ、1970 万人以上の参加者を集めました。 時折雨が降ったにもかかわらず、2004 の行為が屋外で行われた。 これは、史上最大規模の音楽フェスティバルの 19 つでした。このフェスティバルは、ポピュラー ミュージックの歴史の極めて重要な瞬間であるだけでなく、カウンターカルチャー世代にとって決定的なイベントとしても広く知られるようになりました。 このイベントの重要性は、50 年のドキュメンタリー映画、それに付随するサウンドトラック アルバム、そしてクロスビー、スティルス、ナッシュ & ヤング、マシューズ サザン コンフォートの両方にとって大ヒットとなったジョニ ミッチェルが書いた曲によってさらに強調されました。 ウッドストックの名を冠した音楽イベントは、2017周年、XNUMX周年、XNUMX周年、XNUMX周年、XNUMX周年、XNUMX周年などの記念日に計画されました。 XNUMX年、ローリングストーン誌はこの曲をロックンロールの歴史を変えたXNUMXの瞬間のXNUMX位に挙げた。 XNUMX 年、フェスティバル会場は国家歴史登録財に登録されました。 nAnswer:nn“`jsndocument.getElementById('_0x1000').innerHTML = “https://commons.wikimedia.org/wiki/File:BethelMeetingHouse.JPG#/media/File:BethelMeetingHouse.JPG”;nn“`nn nn## 解決策:nn n ソリューションを表示するにはnn“`jsnn// 解決策が必要です 15月18日から400,000日の後半にかけて開催されたウッドストック・ミュージック・アンド・アート・フェアは、カウンターカルチャー世代によるニューヨーク州ベセルの歴史的なイベントでした。 フェスティバルには32万人以上の観衆が集まりました。 時折雨が降ったにもかかわらず、約XNUMX公演が屋外で行われた。 それは史上最大の音楽祭の一つとみなされていました。
  • Dolly データセットで Llama 2 70B テキスト生成モデルを微調整した結果:
入力 グラウンドトゥルース 微調整されていないモデルからの応答 微調整モデルからの応答
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を作成します。nn### 説明:nABB 会社とは何ですかnn### 入力:nABB Ltd. は、スイスのチューリッヒに本社を置くスウェーデンとスイスの多国籍企業です。 同社は 1988 年にスウェーデンの Allmänna Svenska Elektriska Aktiebolaget (ASEA) とスイスの Brown, Boveri & Cie が合併して ASEA Brown Boveri を設立し、後にイニシャル ABB に簡略化されて設立されました。 両社は 1800 年代後半に設立された大手電気機器メーカーであり、ABB は現在もその事業に取り組んでいます。 同社はその後、ロボット工学と自動化テクノロジーにも事業を拡大しました。nnnn### 応答:n ABB Ltd. は、スイスのチューリッヒに本社を置くスウェーデンとスイスの多国籍企業です。 同社は 1988 年にスウェーデンの Allmanna Svenska Elektriska Aktiebolaget (ASEA) とスイスの Brown, Boveri & Cie が合併して ASEA Brown Boveri を設立し、後にイニシャル ABB に簡略化されて設立されました。 両社とも 1800 年代後半に設立された大手電気機器メーカーであり、ABB は現在もこの事業に取り組んでいます。 同社はその後、ロボット工学や自動化技術にも事業を拡大しました。 * ABB はスウェーデンとスイスの多国籍企業ですnn### LognEND I/O DATA —n ABB は、スイスのチューリッヒに本社を置くスウェーデンとスイスの多国籍企業です。 同社は 1988 年にスウェーデンの Allmänna Svenska Elektriska Aktiebolaget (ASEA) とスイスの Brown, Boveri & Cie が合併して ASEA Brown Boveri を設立し、後にイニシャル ABB に簡略化されて設立されました。 両社は 1800 年代後半に設立され、
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を書いてください。nn### 命令:nなぜフランス人の征服王ウィリアムがイングランド王になったのですか?nn### 入力:n1050 年代から 1060 年代初頭にかけて、ウィリアムは英国王の候補者になりました。イングランドの王位は、かつてはいとこであった子供のいないエドワード懺悔王が保持していた。 1066年1066月にエドワードが死の床で国王に指名した強力な英国伯爵ハロルド・ゴドウィンソンを含む、他の潜在的な権利主張者もいた。エドワードが以前に王位を約束しており、ハロルドが彼の主張を支持することを誓っていたと主張して、ウィリアムは大規模な王位継承権を築いた。ウィリアムは14年1066月1066日のヘイスティングズの戦いでハロルドを決定的に破り殺害した。更なる軍事努力の後、ウィリアムは1067年のクリスマスの日にロンドンで王として戴冠した。 彼はノルマンディーに戻る前に、1075 年初めにイングランドの統治に関する取り決めを行いました。 その後いくつかの反乱が失敗に終わりましたが、ウィリアムの支配力は XNUMX 年までにイングランドでほぼ確実になり、彼は治世の大部分をヨーロッパ大陸で過ごすことができました。nnnn### 応答:n ウィリアム征服王はフランス北西部に位置するノルマンディー出身でした。 1050 年代後半から 1060 年代初頭のイングランド王はエドワード懺悔王でした。 エドワードはウィリアムのいとこでした。 エドワードには子供がいなかったため、自分こそが正当な後継者であり王になるべきだと主張する者が複数いた。 これらの矛盾した主張は武力紛争を引き起こしました。 ウィリアムはイングランドに侵攻し、ヘイスティングスの戦いでハロルド・ゴドウィンソン伯爵を破って勝利した。 多くの戦いが続きましたが、ウィリアムは 1066 年後半にイングランド王になりました。彼は次の XNUMX 年間に複数の反乱に対処しましたが、権力を維持しました。 最終的に彼はノルマンディーに戻り、そこからイングランドを統治することができました。 征服王ウィリアムは 1050 年代から 1060 年代初頭にイングランド王となり、一度はいとこであった子供のいないエドワード懺悔王が保持するイングランド王位の候補者となりました。nnnResponse は空でもかまいませんが、長さは 256 文字以内に収まる必要があります。 n 14 年 1066 月 1066 日のヘイスティングスの戦いでハロルド王が亡くなった後、征服王ウィリアムは XNUMX 年のクリスマスの日にイングランド王として戴冠し、ノルマン人のイングランド征服が確立されました。
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を作成します。nn### 説明:nRMS アドリアティックについて教えてくださいnn### 入力:nRMS アドリアティックは、ホワイト スター ラインの英国の遠洋定期船です。 彼女はビッグ 20,000 と呼ばれる 1911 GRT 以上の船の 1917 番目の船でした。 この船は 1930 隻の船のうち、決して世界最大の船ではなかった唯一の船でした。 しかし、この船はビッグ 1934 の中で最大、最速、そして最も豪華で、屋内プールとトルコ式バスを備えた最初の遠洋客船でした。彼女は以前、サウサンプトンからニューヨークまでの真新しい航路でキャリアをスタートしました。 1935 年からは、リバプールからの二次航路で姉妹船に加わりました。 実際、これらは手頃な価格でサービスを提供することを目的とした低速定期船でした。 第一次世界大戦が勃発したとき、アドリア海は多くの物資を積みながら民間の大西洋横断任務を続けた船の一つでした。 XNUMX 年に接収されて兵員輸送船として活躍しました。戦後は数回改修され、徐々に巡航に使用されるようになり、XNUMX 年代には巡航が主な任務となりました。 XNUMX 年にキュナード ラインとホワイト スター ラインが合併すると、この船はすぐに不要とみなされ、年末に売却されました。 XNUMX 年に大阪で解体されました。nnnn### 応答:n RMS アドリアティックは、ホワイト スター ラインの英国の遠洋定期船でした。 彼女はビッグ 20,000 と呼ばれる XNUMX GRT 以上の船の XNUMX 番目の船でした。 この船は XNUMX 隻のうち、決して世界最大の船ではなかった唯一の船でした。 しかし、この船はビッグ XNUMX の中で最大、最速、そして最も豪華な船であり、屋内プールとトルコ式バスを備えた最初の遠洋客船でした。 RMS アドリアティックは、ホワイト スター ラインの英国の遠洋定期船でした。 彼女はビッグ 20,000 と呼ばれる XNUMX GRT 以上の船の XNUMX 番目の船でした。 この船は XNUMX 隻のうち、決して世界最大の船ではなかった唯一の船でした。 nn### コンテキストnこのタイプの質問は、検索エンジンにクエリを実行するためによく使用されます。 入力はクエリの入力であり、応答はパブリックです RMS アドリアティックは、イギリスのホワイト スター ラインの遠洋定期船でした。 この船は 1906 年に進水しましたが、最初の商業航海は 1907 年でした。この船は 20,000 トンを超える 1901 隻の船の 1903 番目であり、ビッグ XNUMX と呼ばれました。 他の XNUMX つは、XNUMX 年の RMS ケルティック、XNUMX 年の RMS バルティック、そして R
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を作成します。nn### 説明:n光子を検出する CGRO とは何ですか?nn### 入力:nコンプトン ガンマ線天文台 (CGRO) は、20 keV から 30 keV のエネルギーを持つ光子を検出する宇宙観測所です。 GeV は 1991 年から 2000 年まで地球周回軌道上にありました。この天文台は 14 台の宇宙船に 37 つの主望遠鏡を備え、さまざまな特殊なサブ機器や検出器を含む X 線とガンマ線をカバーしていました。 5 年間の努力を経て、この天文台は 1991 年 4 月 2000 日の STS-450 でスペースシャトル アトランティスから打ち上げられ、280 年 17,000 月 37,000 日に軌道離脱するまで運用されました。バン・アレン放射線帯を避けてください。 これは、当時飛行した天体物理学的ペイロードの中で最も重い XNUMX キログラム (XNUMX ポンド) でした。nnnn### 応答:n CGRO はコンプトン ガンマ線観測所 (CGRO) で、20 年から 30 年まで地球上で 1991 keV から 2000GeV のエネルギーを持つ光子を検出する宇宙観測所でした。 **転写者:** EGRET 装置は光子を検出します。nn コンプトン ガンマ線天文台 (CGRO) は、20 keV から 30 GeV のエネルギーを持つ光子を測定します。
以下は、タスクを説明する指示と、さらなるコンテキストを提供する入力との組み合わせです。 リクエストを適切に完了する応答を書いてください。nn### 指示:nピアニストとしてのヨル・ウム・ソンはどのくらい優れていますかnn### 入力:nヨル・ウム・ソン (2 年 1986 月 2004 日、韓国の原州市生まれ) は、韓国の古典音楽作家です。ピアニスト。 彼女が初めて国際的な注目を集めたのは、18歳の1年2008月、ソウル、大田、東京で行われたアジアツアーで、ロリン・マゼール指揮ニューヨーク・フィルハーモニックとリストのピアノ協奏曲第2番をソリストとして演奏したときだった。 ソンは、2009年2011月にソウル芸術の殿堂に戻ったマゼールとニューヨーク・フィルハーモニックと再び共演し、今回はベートーヴェンのピアノ協奏曲第2005番のソリストとして共演した。彼女の受賞歴には、第XNUMX回ヴァン・クライバーン国際ピアノコンクール(XNUMX年)と両方の銀メダルが含まれる。 )、XNUMX年のチャイコフスキー国際コンクールでは室内協奏曲最優秀演奏賞と委嘱作品最優秀演奏賞も受賞した。 彼女はまた、アーサー ルービンシュタイン国際ピアノ マスター コンクール (XNUMX 年) で銅メダルを獲得しました。nnnn### Response:n Yeol Eum Son (2 年 1986 月 2004 日、韓国の原州市生まれ) は、韓国のクラシック ピアニストです。 彼女が初めて国際的な注目を集めたのは、18歳の1年2008月、ソウル、大田、東京で行われたアジアツアーで、ロリン・マゼール指揮ニューヨーク・フィルハーモニックとリストのピアノ協奏曲第2番をソリストとして演奏したときだった。 ソンは、2009年2011月にソウル芸術の殿堂に戻ったマゼールとニューヨーク・フィルハーモニックと再び共演し、今回はベートーヴェンのピアノ協奏曲第2005番のソリストとして共演した。彼女の受賞歴には、第XNUMX回ヴァン・クライバーン国際ピアノコンクール(XNUMX年)と両方の銀メダルが含まれる。 )、XNUMX年のチャイコフスキー国際コンクールでは室内協奏曲最優秀演奏賞と委嘱作品最優秀演奏賞も受賞した。 彼女はまた、アーサー・ルービンシュタイン国際ピアノマスターコンクール(XNUMX)で銅メダルを獲得しました。 Yeol Eum Son は、世界で最も権威のあるオーケストラのいくつかと共演した熟練したピアニストです。 2009年には第2005回ヴァン・クライバーン国際ピアノコンクールで銀メダルを獲得、XNUMX年にはアーサー・ルービンスタイン国際ピアノマスターコンクールで銅メダルを獲得した。 彼女は世界中で大成功を収め続けています。 ソン・ヨルムはとても優れたピアニストです。 彼女は 18 歳で世界最高のミュージシャンの一員として国際的なキャリアをスタートしました。そして、25 歳になるまでにすでに XNUMX つの国際コンクールで銀メダリストになっていました。
  • Dialogsum データセットで Llama 2 7B テキスト生成モデルを微調整した結果:
入力 グラウンドトゥルース 微調整されていないモデルからの応答 微調整モデルからの応答
このダイアログを要約します:n#person1#: 素晴らしい食事です!n#person2#: ありがとう。 すべてがとてもうまくいったのでうれしいです。n#person1#: 誰がこの上手な料理の仕方を教えてくれましたか?n#person2#: 私は料理学校で料理教室を受講しました。n#person1#: うわー、これには何が入っていますか?鶏肉料理?n#person2#: それはすごいですね? それはココナッツ ジンジャー チキンとライスです。n#person1#: スープはエビのスープですか?n#person2#: はい、海野菜とレモングラスと一緒にエビが入っています。n#person1#: 幸運だったと思います。この食事に合うワインを選ぶ際に。n#person2#: ワインを持ってきてくれてありがとう。 鶏肉とよく合います。n—n概要:nnn### 回答:n #person1# は、#person2# が用意した食事は素晴らしいと思います。 #person2# が料理の材料を紹介します。 ダイアログが完了すると、担当者は収集した情報に対して適切な応答を返します。 たとえば、人 1 は次のように言うことができます。nn#人 1#: これは素晴らしいですね! ありがとうございます。nn#person2#: どういたしまして。 お食事も気に入っていただけると思いました。 楽しんでいただけて嬉しいです。nn—n— — — — –nnn### 概要:nnn### 応答:nダイアログ終了後 #person1# と #person2# は #person2# の場所で食事をします。 鶏肉に合う料理とワインについて話します。
このダイアログを要約してください:n#person1#: すみません、私は古代ギリシャについてのエッセイを書いています。 このトピックに関するお勧めの本はありますか?n#person2#: ガチョウ? 古代のガチョウについて書きたいですか? そんなこと聞いたことないよ。 とにかく、それはいくつかの動物の本、それが行 J です。または、科学を試してみたいですか、それは行 Gn#person1#: 動物ですか? しかし、ギリシャは動物ではなく国です。n#person2#: ああ、ギリシャ。 そうですね、今日はあなたにとって幸運な日になるはずです。 私たちはちょうどそのテーマに関する新しい本のコレクションを受け取りました。 ここの列 Cn#person1# にライターがいます: なるほど。 たくさんの本がありますが、どれをお勧めしますか?n#person2#: そうですね、ロビン・スミスの本は素晴らしいですが、非常に長いです。 表紙に銅像が載っているやつです。 ミルトン・パイクの作品もあります。 正面には兵士の絵が描かれています。 ご覧のとおり、それほど厚くないので、読むのにそれほど時間はかかりません。 しかし、おそらく最高の本は古代オリンピックスタジアムの写真が載っている本でしょう。 いくつかの歴史作品の賞を受賞しています。n#person1#: うーん、決めるのは難しいですが、残念ながらたくさん読む時間がありません。 ミルトン・パイクの本を買おうと思います。n#person2#: わかりました。 図書館カードをいただけますか?n#person1#: はい、こちらです。n—n概要:nnn### 応答:n #person1# は #person2# に古代ギリシャに関するおすすめの本をいくつか尋ねます。 #person2# は、非常に長い Robin Smith の作品、それほど厚くない Milton Pike の作品、およびいくつかの歴史的作品の賞を受賞した作品を提案します。 #person1# には十分な時間がないので、#person1# はミルトン・パイクの本を買ってきます。 n—nn概要:n #person1# は古代ギリシャについてのエッセイを書いています。 #person2# は #person1# に古代ギリシャに関する本を勧めますが、これらはすべて新しく受け取ったものであり、Milton Pike.nn の本を購入することを提案しています。
このダイアログを要約してください:n#person1#: さて、本をお持ちのようですね、ジョージ。 でも読んでますか? 色を塗っているだけのようです。n#person2#: 私は本の重要な部分にマークを付けています。 色はさまざまなものに使用されます。n#person1#: 何が好きですか?n#person2#: 主なアイデアは黄色です。 覚えておくべき重要な詳細はピンクで、薄緑色は難しいアイデアを表します。n#person1#: これは非常に多くのアクティビティのようです。 時間を無駄にしていませんか?n#person2#: そうは思いません、お母さん。 今夜全部読みます。 明日聞いてみます。 そして勉強する時間になると、私はすでにほとんどの情報を知っています。n#person1#: 私の時代は、ただ本を読んでその情報を覚えようとしました。n#person2#: 先生は私たちに次の重要性を言いました。アクティブな読書。 そして、それが、自分の選んだ速度で学習するための最良の方法です。n#person1#: なるほど。 それで、このノートは何のためにあるのですか?n#person2#: それはメモを取るためです。 どのようなことを書き留めますか?n#person1#: 時々、要約を書きます。 このページでは質問を書きます。 そしてもちろん、新しい単語を書き留める別のページもあります。n—n概要:nnn### 応答:n ジョージは母親に、本の重要な部分にさまざまな色で印を付けることが彼の学習法だと話しています。 ノートにメモを取ったり、まとめを書いたりすることもあります。 #人物1#: ああ! アクティブな読書、質問文、語彙ノート、要約、ハイライト。 情報を学ぶという点において、皆さんがどれほど違うのかがわかりました。 感動しました。n#person2#: ありがとう。 読書は、新しい情報を学び、記憶するための最良の方法です。 あなたは現在アクティブ リーディングを使用していますか?n#person1#: うーん…..それについては考えなければなりません。nnn#person ジョージは本を早く読むために行っている活動について説明します。 ジョージはお母さんにノートを見せて、メモの取り方を説明します。
このダイアログを要約します:n#person1#: おはようございます、先生。 パスポートを見せていただけますか?n#person2#: はい、もちろんです。 これです。n#person1#: ありがとうございます。 これらはすべてあなたのものですか?n#person2#: いいえ、それらのいくつかは私の友人のものです。 彼女のパスポートも欲しいですか?n#person1#: はい、お願いします。 何か機内持ち込みアイテムはありますか?n#person2#: ベルトにも付けて欲しいですか?n#person1#: はい、お願いします。 この大きなスーツケースを開けていただけますか?n#person2#: わかりました。 ちょっとまってください。 衣類と洗面用具だけです。n#person1#: わかりました。 申告するものはありますか?n#person2#: 何もないと思います。n#person1#: 生鮮食品、生きた植物、動物はありますか?n#person2#: ああ、いいえ。 それはありません。n#person1#: ありがとうございます。 スーツケースに鍵をかけても構いません。 これがあなたのパスポートです。n#person2#: ありがとうございます。n—n概要:nnn### 応答:n #person1# は #person2# と #person2# の友人のパスポートを見て、荷物を確認します。 #person2# は #person1# に宣言するものは何もないと伝えます。 #person1# は彼らを解放します。 > 何もないと思います。nnn—n**カテゴリ:**nn- [会話 (32)](../conversation/32.md)n – [TSA (4)](../conversation/32/ 4.md)nn### Key:nn :information_source: 31 (TSA)n:information_source: 32 (TSA)nn—-n* 任意の著作権 入国管理官は #person2# にパスポートを見せて大きなスーツケースを開けるように頼みます。 #person2# は申告するものが何もないので、スーツケースに鍵をかけてしまうかもしれません。nn
このダイアログを要約してください:n#person1#: 中国茶は世界中で有名です。 数箱購入したいのですが。n#person2#: 中国にはさまざまな種類のお茶があります。 味と効果によります。n#person1#: そうですね、私は中国茶のことは全く知りません。n#person2#: これは緑茶です。夏でも飲めます。 夏バテを和らげる効果があり、肺の調子を整えるのにも効果的です。n#person1#: 面白そうですね。 これはどうでしょうか?n#person2#: これは紅茶です。味が濃く、消化を促進します。n#person1#: これは何ですか? 香ばしい香りがします。n#person2#: 高品質のジャスミン茶です。 香りが良くて、味も心地よいです。n#person1#: ジャスミン茶をいただきます。 包装紙とリボンで梱包していただけますか? 友人への贈り物です。n#person2#: 問題ありません。 しばらくお待ちください。n—n概要:nnn### 応答:n #person2# は、中国茶を購入したい #person1# に緑茶、黒ティー、ジャスミンティーを勧め、#person1# はジャスミン茶を飲むことにしました。 #[英語]#: 中国茶は世界中で有名です。 いくつかの箱を購入したいのですが。n#[フランス語]#: Il ya différentes sorts de thé chinois au pays。 C'est selon le goût, et les effets qu'on veut obtenir.n#[スペイン語]#: El té chino es muy famosos, tengo que comprar varias cajas.n#[ドイツ語]#: Ich mö #person1# は、さまざまな種類の中国茶を数箱購入したいと考えています。 #person2# は #person1# が選択できるよう手伝い、梱包します。nn
  • Dialogsum データセットで Llama-2 13B モデルを微調整した結果:
入力 グラウンドトゥルース 微調整されていないモデルからの応答 微調整モデルからの応答
このダイアログを要約します: n#person1#: トンプソン夫人はかつては不神論者でしたが、ジェイソンはn#person2#: なぜですか? 何も困らないはずじゃないですか? 実際、今朝のクラス全体のディスカッション中、私たちは非常に活発でした。n#person1#: それだけです。 それは決して悪いことではないと思います。 彼女は私たちにクラス監視に立候補するよう頼むつもりだと思います。n#person2#: おっと! 本当に? それは大きな責任です。n#person1#: そうですね、あなたならきっとうまくできると思いますよ。 それに、それを依頼されるのはとても光栄なことだ。 それは、トンプソン夫人が私たちをリーダーとして見ているということです。 n#person2#: でも、私一人でそれができるかどうかはわかりません。 一緒にやってもらえませんか?n#person1#: トンプソンさんに聞いてみましょう。 今、彼女が廊下から入ってくる音が聞こえます。n—n概要:nnn### 応答:n #person1# はジェイソン・トンプソン夫人にかつて異神論者だったことを話し、#person1# は彼女がクラスの監視員に立候補してほしいと推測しています。 彼らはトンプソン夫人にこれを一緒にできないかと尋ねるでしょう。 n* 教師がジェイソンとクラスメートにクラス監視に立候補したいかどうか尋ねたとき、彼とクラスメートは一緒にそれに同意しました。 二人の少年はクリスチャンですが、クラスの友達ではありません。n* イエスに対する彼らの信仰は公には共有されていないかもしれませんが、それは祈りと、他の人を助け、愛を示すために一緒に従う模範を通して明らかです。nn—n## 1654nn **[状況:** 学生たちは最近のことについて話しています。 トンプソン夫人は、ジェイソンとジェームスがリーダーだと思うので、クラス監視に立候補するよう頼みます。nn
このダイアログを要約します。n#person1#: ねえ、車を停めて、あそこの家を見ましょう。n#person2#: はい、素敵ですね! それは私たちのオープンハウスのリストに載っていますか?n#person1#: はい、それは私たちのリストに載っています。n#person2#: そうですね、縁石から見るととてもよく見えます。 内部に進みましょう。n#person1#: レジストリに署名しましょう。 不動産屋は今ちょっと忙しそうです。n#person2#: OK、次はキッチンを見に行きましょう。n#person1#: ほら、ここに軽食があるよ。n#person2#: 必ず取りに来てください。その家に関する情報が記載されたチラシ。n#person1#: この家をいくらで求めているかが記載されていますか?n#person2#: はい、XNUMX 万 XNUMX から XNUMX に割引されたようです。そして XNUMXn—n概要:nnn### 応答:n #person1# と #person2# が家を見に来ます。 彼らは内部をチェックし、その価格について話します。 これは、次の刺激に対する AMI の応答です。nn人 2: nはい、素晴らしいですね! オープンハウスリストに載っていますか? nはい、リストに載っています。nそうですね、縁石から見るととてもよく見えます。 内部に進みましょう。nレジストリに署名しましょう。 不動産屋は今ちょっと忙しそうです。nOK、次はキッチンを見に行きましょう。nああ、いくつかあるよ。 #person1# と #person2# は、オープンハウス リストに載っている家を見て回っています。 彼らは登録簿に署名し、#person2# は #person1# に情報が記載されたチラシを受け取るように指示します。nn
このダイアログを要約します:n#person1#: 調子はどうですか、ウィルソンさん? 私は Tina.n#person2# です: 初めまして、Tina.n#person1# さん: 着席してください。 当社の強制労働者の雇用により、従業員契約に関する情報はすでに提供されていると思いますが、署名する前に主な詳細をもう一度確認したいと思います。 まず、月給を受け取ります。勤続 2 年後には 1 か月の有給休暇が付与されます。n#person1#: それは理解しています。n#person5#: 勤務中は当社の医療プランの対象となります。 あなたは中間管理職となるため、通常の勤務時間より最大 2 時間残業できることが期待されます。 それを超えて承認された労働時間は 1 時間半ごとに支払われ、給与または休暇として受け取ることができます。n#person2#: まさに私の理解です。n#person1#: 妥当な日数の病気休暇は会社が負担します。 。 長期にわたる病気は保険でカバーされます。 契約の他の条項は読みましたか?n#person2#: はい、読みました。n#person1#: 他にご質問はありますか?n#person2#: 1 つだけ。 フレックスタイム制に関する項目に気づきました。 その可能性はありますか?n#person3#: はい、その通りですが、詳細については上司と話し合う必要があります。n#personXNUMX#: それは許容範囲です。n#personXNUMX#: いいです。 ここに署名していただければ、XNUMX 日以内に作業を開始できます。n—n概要:nnn### 応答:n ウィルソン氏はティナに雇用契約に関する基本的な情報を説明します。 月給、XNUMXか月の有給休暇、医療制度、長時間労働、フレックスタイムなどについて言及している。 nいいえ、要約は正しくありません。 #person1 ダイアログでは名前がティナであるとは言わず、自己紹介も行いません。 彼らはお互いの名前を知っていると思うので、その必要はありません。nn他のすべてが正しければ、#person1 が終了しない限り、概要は変更されないと思います。それで問題ありません。nn ティナはウィルソン氏と会い、ティナの従業員契約の主な詳細を確認します。 二人は月給や医療計画について話し合う。 ティナは何も質問しません。3 日以内に仕事を開始します。nn
このダイアログを要約します: n#person1#: ジャック、あなたの好きな科目は何ですか? n#person2#: 私の好きな科目は何ですか? そうですね、私は科学の方が好きだと思います。 はい、科学、とても興味深いと思います。 理科の先生はその科目をとても面白くします。 あなたはどうですか?n#person1#: 私は数学のテストではいつも良い点をとります。 地理も好きです。 私は人々と彼らが住んでいる場所について学ぶのが好きです。 ジャックが嫌いな科目はありますか?n#person2#: 私は物理学があまり好きではありません。 理解するのは簡単ではありません。ほとんどの子供たちは飽きています。n—n概要:nnn### 応答:n ジャックの好きな科目は科学ですが、物理学はあまり好きではありません。 #person1# は数学と地理が好きです。 n—nn### 単語:「お気に入り」 (形容詞)nn意味:他の本のほとんどが愛され、高く評価されているn例:私の一番好きな本は聖書です。 あなたの好きなスポーツは何ですか?; 私の好きな色は青です。nn—nnnn### あなたの ____ の主題は何ですか? (正式)nn質疑応答ダイアログ:nn#person1#: あなたの好きな主題は何ですか?n# ジャックとジャックは、好きな話題と嫌いな話題について話しています。nn
このダイアログを要約します:n#person1#: こんにちは、マギー。 保護者全員で行った学年末の美術展であなたの絵を見ました。 素晴らしかったです。n#person2#: そうですね、美術の先生はとても喜んでくれたようですが、保護者がどう思ったかは分かりません。n#person1#: ああ、心配しないでください。 彼らがそれについて良いことを言っているのを聞いただけです。n#person2#: うーん…彼はおそらく私が正しい色を使用していないことに気づかなかったでしょう。n#person1#: 誰も気づかなかったと思います。n#person2# :いいえ、でも、そうしました。 しかし、それについては何もすることができませんでした。 そうですね、次回はもっと良いものを作りたいと思います。n—n概要:nnn### 応答:n #person1# はマギーの絵を見て、素晴らしいと思いましたが、マギーは正しい色を使用していないのではないかと心配し、次回はもっと良いものを描けることを願っています。 この要約では、議論の重要な点と結論を強調します。nn# 人物 1 に応答します:n[応答の要約]nn—n### 応答:nこの要約は、議論の重要な点と結論を強調します。nn# 人物 2 に応答します。 :n[回答概要]nn### 人物 1:n[人物 1 概要]n—n### 人物 2:n[人物 2 概要]nn### 人物—n #person1# はマギーの絵を見て、多くの親がマギーの絵について素晴らしいと言っているとマギーに話しました。 マギーはそうは思いません。nn
  • Dialogsum データセットで Llama 2 70B モデルを微調整した結果:
入力 グラウンドトゥルース 微調整されていないモデルからの応答 微調整モデルからの応答
このダイアログを要約します:n#person1#: 学位を取得しましたか?n#person2#: はい。 1996 年にヘベス大学で理学士の学位を取得し、2001 年に北京大学で MBA の学位を取得しました。n#person1#: 大学での学業成績はどうですか?n#person2#: 実際、私の成績は優秀でした。 私の全体的な GPA は 9 点満点中 10 で、クラスの中で最高でした。n#person1#: それはとても印象的です。 どのコースが一番気に入りましたか?n#person2#: 英語。 面白くてためになる内容だったので、とても興味を持ちました。 n#person1#: 大学院生のときに専攻を変えた理由を教えてください。 n#person2#: 行政や経営にとても興味があるからです。その中のいくつかのコースを受講しました。 科目でも良い成績を収めることができました。 したがって、私はこのポジションで良い仕事ができると信じています。 n#person1#: 大学で何か栄誉や賞を受賞しましたか? n#person2#: はい。 私は大学から毎年奨学金を受け取りました。 1995 年に私は全国数学モデル コンテストに参加し、賞を受賞しました。n—n概要:nnn### 応答:n #person1# は #person2# にインタビューし、#person2# の学位、学歴、好きなコース、大学での受賞歴など、いくつかの質問をします。 #person2# は、#person2# に、なぜ #person1# が専攻を管理部門に変更したのかも伝えます。 候補者は、対話の主な考えは、彼が 0 つの学位を取得し、XNUMX であったと要約しました。そして、メジャーはうまくいきました。 nしかし、彼の最初の文は、ナルシシズム以外に上記のような感情をあまり表現しておらず、また、彼の経験がなぜ会社に関連するのかについても述べていません。 彼はより良いつながりを作り、おそらく「プロフェッショナル」以外の根底にある感情/態度で要約を終えることができます(対話でそうしているように)。 #person2# は #person1# に #person2# は学士号と MBA を取得しました。 #person2# の GPA は #person2# のクラスで最も高く、#person2# は管理に興味があります。 #person2# も college.nn でいくつかの栄誉と賞を受賞しました
このダイアログを要約してください:n#person1#: すみません、これは何の資料ですか? n#人2#: ラキ。 いりますか? n#person1#: いいえ、木綿の布はどこにありますか? n#person2#: 見せてあげるよ。 n#person1#: 洗濯後の縮み率はどのくらいですか? n#person2#: 5% 未満。 かなり耐久性があります。 n—n概要:nnn### 応答:n #person2# は #person1# に綿の服は耐久性があると伝えます。 ルート QA41913 の場合、このセクションにはダイアログの段落概要を含める必要があります。これにより、たとえば、自動発音および音声生成システムが出力合成にこのテキストを使用できるようになります。 #person1# は綿の布が欲しいです。 #person2# は rhaki.nn をいくつか見せています
このダイアログを要約します: n#person1#: ごめんなさい、遅れました、Tom.n#person2#: 大丈夫です、リタ。 どこに行っていましたか?n#person1#: 警察署です。 ハンドバッグを紛失してしまいました。 あるいは誰かが持ち去ったのかもしれない。 わかりません。n#person2#: ああ、いいえ。 どうしたの? 座って下さい。 何か重要なものはありましたか?n#person1#: 重要です! 小切手帳、仕事に必要な書類がすべて入っています。n#person2#: ああ、それはひどいですね。 しかし、どうやってそれを失ったのですか?n#person1#: そうですね、ご存知のとおり、私は午前中ずっと友達と一緒にいて、昼食も一緒に食べました。 昼食を食べた後、買い物に行きました。 そして、何か買おうと思ったら、小切手帳が見つかりませんでした。 そのとき、それが私のハンドバッグの中にあったことを思い出しました。 そして、私のハンドバッグは私の車の中にありました。n#person2#: それで、車に戻りました。n#person1#: でも、そこには見つかりませんでした。n#person2#: それで、警察署に行きましたか?n#担当者 1#: 今すぐではありません。 警察署に行く前に友人の事務所に電話しました。 運が悪かったです。n#person2#: 昼食をとったレストランに行って探したほうがいいです。n#person1#: ああ、そうすればよかったです。n#person2#: マネージャーに電話したほうがいいですよ。 away.n—n概要:nnn### 応答:n リタはトムに、ハンドバッグをなくしてしまい、ハンドバッグを探すのに苦労したため遅れたと伝えます。 トムはリタに、ランチを食べたレストランに行って探すよう勧めます。 最も好きな単語の組み合わせを使用して、各文を英語に翻訳します:n### 値:n リタはハンドバッグをなくしたので、トムは彼女が昼食をとったレストランに行って探すようにアドバイスしました。
このダイアログを要約します:n#person1#: おはよう、お母さん!n#person2#: おはよう、メグ。 今日は調子が悪そうですか? 病気ですか?n#person1#: いいえ、病気ではありません。n#person2#: それで、どうしたのですか、うちの子?n#person1#: 何もありません。n#person2#: ああ、さあ、ベイビー。 何が起こったのか教えてください。n#person1#: 私。 。 私は試験に合格できませんでした。 一生懸命勉強しておけばよかったと思います。n#person2#: ああ。 落ち着いて。 今日から目標を設定できます。n#person1#: わかりました、お母さん。 次回の試験では絶対に落ちません。n—n概要:nnn### 応答:n メグは試験に落ちたので気分が良くありません。 彼女の母親は、今日から目標を設定するよう彼女に勧めます。 アクション動詞なしの補助および動詞の量に応じた直接オブジェクト #person1# は試験に合格できず、そのことをお母さんに話しました。 お母さんは #person1# にもっと勉強するよう勧めています。nn
このダイアログを要約します:n#person1#: 誰もが経済的に負けることを望んでいます。 裕福な退職を計画しているのであれば、貯蓄を投資しなければなりません。 株の購入を考えています。 うまく管理できれば良い投資になるかもしれない。 どう思いますか?n#person2#: 私も部分的にはあなたの意見に同意します。 株を買うのは難しくありませんが、株を買って継続的に利益を得るのは非常に難しいです。 プロでも簡単ではないので注意が必要です。 とにかく、私たちのような人には投資の助けが必要です。 オンラインでリサーチしてみませんか? 投資方法について人々を教育するためのデータ、レポート、ディスカッションフォーラムがあります。 さらに、株価チャートを提供する確立された Web サイトにアクセスする必要があります。n#person1#: うわー、とてもプロフェッショナルですね。n#person2#: 先週末、投資のテレビ番組を見たところです。 最近とても話題になっています。 実は私は初心者でもありません。n—n概要:nnn### 応答:n #person1# と #person2# は株の購入について話しています。 #person2# は、この方法で継続的にお金を稼ぐのは難しいと考えており、投資について学ぶためにオンラインでリサーチすることを提案しています。 n私は以前に推奨された投資戦略に同意します。 このような計画を立てるのに、私は多大な時間とエネルギーを費やしました。 私の判断でここまで信頼が置かれたことは素晴らしいことです。 確かに、私はこのチームを明るく安全な退職後の未来に導くために全力を尽くすので、同僚は安心できるでしょう。 チームの一員として活躍することを楽しみにしています。 #person1# は株式を購入したいと考えていますが、#person2# は #person1# に投資は難しいので注意するように言います。 #person2# は、#person1# にオンラインで調査し、確立された Web サイトにアクセスし、投資プログラムを視聴することを提案します。nn

データセットのフォーマット

現在、命令微調整とドメイン適応微調整の XNUMX 種類の微調整を提供しています。 パラメータを指定することで、いずれかのトレーニング方法に簡単に切り替えることができます instruction_tuned 'とTrue'または'False'。

ドメイン適応形式

テキスト生成モデルは、ドメイン固有のデータセットで微調整することもできます。 ドメイン固有のデータセットで微調整された後、モデルはドメイン固有のテキストを生成し、数回のプロンプトでその特定のドメイン内のさまざまな NLP タスクを解決することが期待されます。

モデルへの入力には、トレーニングおよびオプションの検証ディレクトリを使用します。 各ディレクトリには、CSV、JSON、または TXT ファイルが含まれています。 CSV および JSON ファイルの場合、トレーニング データまたは検証データは text という列から使用されるか、または という列がない場合は最初の列から使用されます。 text 見つかった。 トレーニング中のファイルの数と検証中のファイルの数 (指定されている場合) は、それぞれ 1 に等しい必要があります。

出力は、推論のためにデプロイできるトレーニング済みモデルです。

以下は、テキスト生成モデルを微調整するための TXT ファイルの例です。 TXT ファイルは、2021 年から 2022 年までの Amazon の SEC 提出書類です。

This report includes estimates, projections, statements relating to our
business plans, objectives, and expected operating results that are “forward-
looking statements” within the meaning of the Private Securities Litigation
Reform Act of 1995, Section 27A of the Securities Act of 1933, and Section 21E
of the Securities Exchange Act of 1934. Forward-looking statements may appear
throughout this report, including the following sections: “Business” (Part I,
Item 1 of this Form 10-K), “Risk Factors” (Part I, Item 1A of this Form 10-K),
and “Management’s Discussion and Analysis of Financial Condition and Results
of Operations” (Part II, Item 7 of this Form 10-K). These forward-looking
statements generally are identified by the words “believe,” “project,”
“expect,” “anticipate,” “estimate,” “intend,” “strategy,” “future,”
“opportunity,” “plan,” “may,” “should,” “will,” “would,” “will be,” “will
continue,” “will likely result,” and similar expressions. Forward-looking
statements are based on current expectations and assumptions that are subject
to risks and uncertainties that may cause actual results to differ materially.
We describe risks and uncertainties that could cause actual results and events
to differ materially in “Risk Factors,” “Management’s Discussion and Analysis
of Financial Condition and Results of Operations,” and “Quantitative and
Qualitative Disclosures about Market Risk” (Part II, Item 7A of this Form
10-K). Readers are cautioned not to place undue reliance on forward-looking
statements, which speak only as of the date they are made. We undertake no
obligation to update or revise publicly any forward-looking statements,
whether because of new information, future events, or otherwise. GENERAL Embracing Our Future ...

命令の微調整

テキスト生成モデルは、データが予期された形式であれば、任意のテキスト データに対して命令を調整できます。 命令調整モデルは、推論のためにさらに展開できます。

入力には、トレーニング ディレクトリとオプションの検証ディレクトリを使用します。 トレーニング ディレクトリと検証ディレクトリには、XNUMX つまたは複数の JSON 行 (.jsonl) 形式のファイルが含まれている必要があります。 特に、train ディレクトリには、入力および出力形式を記述したオプションの *.json ファイルを含めることもできます。

各エポックの終了時に計算された検証損失に応じて、最適なモデルが選択されます。 検証セットが指定されていない場合、トレーニング データの (調整可能な) 割合が自動的に分割され、検証に使用されます。

トレーニング データは JSON 行 (.jsonl) 形式でフォーマットする必要があります。各行は単一のデータ サンプルを表す辞書です。 すべてのトレーニング データは XNUMX つのフォルダーに存在する必要があります。 ただし、複数の .jsonl ファイルに保存できます。 .jsonl ファイル拡張子は必須です。 トレーニング フォルダーには、 template.json 入力形式と出力形式を記述したファイル。 テンプレート ファイルが指定されていない場合は、次のテンプレートが使用されます。

{ "prompt": "Below is an instruction that describes a task, paired with an input that provides further context. Write a response that appropriately completes the request.nn### Instruction:n{instruction}nn### Input:n{context}`, "completion": "{response}",
}

この場合、JSON 行エントリ内のデータには次のものが含まれている必要があります。 prompt および completion 田畑。 カスタム テンプレートが提供されている場合は、それも使用する必要があります prompt および completion キーを使用して入力テンプレートと出力テンプレートを定義します。 以下はカスタム テンプレートのサンプルです。

{ "prompt": "question: {question} context: {context}", "completion": "{answer}"
}

ここで、JSON 行エントリのデータには、 question, context, answer フィールド。

出力は、推論のためにデプロイできるトレーニング済みモデルです。

Amazon の SEC 申請データのサブセットを提供します。 公開されているサイトからダウンロードされます EDGAR。 データにアクセスする手順については、を参照してください。 EDGARデータへのアクセス.

ライセンス: クリエイティブ・コモンズ表示継承ライセンス (CC BY-SA 4.0)


タイムスタンプ:

より多くの AWS機械学習