ビッグデータと AI の時代において、企業は競争力を高めるためにこれらのテクノロジーを使用する方法を絶えず模索しています。 AI で現在最も注目されている分野の XNUMX つは生成 AI ですが、それには十分な理由があります。 Generative AI は、創造性とイノベーションの面で可能性の限界を押し上げる強力なソリューションを提供します。 これらの最先端のソリューションの中核には、膨大な量のデータで事前トレーニングされた高度な機械学習モデルである基盤モデル (FM) があります。 これらの基盤モデルの多くは、人間のようなテキストを理解して生成する際に優れた能力を示しており、コンテンツ作成からカスタマー サポートの自動化に至るまで、さまざまなアプリケーションにとって貴重なツールとなっています。
ただし、これらのモデルにも課題がないわけではありません。 それらは非常に大きく、トレーニングには大量のデータと計算リソースが必要です。 さらに、トレーニング プロセスの最適化とパラメーターの調整は複雑で反復的なプロセスになる可能性があり、専門知識と慎重な実験が必要になります。 これらは、独自の基盤モデルを構築しようとしている多くの組織にとって障壁となる可能性があります。 この課題を克服するために、多くの顧客は既存の基盤モデルを微調整することを検討しています。 これは、モデル内にすでにエンコードされている知識を維持しながら、特定のアプリケーション向けにモデル パラメーターの一部を調整する一般的な手法です。 これにより、組織は特定のドメインまたはタスクに合わせてカスタマイズするために必要なリソースを削減しながら、これらのモデルの機能を利用できるようになります。
基礎モデルの微調整には、従来の微調整とパラメータ効率の高い微調整という XNUMX つの主なアプローチがあります。 従来の微調整には、特定の下流タスクの事前トレーニングされたモデルのすべてのパラメーターを更新することが含まれます。 一方、パラメーター効率の良い微調整には、元のモデル パラメーターをすべて更新せずにモデルをカスタマイズできるさまざまな手法が含まれています。 そのような技術の XNUMX つは、低ランク適応 (LoRA) と呼ばれます。 これには、次の図に示すように、タスク固有の小さなモジュールを事前トレーニングされたモデルに追加し、残りのパラメーターを固定したままそれらをトレーニングすることが含まれます。
LoRA はいくつかの理由から最近人気が高まっています。 これにより、トレーニングの高速化、メモリ要件の削減、および複数の下流タスクで事前トレーニングされたモデルを再利用できる機能が提供されます。 さらに重要なのは、ベース モデルとアダプターを個別に保存し、いつでも組み合わせることができるため、微調整されたバージョンの保存、配布、共有が容易になります。 ただし、これにより、これらの新しいタイプの微調整されたモデルを適切に管理する方法という新たな課題が生じます。 基本モデルとアダプターを組み合わせる必要がありますか、それとも別々にしておくべきですか? この投稿では、LoRA の微調整されたモデルを管理するためのベスト プラクティスについて説明します。 アマゾンセージメーカー この新たな疑問に対処するために。
SageMaker モデル レジストリでの FM の操作
この投稿では、QLoRA メソッドを使用して Llama2 大規模言語モデル (LLM) を微調整するエンドツーエンドの例を説明します。 QLoRA は、パラメータの効率的な微調整と 4 ビット/8 ビット量子化の利点を組み合わせて、特定のタスクまたはユースケースに合わせて FM を微調整するために必要なリソースをさらに削減します。 このために、事前トレーニングされた 7 億パラメーターの Llama2 モデルを使用し、databricks-dolly-15k データセットで微調整します。 Llama2 のような LLM には数十億のパラメータがあり、大規模なテキスト データセットで事前トレーニングされています。 微調整では、より小さなデータセットを使用して LLM をダウンストリーム タスクに適応させます。 ただし、大規模なモデルを微調整するには、計算コストがかかります。 このため、微調整中に QLoRA メソッドを使用して重みを量子化し、この計算コストを削減します。
この例では、XNUMX つのノートブック (llm-finetune-combined-with-registry.ipynb
および llm-finetune-separate-with-registry.ipynb
)。 次の図に示すように、それぞれが異なる方法で LoRA 微調整モデルを処理します。
- まず、SageMaker Studio Notebooks を使用して、2 億のパラメーターを含む事前トレーニング済みの Llama7 モデルをダウンロードします。 Llama2 と同様に、LLM は、ドメイン固有のデータに基づいて微調整された場合、自然言語処理 (NLP) タスクで最先端のパフォーマンスを示しています。
- 次に、QLoRA メソッドを使用して databricks-dolly-2k データセットで Llama15 を微調整します。 QLoRA は、モデルの重みを量子化することで微調整の計算コストを削減します。
- 微調整中に、SageMaker Experiments Plus を Transformers API と統合して、勾配、損失などのメトリクスを自動的に記録します。
- 次に、次の 2 つのアプローチを使用して、SageMaker モデル レジストリで微調整された LlamaXNUMX モデルのバージョンを作成します。
- 完全なモデルの保存
- アダプターとベースモデルを別々に保管します。
- 最後に、SageMaker リアルタイム エンドポイントで提供される Deep Java Library (DJL) を使用して、微調整された Llama2 モデルをホストします。
次のセクションでは、これらの各ステップをさらに詳しく説明し、さまざまな LLM ワークフローに対する SageMaker の柔軟性と、これらの機能がモデルの操作の改善にどのように役立つかを示します。
前提条件
コードの実験を開始するには、次の前提条件を満たしてください。
- 作る SageMakerStudioドメイン: Amazon SageMaker Studio、特に Studio Notebooks は、Llama2 微調整タスクを開始してから、モデルを登録して表示するために使用されます。 SageMakerモデルレジストリ. SageMakerの実験 Llama2 微調整ジョブログ (トレーニング損失/テスト損失など) を表示および比較するためにも使用されます。
- Amazon Simple Storage Service (S3) バケットを作成する: トレーニング アーティファクトとモデルの重みを保存するには、S3 バケットにアクセスする必要があります。 手順については、を参照してください。 バケットを作成する。 この投稿で使用されるサンプル コードでは SageMaker のデフォルトの S3 バケットを使用しますが、関連する任意の S3 バケットを使用するようにカスタマイズできます。
- モデル コレクションのセットアップ (IAM 権限): 以下にリストされているリソース グループへの権限を使用して SageMaker 実行ロールを更新します。 モデル レジストリ コレクション開発者ガイド モデル コレクションを使用してモデル レジストリのグループ化を実装します。
- Llama2 の利用規約に同意する: Llama2 基盤モデルを使用するには、エンドユーザー使用許諾契約と利用規定に同意する必要があります。
例は次の場所で入手できます。 GitHubリポジトリ. ノートブック ファイルは、PyTorch 2.0.0 Python 3.10 GPU 最適化カーネルおよび ml.g4dn.xlarge インスタンス タイプで実行される Studio ノートブックを使用してテストされます。
実験とコールバックの統合
AmazonSageMakerの実験 SageMaker Python SDK または boto3 を使用して、ローカルの Jupyter Notebook などの統合開発環境 (IDE) から機械学習 (ML) の実験とモデルのバージョンを整理、追跡、比較、評価できます。 モデルのメトリクス、パラメーター、ファイル、アーティファクトをログに記録し、さまざまなメトリクスからグラフをプロットし、さまざまなメタデータをキャプチャし、メタデータを検索し、モデルの再現性をサポートする柔軟性を提供します。 データ サイエンティストは、視覚的なチャートや表を使用して、モデル評価のパフォーマンスとハイパーパラメーターを迅速に比較できます。 また、SageMaker Experiments を使用して、作成したチャートをダウンロードし、モデルの評価を関係者と共有することもできます。
LLM のトレーニングは、時間がかかり、コストがかかり、反復的なプロセスになる可能性があります。 ユーザーにとって、一貫性のないモデル調整エクスペリエンスを防ぐために、大規模な LLM 実験を追跡することは非常に重要です。 HuggingFace トランスフォーマー API ユーザーがトレーニング タスク中にメトリクスを追跡できるようにします。 コールバック。 コールバックは、PyTorch トレーナーのトレーニング ループの動作をカスタマイズできる「読み取り専用」のコードで、進行状況レポートのためにトレーニング ループの状態を検査し、カスタム ロジック (一部として含まれています) を介して TensorBoard または SageMaker Experiments Plus にログを記録できます。このコードベースの)。
次のコード ブロックに示すように、この投稿のコード リポジトリに含まれる SageMaker Experiments コールバック コードをインポートできます。
このコールバックは、トレーニング実行の一部として次の情報を SageMaker Experiments に自動的に記録します。
- トレーニングパラメータとハイパーパラメータ
- ステップ、エポック、および最終におけるモデルのトレーニングと検証の損失
- モデルの入力および出力のアーティファクト (トレーニング データセット、検証データセット、モデルの出力場所、トレーニング デバッガーなど)
次のグラフは、その情報を使用して表示できるチャートの例を示しています。
これにより、SageMaker Experiments の分析機能を使用して複数の実行を簡単に比較できます。 比較したい実験の実行を選択すると、比較グラフが自動的に作成されます。
微調整されたモデルをモデル レジストリ コレクションに登録する
モデル レジストリ コレクション の特徴です SageMakerモデルレジストリ これにより、相互に関連する登録済みモデルをグループ化し、階層的に整理して、大規模なモデルの発見可能性を向上させることができます。 モデル レジストリ コレクションを使用して、基本モデルと微調整されたバリアントを追跡します。
フルモデルコピー方法
最初の方法では、ベース モデルと LoRA アダプターを組み合わせて、完全な微調整モデルを保存します。 次のコードは、モデルの結合プロセスを示し、次のコードを使用して結合されたモデルを保存します。 model.save_pretrained()
.
微調整後に LoRA アダプターとベース モデルを単一のモデル アーティファクトに結合することには、長所と短所があります。 結合されたモデルは自己完結型であり、元の基本モデルを必要とせずに独立して管理および展開できます。 モデルは、基本モデルと微調整データを反映したバージョン名を持つ独自のエンティティとして追跡できます。 を使用して命名法を採用できます。 base_model_name
+ 微調整 dataset_name
モデルグループを整理します。 オプションで、モデル コレクションは元のモデルと微調整されたモデルを関連付けることができますが、結合されたモデルは独立しているため、これは必要ない場合があります。 次のコード スニペットは、微調整されたモデルを登録する方法を示しています。
トレーニング推定ツールを使用して、モデルをモデル レジストリに登録できます。
モデル レジストリからモデル パッケージを取得し、そのモデルを直接デプロイできます。
ただし、このアプローチには欠点もあります。 微調整されたバージョンごとに基本モデルが複製されるため、モデルを結合するとストレージの非効率性と冗長性が生じます。 モデルのサイズと微調整されたモデルの数が増加すると、ストレージのニーズが飛躍的に増大します。 llama2 7b モデルを例にとると、ベース モデルは約 13 GB、微調整モデルは 13.6 GB です。 微調整するたびに、モデルの 96% を複製する必要があります。 さらに、非常に大きなモデル ファイルの配布と共有もより困難になり、モデル サイズやジョブの微調整に伴ってファイル転送と管理コストが増加するため、運用上の課題が生じます。
アダプターとベースを分離する方法
XNUMX 番目の方法は、ベース ウェイトとアダプター ウェイトを別個のモデル コンポーネントとして保存し、実行時に順次ロードすることで、これらを分離することに重点を置いています。
ベースとアダプターの重量を節約するには、フル モデル コピー方法と同様に長所と短所があります。 利点の2つは、保管スペースを節約できることです。 微調整モデルの最大のコンポーネントである基本重みは、一度だけ保存され、さまざまなタスク用に調整された他のアダプターの重みで再利用できます。 たとえば、Llama7-13B の基本ウェイトは約 0.6 GB ですが、各微調整タスクは約 95 GB のアダプター ウェイトを保存するだけでよく、これは XNUMX% のスペース節約になります。 もう XNUMX つの利点は、ベース ウェイトのみのモデル レジストリを使用して、ベース ウェイトをアダプタ ウェイトとは別に管理できることです。 これは、インターネットを経由せずに基本重みにアクセスできるため、インターネット ゲートウェイなしで VPC のみのモードで実行されている SageMaker ドメインに役立ちます。
基本重量のモデル パッケージ グループの作成
QLoRA 重みのモデル パッケージ グループの作成
次のコードは、QLoRA の重みにデータセット/タスク タイプをタグ付けし、微調整されたデルタの重みを別のモデル レジストリに登録して、デルタの重みを個別に追跡する方法を示しています。
次のスニペットは、モデルが基本重みと微調整重みに分割されているモデル レジストリのビューを示しています。
ハイパーパーソナライズされた LLM のモデル、データセット、タスクの管理は、すぐに膨大になる可能性があります。 SageMaker モデル レジストリ コレクション は、関連するモデルをグループ化し、階層構造に整理して、モデルの発見しやすさを向上させるのに役立ちます。 これにより、ベースの重み、アダプターの重み、および微調整タスク データセット間の関係を追跡しやすくなります。 モデル間に複雑な関係やリンクを作成することもできます。
新しいコレクションを作成し、基本モデルの重みをこのコレクションに追加します
すべての微調整された LoRA アダプター デルタ ウェイトをタスクおよび/またはデータセットごとにこのコレクションにリンクします
これにより、モデル/タスク タイプとベース モデルの微調整に使用されるデータセットによってリンクされたコレクション階層が作成されます。
ベース モデルとアダプター モデルを分離するこの方法には、いくつかの欠点があります。 欠点の XNUMX つは、モデルの展開が複雑なことです。 XNUMX つの個別のモデル アーティファクトがあるため、モデル レジストリから直接デプロイするのではなく、モデルを再パッケージ化する追加の手順が必要です。 次のコード例では、最初に基本モデルの最新バージョンをダウンロードして再パックします。
次に、最新の微調整された LoRA アダプターの重みをダウンロードして再パックします。
Deepspeed で DJL サービングを使用してモデルをホストするため、推論ディレクトリは次のようになります。
最後に、カスタム推論コード、基本モデル、および LoRA アダプターをデプロイメント用に XNUMX つの .tar.gz ファイルにパッケージ化します。
クリーンアップ
ノートブックのクリーンアップ セクションの指示に従って、リソースをクリーンアップします。 参照する Amazon SageMakerの価格 推論インスタンスのコストの詳細については、「推論インスタンスのコスト」を参照してください。
まとめ
この投稿では、Amazon SageMaker で LoRA の微調整されたモデルを管理するためのベストプラクティスについて説明しました。 ベースとアダプターのウェイトを XNUMX つの自己完結型モデルに結合する方法と、ベースとアダプターのウェイトを分離する XNUMX つの主な方法について説明しました。 どちらのアプローチにもトレードオフがありますが、重みを分離するとストレージの最適化に役立ち、SageMaker モデル レジストリ コレクションのような高度なモデル管理テクニックが可能になります。 これにより、モデル間の階層と関係を構築して、組織化と発見しやすさを向上させることができます。 サンプルコードを試してみることをお勧めします GitHubリポジトリ これらの方法を自分で試してみてください。 生成 AI が急速に進歩するにつれて、モデル管理のベスト プラクティスに従うことは、実験を追跡し、タスクに適したモデルを見つけ、特殊な LLM を大規模に効率的に管理するのに役立ちます。
参考文献
著者について
ジェームズ・ウー AWSのシニアAI/MLスペシャリストソリューションアーキテクトです。 お客様がAI/MLソリューションを設計および構築するのを支援します。 Jamesの仕事は、コンピュータビジョン、ディープラーニング、企業全体でのMLのスケーリングに主な関心を持って、幅広いMLユースケースをカバーしています。 AWSに入社する前、Jamesは、エンジニアリングで10年間、マーケティングおよび広告業界で6年間を含む、4年以上にわたってアーキテクト、開発者、およびテクノロジーのリーダーでした。
プラナフ・ムルティ AWS の AI/ML スペシャリスト ソリューション アーキテクトです。 彼は、顧客が機械学習 (ML) ワークロードを構築、トレーニング、デプロイし、SageMaker に移行できるよう支援することに重点を置いています。 以前は半導体業界で、半導体プロセスを改善するための大規模なコンピューター ビジョン (CV) および自然言語処理 (NLP) モデルの開発に従事していました。 自由時間には、チェスをしたり、旅行を楽しんでいます。
メシット・グンゴール AWS の AI/ML スペシャリスト ソリューション アーキテクトとして、お客様による大規模な AI/ML ソリューションの設計と構築を支援しています。 彼は電気通信顧客向けの AI/ML の幅広いユースケースをカバーしており、現在は生成 AI、LLM、トレーニングと推論の最適化に重点を置いています。 自由時間には、荒野でハイキングをしたり、友達とボードゲームをしたりしていることがよくあります。
シェルビーアイゲンブロード アマゾンウェブサービス(AWS)のプリンシパルAIおよび機械学習スペシャリストソリューションアーキテクトです。 彼女は24年間、複数の業界、テクノロジー、および役割にまたがるテクノロジーに携わってきました。 彼女は現在、DevOpsとMLのバックグラウンドをMLOpsのドメインに組み合わせて、顧客がMLワークロードを大規模に提供および管理できるようにすることに注力しています。 さまざまなテクノロジードメインで35を超える特許が付与されており、継続的なイノベーションとデータを使用してビジネスの成果を推進することに情熱を注いでいます。 Shelbeeは、Courseraの実用的なデータサイエンス専門分野の共同作成者およびインストラクターです。 彼女はまた、デンバー支部のビッグデータ(WiBD)の女性の共同ディレクターでもあります。 暇なときは、家族や友達、過激な犬と過ごすのが好きです。
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- PlatoData.Network 垂直生成 Ai。 自分自身に力を与えましょう。 こちらからアクセスしてください。
- プラトアイストリーム。 Web3 インテリジェンス。 知識増幅。 こちらからアクセスしてください。
- プラトンESG。 カーボン、 クリーンテック、 エネルギー、 環境、 太陽、 廃棄物管理。 こちらからアクセスしてください。
- プラトンヘルス。 バイオテクノロジーと臨床試験のインテリジェンス。 こちらからアクセスしてください。
- 情報源: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :持っている
- :は
- :not
- :どこ
- $UP
- 10
- 100
- 11
- 12
- 13
- 視聴者の38%が
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 視聴者の38%が
- 7
- 8
- 視聴者の38%が
- a
- 能力
- 私たちについて
- 同意
- ことができます。
- アクセス
- アクセス
- 越えて
- 適応
- 適応する
- 加えます
- 追加
- NEW
- さらに
- 住所
- 採用
- 高度な
- 利点
- 利点
- 広告運用
- 後
- 契約
- AI
- AIは正しい
- AI / ML
- すべて
- 許す
- ことができます
- 既に
- また
- Amazon
- アマゾンセージメーカー
- Amazon SageMakerスタジオ
- Amazon Simple Storage Service(S3)
- Amazon Webサービス
- Amazon Webサービス(AWS)
- 金額
- an
- 分析します
- および
- 別の
- どれか
- API
- アプローチ
- アプローチ
- 承認された
- 約
- です
- エリア
- AS
- 仲間
- At
- 自動的に
- オートメーション
- 利用できます
- AWS
- バック
- 背景
- 障壁
- ベース
- BE
- なぜなら
- になる
- になる
- き
- 行動
- 利点
- BEST
- ベストプラクティス
- の間に
- ビッグ
- ビッグデータ
- 10億
- 億
- ブロック
- ボード
- ボードゲーム
- 両言語で
- 境界
- ビルド
- ビジネス
- 焙煎が極度に未発達や過発達のコーヒーにて、クロロゲン酸の味わいへの影響は強くなり、金属を思わせる味わいと乾いたマウスフィールを感じさせます。
- by
- コールバック
- 呼ばれます
- 缶
- 機能
- キャプチャー
- 注意深い
- 場合
- 例
- 挑戦する
- 課題
- 章
- チャート
- チェス
- class
- クリア
- コード
- コードベース
- コレクション
- コレクション
- 組み合わせる
- 組み合わせた
- 組み合わせ
- 結合
- 企業
- 比較します
- 比較
- 競争力のある
- 複雑な
- 複雑さ
- コンポーネント
- コンポーネント
- 計算
- 計算的
- コンピュータ
- Computer Vision
- 条件
- 考えると
- コンテンツ
- コンテンツ作成
- 継続的に
- 連続的な
- 基本
- 費用
- 可能性
- カバー
- カバー
- 作ります
- 作成した
- 創造
- 創造性
- 現在
- カスタム
- 顧客
- カスタマーサービス
- Customers
- カスタム化
- カスタマイズ
- 最先端
- データ
- データサイエンス
- データセット
- 深いです
- 深い学習
- より深い
- デフォルト
- インクルード
- 配信する
- デルタ
- 実証します
- デンバー
- 展開します
- 展開
- 展開する
- 展開
- 設計
- 細部
- Developer
- 開発
- 開発
- 異なります
- 難しい
- 直接に
- ディスプレイ
- 分配します
- 配布する
- ダイビング
- ドメイン
- ドメイン
- ダウンロード
- 欠点
- ドライブ
- 間に
- 各
- 容易
- 簡単に
- エッジ(Edge)
- 効率的な
- 効率良く
- ほかに
- 新興の
- 可能
- 奨励する
- 端から端まで
- エンドポイント
- エンジニアリング
- Enterprise
- エンティティ
- 環境
- 時代
- 時代
- 等
- 評価する
- 評価
- 例
- 例
- 例外的に
- 実行
- 既存の
- 高価な
- 体験
- 実験
- 実験
- 専門知識
- 指数関数的に
- 顔
- 不良解析
- 家族
- 速いです
- 特徴
- 特徴
- File
- もう完成させ、ワークスペースに掲示しましたか?
- 終わり
- 名
- 固定の
- 柔軟性
- 焦点を当てて
- 焦点
- フォロー中
- 発見
- Foundation
- 無料版
- 友達
- から
- フル
- function
- さらに
- 未来
- 利得
- 獲得
- Games
- ゲートウェイ
- 生成
- 生々しい
- 生成AI
- Go
- 行く
- 良い
- GPU
- 付与された
- グラフ
- グラフ
- グループ
- グループの
- ハンド
- ハンドル
- 持ってる
- 持って
- he
- 助けます
- 助け
- ことができます
- 彼女の
- 階層
- 非常に
- 彼の
- host
- 一番ホットな
- 認定条件
- How To
- しかしながら
- HTML
- HTTPS
- 抱き合う顔
- 説明する
- 画像
- 実装する
- 実装
- import
- 重要
- 重要なこと
- 輸入
- 改善します
- in
- 含まれました
- 含ま
- 含めて
- 増える
- 増加
- の増加
- 独立しました
- 単独で
- 産業
- 産業を変えます
- 効率の悪さ
- 膨らむ
- 情報
- 革新的手法
- を取得する必要がある者
- 説明書
- 統合する
- 統合された
- 関心
- インターネット
- に
- 紹介します
- IT
- ITS
- ジェームズ
- Java
- ジョブ
- Jobs > Create New Job
- 参加
- JPG
- キープ
- 保管
- キー
- キック
- 知識
- 言語
- 大
- 最大の
- 最新の
- リーダー
- リード
- 学習
- ことができます
- レベル
- 図書館
- ライセンス
- ある
- ような
- 好き
- LINK
- リンク
- リストされた
- LLM
- 負荷
- ローディング
- ローカル
- 場所
- ログ
- ロギング
- ロジック
- 見て
- のように見える
- 探して
- 損失
- 機械
- 機械学習
- メイン
- 作る
- 作成
- 管理します
- マネージド
- 管理
- 管理する
- 多くの
- マーケティング
- マーケティングと広告
- 大規模な
- 五月..
- メモリ
- マージ
- マージ
- 方法
- メソッド
- メトリック
- 移動します
- ML
- MLOps
- モード
- モデル
- モジュール
- 他には?
- の試合に
- 名
- ナチュラル
- 自然言語処理
- 必要
- 必要
- 必要
- ニーズ
- 新作
- NLP
- ノート
- 今
- 数
- of
- オフ
- オファー
- 頻繁に
- on
- かつて
- ONE
- の
- オペレーショナル
- 業務執行統括
- 最適化
- 最適化
- 最適化
- 最適化
- or
- 組織
- 組織
- オリジナル
- その他
- 私たちの
- 成果
- 出力
- が
- 克服する
- 圧倒的な
- 自分の
- パッケージ
- パラメーター
- パラメータ
- 部
- 情熱
- 特許
- path
- パーセント
- パフォーマンス
- パーミッション
- ピース
- プラトン
- プラトンデータインテリジェンス
- プラトデータ
- 再生
- さらに
- 方針
- 人気
- 人気
- 部分
- 可能
- ポスト
- 電力
- 強力な
- 実用的
- プラクティス
- 前提条件
- プレゼント
- 保存する
- 防ぐ
- 前に
- 主要な
- 校長
- 事前の
- プロセス
- ラボレーション
- 処理
- 進捗
- 正しく
- プロパティ
- は、大阪で
- プッシュ
- Python
- パイトーチ
- 質問
- すぐに
- 範囲
- 急速に
- への
- 理由
- 理由は
- 最近
- 減らします
- 電話代などの費用を削減
- 軽減
- 縮小
- 参照する
- 反射
- 登録
- 登録された
- レジストリ
- 関連する
- の関係
- 関連した
- 顕著
- 各種レポート作成
- 倉庫
- 必要とする
- の提出が必要です
- 要件
- リソース
- REST
- 結果
- 再利用
- 右
- 職種
- 役割
- ラン
- ランニング
- runs
- ランタイム
- セージメーカー
- Save
- 保存されました
- 節約
- 貯蓄
- 規模
- スケーリング
- 科学
- 科学者たち
- SDDK
- を検索
- 二番
- セクション
- セクション
- を求める
- 半導体
- シニア
- 別
- 切り離す
- サービス
- サービス
- サービング
- いくつかの
- シェアする
- シェアリング
- 彼女
- すべき
- 示す
- 作品
- 同様の
- 簡単な拡張で
- から
- サイズ
- 遅く
- 小さい
- より小さい
- スニペット
- 溶液
- ソリューション
- 一部
- ソース
- スペース
- 緊張
- 専門家
- 専門の
- 特定の
- 特に
- 過ごす
- split
- ステークホルダー
- start
- 都道府県
- 最先端の
- Status:
- 手順
- ステップ
- まだ
- ストレージ利用料
- 店舗
- 保存され
- 研究
- そのような
- サポート
- TAG
- 取得
- 仕事
- タスク
- 技術
- テクニック
- テクノロジー
- テクノロジー
- テレコミュニケーション
- 条件
- テスト
- 클라우드 기반 AI/ML및 고성능 컴퓨팅을 통한 디지털 트윈의 기초 – Edward Hsu, Rescale CPO 많은 엔지니어링 중심 기업에게 클라우드는 R&D디지털 전환의 첫 단계일 뿐입니다. 클라우드 자원을 활용해 엔지니어링 팀의 제약을 해결하는 단계를 넘어, 시뮬레이션 운영을 통합하고 최적화하며, 궁극적으로는 모델 기반의 협업과 의사 결정을 지원하여 신제품을 결정할 때 데이터 기반 엔지니어링을 적용하고자 합니다. Rescale은 이러한 혁신을 돕기 위해 컴퓨팅 추천 엔진, 통합 데이터 패브릭, 메타데이터 관리 등을 개발하고 있습니다. 이번 자리를 빌려 비즈니스 경쟁력 제고를 위한 디지털 트윈 및 디지털 스레드 전략 개발 방법에 대한 인사이트를 나누고자 합니다.
- それ
- アプリ環境に合わせて
- それら
- その後
- そこ。
- ボーマン
- 彼ら
- この
- 介して
- 時間
- 〜へ
- 一緒に
- ツール
- トーチ
- 追跡する
- 伝統的な
- トレーニング
- トレーニング
- 転送
- トランス
- トランスフォーマー
- 旅行
- true
- 試します
- 曲
- 調整された
- チューニング
- 2
- type
- 下
- 理解する
- アップデイト
- 更新
- アップロード
- URL
- つかいます
- 使用事例
- 中古
- ユーザー
- users
- 貴重な
- 値
- 多様
- さまざまな
- 広大な
- バージョン
- バージョン
- 非常に
- 、
- 詳しく見る
- ビジョン
- ビジュアル
- 歩く
- walked
- 欲しいです
- ました
- 仕方..
- 方法
- we
- ウェブ
- Webサービス
- いつ
- which
- while
- なぜ
- ワイド
- 広い範囲
- 意志
- 以内
- 無し
- レディース
- 仕事
- 働いていました
- ワークフロー
- 作品
- 年
- You
- あなたの
- あなた自身
- ゼファーネット