顧客がクラウドへの移行を加速し、ビジネスを変革するにつれて、マルチクラウド環境で IT 運用を管理しなければならない状況に陥る人もいます。 たとえば、すでに別のクラウドプロバイダーで稼働していた会社を買収した場合や、AWS が提供する独自の機能から価値を生み出すワークロードがある場合などです。 もう XNUMX つの例は、エンド顧客に利益をもたらすために、自社の製品とサービスをさまざまなクラウド プラットフォームで利用できるようにする独立系ソフトウェア ベンダー (ISV) です。 または、プライマリ クラウド プロバイダーが利用できないリージョンで組織が運営されている場合、データ主権またはデータ常駐要件を満たすために、セカンダリ クラウド プロバイダーを使用することができます。
このようなシナリオでは、生成 AI、大規模言語モデル (LLM)、機械学習 (ML) テクノロジーをビジネスの中核部分として採用し始めると、それを活用するオプションを探しているかもしれません。 AWS AI と ML マルチクラウド環境における AWS の外部の機能。 たとえば、次を利用するとよいでしょう。 アマゾンセージメーカー ML モデルを構築してトレーニングするか、使用します。 Amazon SageMaker ジャンプスタート 事前に構築された基盤またはサードパーティの ML モデルをデプロイします。これらのモデルは、ボタンを数回クリックするだけでデプロイできます。 または、利用したいかもしれません アマゾンの岩盤 生成的な AI アプリケーションを構築して拡張するか、 AWS の事前トレーニング済み AI サービス、機械学習スキルを学ぶ必要はありません。 AWS は、組織が必要とするシナリオのサポートを提供します。 独自のモデルを Amazon SageMaker に持ち込む or 予測のために Amazon SageMaker Canvas に取り込む.
この投稿では、マルチクラウド環境で AWS の最も広範で奥深い AI/ML 機能を活用するために必要な多くのオプションのうちの XNUMX つを示します。 AWS で ML モデルを構築およびトレーニングし、そのモデルを別のプラットフォームにデプロイする方法を示します。 Amazon SageMaker を使用してモデルをトレーニングし、モデルアーティファクトを Amazon シンプル ストレージ サービス (Amazon S3)、Azure でモデルをデプロイして実行します。 このアプローチは、最も包括的な機能セットを得るために ML 用 AWS サービスを使用している場合に有益ですが、これまでに説明した状況のいずれかでは、別のクラウドプロバイダーでモデルを実行する必要があります。
主なコンセプト
Amazon SageMakerスタジオ は、機械学習用の Web ベースの統合開発環境 (IDE) です。 SageMaker Studio を使用すると、データ サイエンティスト、ML エンジニア、データ エンジニアは、XNUMX つの Web インターフェイス上でデータの準備、構築、トレーニング、ML モデルのデプロイを行うことができます。 SageMaker Studio を使用すると、データの準備から ML モデルの構築、トレーニング、デプロイに至るまで、ML 開発ライフサイクルのあらゆる段階で専用ツールにアクセスでき、データ サイエンス チームの生産性が最大 XNUMX 倍向上します。 SageMaker Studio ノートブック は、SageMaker やその他の AWS サービスの専用 ML ツールと統合するクイックスタートの共同ノートブックです。
SageMaker は、ビジネス アナリスト、データ サイエンティスト、MLOps エンジニアが、ML の専門知識に関係なく、あらゆるユースケースの ML モデルを構築、トレーニング、デプロイできるようにする包括的な ML サービスです。
AWSが提供する ディープラーニングコンテナ PyTorch、TensorFlow、Apache MXNet などの一般的な ML フレームワークの (DLC)。SageMaker でトレーニングや推論に使用できます。 DLC は、次の場所で Docker イメージとして入手できます。 Amazon エラスティック コンテナ レジストリ (アマゾンECR)。 Docker イメージは、一般的な深層学習フレームワークの最新バージョンと、トレーニングと推論に必要なその他の依存関係を使用してプリインストールされ、テストされています。 SageMaker によって管理される事前構築済み Docker イメージの完全なリストについては、以下を参照してください。 Docker レジストリ パスとコード例。 Amazon ECR はセキュリティ スキャンをサポートしており、 アマゾンインスペクター 組織のイメージ コンプライアンスのセキュリティ要件を満たし、脆弱性評価スキャンを自動化する脆弱性管理サービス。 組織でも使用できます AWS トレーニング および AWSインフェレンティア ML トレーニング ジョブまたは推論を実行する際のコスト パフォーマンスが向上します。
ソリューションの概要
このセクションでは、SageMaker を使用してモデルを構築およびトレーニングし、そのモデルを Azure Functions にデプロイする方法について説明します。 モデルの構築、トレーニング、デプロイには SageMaker Studio ノートブックを使用します。 PyTorch 用に事前に構築された Docker イメージを使用して、SageMaker でモデルをトレーニングします。 この場合、トレーニング済みモデルを Azure にデプロイしていますが、同じアプローチを使用して、オンプレミスや他のクラウド プラットフォームなどの他のプラットフォームにモデルをデプロイすることもできます。
トレーニング ジョブを作成すると、SageMaker は ML コンピューティング インスタンスを起動し、トレーニング コードとトレーニング データセットを使用してモデルをトレーニングします。 結果として得られるモデル アーティファクトとその他の出力は、トレーニング ジョブへの入力として指定した S3 バケットに保存されます。 モデルのトレーニングが完了したら、 オープンニューラルネットワークエクスチェンジ (ONNX) PyTorch モデルを ONNX モデルとしてエクスポートするランタイム ライブラリ。
最後に、Azure CLI を使用して、Python で記述されたカスタム推論コードとともに ONNX モデルを Azure Functions にデプロイします。 ONNX はほとんどの機能をサポートします。 一般的に使用される ML フレームワークとツール。 注意すべき点の XNUMX つは、ML モデルを ONNX に変換することは、PyTorch から TensorFlow など、別のターゲット デプロイメント フレームワークを使用したい場合に便利であるということです。 ソースとターゲットの両方で同じフレームワークを使用している場合は、モデルを ONNX 形式に変換する必要はありません。
次の図は、このアプローチのアーキテクチャを示しています。
私たちは SageMaker Studio ノートブックと SageMaker Python SDK モデルを構築してトレーニングします。 SageMaker Python SDK は、SageMaker で ML モデルをトレーニングおよびデプロイするためのオープンソース ライブラリです。 詳細については、を参照してください。 Amazon SageMaker Studio ノートブックを作成または開く.
次のセクションのコード スニペットは、Data Science 3.0 イメージと Python 3.0 カーネルを使用して SageMaker Studio ノートブック環境でテストされています。
このソリューションでは、次の手順を示します。
- PyTorch モデルをトレーニングします。
- PyTorch モデルを ONNX モデルとしてエクスポートします。
- モデルと推論コードをパッケージ化します。
- モデルを Azure Functions にデプロイします。
前提条件
次の前提条件が必要です。
- AWSアカウント。
- SageMaker ドメインおよび SageMaker Studio ユーザー。 これらを作成する手順については、を参照してください。 クイックセットアップを使用して Amazon SageMaker ドメインにオンボード.
- Azure CLI。
- Azure へのアクセス、および Azure Functions を作成および管理する権限を持つサービス プリンシパルの資格情報。
PyTorch を使用してモデルをトレーニングする
このセクションでは、PyTorch モデルをトレーニングする手順を詳しく説明します。
依存関係をインストールする
ライブラリをインストールして、モデルのトレーニングとモデルのデプロイに必要な手順を実行します。
pip install torchvision onnx onnxruntime
初期設定を完了する
まずインポートします。 AWS SDK for Python(Boto3) と SageMaker Python SDK。 セットアップの一部として、以下を定義します。
- SageMaker および私たち自身のアカウントのコンテキスト内で便利なメソッドを提供するセッション オブジェクト。
- トレーニングおよびホスティング サービスに権限を委任するために使用される SageMaker ロール ARN。 これらのサービスがデータとモデルが保存されている S3 バケットにアクセスできるようにするためにこれが必要です。 ビジネス ニーズを満たすロールを作成する手順については、以下を参照してください。 SageMakerの役割。 この投稿では、Studio ノートブック インスタンスと同じ実行ロールを使用します。 この役割を取得するには、次の呼び出しを行います。
sagemaker.get_execution_role()
. - トレーニング ジョブが実行されるデフォルトのリージョン。
- モデル出力を保存するために使用するデフォルトのバケットとプレフィックス。
次のコードを参照してください。
import sagemaker
import boto3
import os execution_role = sagemaker.get_execution_role()
region = boto3.Session().region_name
session = sagemaker.Session()
bucket = session.default_bucket()
prefix = "sagemaker/mnist-pytorch"
トレーニング データセットを作成する
パブリックバケットで利用可能なデータセットを使用します sagemaker-example-files-prod-{region}
. データセットには次のファイルが含まれています。
- train-images-idx3-ubyte.gz – トレーニング セットの画像が含まれています
- train-labels-idx1-ubyte.gz – トレーニングセットのラベルが含まれています
- t10k-images-idx3-ubyte.gz – テスト セット イメージが含まれています
- t10k-labels-idx1-ubyte.gz – テストセットラベルが含まれています
私たちは、使用 torchvision.datasets
モジュールを使用して、トレーニング データ バケットにアップロードする前に、パブリック バケットからデータをローカルにダウンロードします。 このバケットの場所を入力として SageMaker トレーニング ジョブに渡します。 トレーニング スクリプトは、この場所を使用してトレーニング データをダウンロードして準備し、モデルをトレーニングします。 次のコードを参照してください。
MNIST.mirrors = [ f"https://sagemaker-example-files-prod-{region}.s3.amazonaws.com/datasets/image/MNIST/"
] MNIST( "data", download=True, transform=transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))] ),
)
トレーニングスクリプトを作成する
SageMaker を使用すると、次を使用して独自のモデルを持ち込むことができます。 スクリプトモード。 スクリプト モードでは、事前に構築された SageMaker コンテナを使用し、モデル定義とカスタム ライブラリおよび依存関係を含む独自のトレーニング スクリプトを提供できます。 の SageMaker Python SDK スクリプトを次のように渡します entry_point
コンテナーにコンテナーを追加し、提供されたスクリプトから train 関数をロードして実行し、モデルをトレーニングします。
トレーニングが完了すると、SageMaker はトレーニング ジョブのパラメーターとして指定したモデル出力を S3 バケットに保存します。
私たちのトレーニング コードは次のものから適応されています。 PyTorch サンプル スクリプト。 次のコードの抜粋は、モデル定義と train 関数を示しています。
# define network class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(1, 32, 3, 1) self.conv2 = nn.Conv2d(32, 64, 3, 1) self.dropout1 = nn.Dropout(0.25) self.dropout2 = nn.Dropout(0.5) self.fc1 = nn.Linear(9216, 128) self.fc2 = nn.Linear(128, 10) def forward(self, x): x = self.conv1(x) x = F.relu(x) x = self.conv2(x) x = F.relu(x) x = F.max_pool2d(x, 2) x = self.dropout1(x) x = torch.flatten(x, 1) x = self.fc1(x) x = F.relu(x) x = self.dropout2(x) x = self.fc2(x) output = F.log_softmax(x, dim=1) return output
# train def train(args, model, device, train_loader, optimizer, epoch): model.train() for batch_idx, (data, target) in enumerate(train_loader): data, target = data.to(device), target.to(device) optimizer.zero_grad() output = model(data) loss = F.nll_loss(output, target) loss.backward() optimizer.step() if batch_idx % args.log_interval == 0: print('Train Epoch: {} [{}/{} ({:.0f}%)]tLoss: {:.6f}'.format( epoch, batch_idx * len(data), len(train_loader.dataset), 100. * batch_idx / len(train_loader), loss.item())) if args.dry_run: break
モデルを訓練する
環境をセットアップし、入力データセットとカスタム トレーニング スクリプトを作成したので、SageMaker を使用してモデルのトレーニングを開始できます。 SageMaker Python SDK の PyTorch エスティメーターを使用して、SageMaker でトレーニング ジョブを開始します。 必要なパラメータを推定器に渡し、fit メソッドを呼び出します。 PyTorch 推定器で Fit を呼び出すと、SageMaker はスクリプトをトレーニング コードとして使用してトレーニング ジョブを開始します。
from sagemaker.pytorch import PyTorch output_location = f"s3://{bucket}/{prefix}/output"
print(f"training artifacts will be uploaded to: {output_location}") hyperparameters={ "batch-size": 100, "epochs": 1, "lr": 0.1, "gamma": 0.9, "log-interval": 100
} instance_type = "ml.c4.xlarge"
estimator = PyTorch( entry_point="train.py", source_dir="code", # directory of your training script role=execution_role, framework_version="1.13", py_version="py39", instance_type=instance_type, instance_count=1, volume_size=250, output_path=output_location, hyperparameters=hyperparameters
) estimator.fit(inputs = { 'training': f"{inputs}", 'testing': f"{inputs}"
})
トレーニングされたモデルを ONNX モデルとしてエクスポートする
トレーニングが完了し、モデルが Amazon S3 の事前定義された場所に保存されたら、ONNX ランタイムを使用してモデルを ONNX モデルにエクスポートします。
トレーニングの完了後に実行するトレーニング スクリプトに、モデルを ONNX にエクスポートするコードを含めます。
PyTorch は、入力を使用してモデルを実行し、出力の計算に使用された演算子のトレースを記録することにより、モデルを ONNX にエクスポートします。 PyTorch で適切なタイプのランダム入力を使用します。 torch.onnx.export
モデルを ONNX にエクスポートする機能。 また、モデルが変数を受け入れるように、入力の最初の次元を動的として指定します。 batch_size
推論中の入力の。
def export_to_onnx(model, model_dir, device): logger.info("Exporting the model to onnx.") dummy_input = torch.randn(1, 1, 28, 28).to(device) input_names = [ "input_0" ] output_names = [ "output_0" ] path = os.path.join(model_dir, 'mnist-pytorch.onnx') torch.onnx.export(model, dummy_input, path, verbose=True, input_names=input_names, output_names=output_names, dynamic_axes={'input_0' : {0 : 'batch_size'}, # variable length axes 'output_0' : {0 : 'batch_size'}})
ONNX は、PyTorch、Microsoft Cognitive Toolkit (CNTK) などの深層学習フレームワーク間の相互運用性を可能にする深層学習モデルのオープン標準形式です。 つまり、これらのフレームワークのいずれかを使用してモデルをトレーニングし、その後、事前トレーニングされたモデルを ONNX 形式でエクスポートできます。 モデルを ONNX にエクスポートすると、展開デバイスとプラットフォームの幅広い選択肢を利用できるようになります。
モデルアーティファクトをダウンロードして抽出する
トレーニング スクリプトが保存した ONNX モデルは、SageMaker によって、トレーニング ジョブの開始時に指定した出力場所にある Amazon S3 にコピーされています。 モデル アーティファクトは、という名前の圧縮アーカイブ ファイルとして保存されます。 model.tar.gz
。 このアーカイブ ファイルを Studio ノートブック インスタンスのローカル ディレクトリにダウンロードし、モデル アーティファクト、つまり ONNX モデルを抽出します。
import tarfile local_model_file = 'model.tar.gz'
model_bucket,model_key = estimator.model_data.split('/',2)[-1].split('/',1)
s3 = boto3.client("s3")
s3.download_file(model_bucket,model_key,local_model_file) model_tar = tarfile.open(local_model_file)
model_file_name = model_tar.next().name
model_tar.extractall('.')
model_tar.close()
ONNX モデルを検証する
ONNX モデルは、という名前のファイルにエクスポートされます。 mnist-pytorch.onnx
私たちのトレーニングスクリプトによる。 このファイルをダウンロードして抽出した後、オプションで次のコマンドを使用して ONNX モデルを検証できます。 onnx.checker
モジュール。 NS check_model
このモジュールの関数は、モデルの一貫性をチェックします。 テストが失敗すると例外が発生します。
import onnx onnx_model = onnx.load("mnist-pytorch.onnx")
onnx.checker.check_model(onnx_model)
モデルと推論コードをパッケージ化する
この投稿では、Azure Functions の .zip デプロイを使用します。 この方法では、モデル、付随するコード、および Azure Functions 設定を .zip ファイルにパッケージ化し、Azure Functions に発行します。 次のコードは、展開パッケージのディレクトリ構造を示しています。
mnist-onnx
├── function_app.py
├── model
│ └── mnist-pytorch.onnx
└── requirements.txt
依存関係をリストする
推論コードの依存関係を以下にリストします。 requirements.txt
ファイルはパッケージのルートにあります。 このファイルは、パッケージを公開するときに Azure Functions 環境を構築するために使用されます。
azure-functions
numpy
onnxruntime
推論コードを書く
Python を使用して次の推論コードを記述し、ONNX ランタイム ライブラリを使用してモデルをロードして推論を実行します。 これにより、Azure Functions アプリにエンドポイントを利用可能にするよう指示されます。 /classify
相対パス。
import logging
import azure.functions as func
import numpy as np
import os
import onnxruntime as ort
import json app = func.FunctionApp() def preprocess(input_data_json): # convert the JSON data into the tensor input return np.array(input_data_json['data']).astype('float32') def run_model(model_path, req_body): session = ort.InferenceSession(model_path) input_data = preprocess(req_body) logging.info(f"Input Data shape is {input_data.shape}.") input_name = session.get_inputs()[0].name # get the id of the first input of the model try: result = session.run([], {input_name: input_data}) except (RuntimeError) as e: print("Shape={0} and error={1}".format(input_data.shape, e)) return result[0] def get_model_path(): d=os.path.dirname(os.path.abspath(__file__)) return os.path.join(d , './model/mnist-pytorch.onnx') @app.function_name(name="mnist_classify")
@app.route(route="classify", auth_level=func.AuthLevel.ANONYMOUS)
def main(req: func.HttpRequest) -> func.HttpResponse: logging.info('Python HTTP trigger function processed a request.') # Get the img value from the post. try: req_body = req.get_json() except ValueError: pass if req_body: # run model result = run_model(get_model_path(), req_body) # map output to integer and return result string. digits = np.argmax(result, axis=1) logging.info(type(digits)) return func.HttpResponse(json.dumps({"digits": np.array(digits).tolist()})) else: return func.HttpResponse( "This HTTP triggered function successfully.", status_code=200 )
モデルを Azure Functions にデプロイする
コードが必要な .zip 形式にパッケージ化されたので、それを Azure Functions に発行する準備が整いました。 これは、Azure リソースを作成および管理するためのコマンド ライン ユーティリティである Azure CLI を使用して行います。 次のコードを使用して Azure CLI をインストールします。
!pip install -q azure-cli
次に、次の手順を実行します。
- Azure にログインします。
!az login
- リソース作成パラメータを設定します。
import random random_suffix = str(random.randint(10000,99999)) resource_group_name = f"multicloud-{random_suffix}-rg" storage_account_name = f"multicloud{random_suffix}" location = "ukwest" sku_storage = "Standard_LRS" functions_version = "4" python_version = "3.9" function_app = f"multicloud-mnist-{random_suffix}"
- 次のコマンドを使用して、前提条件のリソースとともに Azure Functions アプリを作成します。
!az group create --name {resource_group_name} --location {location} !az storage account create --name {storage_account_name} --resource-group {resource_group_name} --location {location} --sku {sku_storage} !az functionapp create --name {function_app} --resource-group {resource_group_name} --storage-account {storage_account_name} --consumption-plan-location "{location}" --os-type Linux --runtime python --runtime-version {python_version} --functions-version {functions_version}
- Azure Functions をセットアップして、Functions パッケージをデプロイするときに、
requirements.txt
ファイルはアプリケーションの依存関係を構築するために使用されます。!az functionapp config appsettings set --name {function_app} --resource-group {resource_group_name} --settings @./functionapp/settings.json
- Python v2 モデルを実行し、.zip デプロイ後に受け取ったコードでビルドを実行するように Functions アプリを構成します。
{ "AzureWebJobsFeatureFlags": "EnableWorkerIndexing", "SCM_DO_BUILD_DURING_DEPLOYMENT": true }
- リソース グループ、ストレージ コンテナー、および Functions アプリを適切に構成したら、コードを Functions アプリに公開します。
!az functionapp deployment source config-zip -g {resource_group_name} -n {function_app} --src {function_archive} --build-remote true
モデルをテストする
ML モデルを HTTP トリガーとして Azure Functions にデプロイしました。つまり、Functions アプリの URL を使用して HTTP 要求を関数に送信し、関数を呼び出してモデルを実行できます。
入力を準備するには、SageMaker サンプル ファイル バケットからテスト イメージ ファイルをダウンロードし、モデルで必要な形式にサンプルのセットを準備します。
from torch.utils.data import DataLoader
from torchvision import datasets, transforms
import matplotlib.pyplot as plt transform=transforms.Compose( [transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]
) test_dataset = datasets.MNIST(root='../data', download=True, train=False, transform=transform)
test_loader = DataLoader(test_dataset, batch_size=16, shuffle=True) test_features, test_labels = next(iter(test_loader))
リクエスト ライブラリを使用して、サンプル入力とともにポスト リクエストを推論エンドポイントに送信します。 推論エンドポイントは、次のコードに示す形式をとります。
import requests, json def to_numpy(tensor): return tensor.detach().cpu().numpy() if tensor.requires_grad else tensor.cpu().numpy() url = f"https://{function_app}.azurewebsites.net/api/classify"
response = requests.post(url, json.dumps({"data":to_numpy(test_features).tolist()}) )
predictions = json.loads(response.text)['digits']
クリーンアップ
モデルのテストが完了したら、ストレージ コンテナーや Functions アプリなど、それに含まれるリソースとともにリソース グループを削除します。
!az group delete --name {resource_group_name} --yes
さらに、コストを削減するために、SageMaker Studio 内のアイドル状態のリソースをシャットダウンすることをお勧めします。 詳細については、以下を参照してください。 Amazon SageMaker Studio 内のアイドル状態のリソースを自動的にシャットダウンしてコストを節約.
まとめ
この投稿では、SageMaker で ML モデルを構築およびトレーニングし、それを別のクラウド プロバイダーにデプロイする方法を説明しました。 このソリューションでは SageMaker Studio ノートブックを使用しましたが、運用ワークロードの場合は、SageMaker Studio ノートブックを使用することをお勧めします。 MLOps 反復可能なトレーニング ワークフローを作成して、モデルの開発と展開を加速します。
この投稿では、マルチクラウド環境でモデルをデプロイして実行するためのすべての方法を示したわけではありません。 たとえば、モデルを推論コードや依存関係ライブラリとともにコンテナー イメージにパッケージ化して、モデルをコンテナー化されたアプリケーションとして任意のプラットフォームで実行することもできます。 このアプローチの詳細については、以下を参照してください。 Amazon CodeCatalyst を使用してマルチクラウド環境にコンテナアプリケーションをデプロイする。 この投稿の目的は、組織がマルチクラウド環境で AWS AI/ML 機能をどのように使用できるかを示すことです。
著者について
ラジャ・ヴァイディアナタン AWS のソリューションアーキテクトとして、グローバルな金融サービスの顧客をサポートしています。 Raja は顧客と協力して、ビジネスに長期的にプラスの影響を与える複雑な問題の解決策を設計します。 彼は IT 戦略、エンタープライズ データ管理、アプリケーション アーキテクチャに精通した優れたエンジニアリングの専門家であり、特に分析と機械学習に興味を持っています。
アマンディープ・バジュワ 金融サービス企業をサポートする AWS のシニア ソリューション アーキテクトです。 業界のトレンドと組織の優先事項に基づいて適切なクラウド変革戦略を特定することで、組織がビジネス成果を達成できるよう支援します。 Amandeep がコンサルティングする分野には、クラウド移行、クラウド戦略 (ハイブリッドおよびマルチクラウドを含む)、デジタル変革、データと分析、テクノロジー全般などがあります。
プレーマ・イヤー AWS エンタープライズ サポートのシニア テクニカル アカウント マネージャーです。 彼女は外部の顧客と協力してさまざまなプロジェクトに取り組み、AWS を使用する際のソリューションの価値を向上させるのを支援しています。
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- PlatoData.Network 垂直生成 Ai。 自分自身に力を与えましょう。 こちらからアクセスしてください。
- プラトアイストリーム。 Web3 インテリジェンス。 知識増幅。 こちらからアクセスしてください。
- プラトンESG。 カーボン、 クリーンテック、 エネルギー、 環境、 太陽、 廃棄物管理。 こちらからアクセスしてください。
- プラトンヘルス。 バイオテクノロジーと臨床試験のインテリジェンス。 こちらからアクセスしてください。
- 情報源: https://aws.amazon.com/blogs/machine-learning/train-and-deploy-ml-models-in-a-multicloud-environment-using-amazon-sagemaker/
- :持っている
- :は
- :not
- :どこ
- $UP
- 1
- 10
- 100
- 13
- 25
- 28
- 32
- 7
- 9
- a
- 私たちについて
- 加速する
- 受け入れる
- アクセス
- 達成する
- 取得
- 利点
- 後
- AI
- AI / ML
- すべて
- ことができます
- 沿って
- 既に
- また
- しかし
- Amazon
- アマゾンセージメーカー
- Amazon SageMaker キャンバス
- Amazon SageMakerスタジオ
- Amazon Webサービス
- an
- アナリスト
- 分析論
- および
- 匿名の
- 別の
- どれか
- アパッチ
- アプリ
- 申し込み
- アプローチ
- 適切な
- 建築
- Archive
- です
- エリア
- AS
- 評価
- At
- 自動化する
- 自動的に
- 利用できます
- AWS
- 軸
- Azure
- ベース
- BE
- き
- 始まる
- 有益な
- 恩恵
- より良いです
- の間に
- 両言語で
- 持って来る
- より広い
- ビルド
- 建物
- ビジネス
- 焙煎が極度に未発達や過発達のコーヒーにて、クロロゲン酸の味わいへの影響は強くなり、金属を思わせる味わいと乾いたマウスフィールを感じさせます。
- by
- コール
- 呼ばれます
- 呼び出し
- 缶
- キャンバス
- 機能
- キャリー
- 場合
- 小切手
- class
- 分類します
- クリック
- クラウド
- コード
- 認知
- 共同
- 会社
- コンプリート
- 複雑な
- コンプライアンス
- 包括的な
- 計算
- 含まれている
- コンテナ
- コンテナ
- 含まれています
- コンテキスト
- 利便性
- 変換
- 変換
- 基本
- コスト
- 可能性
- 作ります
- 作成した
- 作成
- 創造
- Credentials
- カスタム
- Customers
- データ
- データ管理
- データの準備
- データサイエンス
- データセット
- 深いです
- 深い学習
- 深い
- デフォルト
- 定義します
- 定義
- 実証します
- 依存関係
- 依存関係
- 展開します
- 展開
- 展開する
- 展開
- 説明する
- 詳細
- 細部
- 開発
- デバイス
- Devices
- 異なります
- デジタル
- 数字
- 次元
- 議論する
- do
- デッカー
- ドメイン
- 行われ
- ドント
- ダウン
- ダウンロード
- 間に
- ダイナミック
- e
- ほかに
- 受け入れる
- 可能
- 有効にする
- end
- エンドポイント
- エンジニアリング
- エンジニア
- Enterprise
- 企業
- 環境
- 時代
- エポック
- あらゆる
- 例
- 除く
- 例外
- 実行
- 専門知識
- export
- 輸出
- 外部
- エキス
- 失敗
- 特徴
- 少数の
- File
- ファイナンシャル
- 金融業務
- もう完成させ、ワークスペースに掲示しましたか?
- 名
- フィット
- フォロー中
- 形式でアーカイブしたプロジェクトを保存します.
- Foundation
- フレームワーク
- フレームワーク
- から
- function
- 機能
- 生成
- 生々しい
- 生成AI
- 取得する
- グローバル
- グローバルファイナンシャル
- グループ
- 持ってる
- he
- 助け
- ことができます
- ホスティング
- 認定条件
- How To
- HTML
- HTTP
- HTTPS
- ハイブリッド
- ID
- 識別
- アイドル
- if
- 説明する
- 画像
- 画像
- 影響
- import
- インポート
- 改善します
- 改善
- in
- include
- 含めて
- 独立しました
- 産業を変えます
- 情報
- 初期
- 入力
- install
- 説明書
- 統合する
- 統合された
- 意図
- 利益
- インタフェース
- 相互運用性(インターオペラビリティ)
- に
- IT
- ITS
- ジョブ
- Jobs > Create New Job
- JPG
- JSON
- 言語
- 大
- 最新の
- 起動
- LEARN
- 学習
- 長さ
- 活用します
- ライブラリ
- 図書館
- wifecycwe
- LINE
- linuxの
- リスト
- 負荷
- 負荷
- ローカル
- 局部的に
- 場所
- ロギング
- 長期的
- 探して
- 損失
- 機械
- 機械学習
- make
- 管理します
- マネージド
- 管理
- マネージャー
- 多くの
- 地図
- matplotlib
- 五月..
- 手段
- 大会
- ミーツ
- 方法
- メソッド
- Microsoft
- かもしれない
- 移行
- ML
- MLOps
- モード
- モデル
- モジュール
- 他には?
- 最も
- 名
- 名前付き
- すなわち
- 必要
- 必要とされる
- ニーズ
- net
- ネットワーク
- ニューラル
- ニューラルネットワーク
- ノート
- numpy
- オブジェクト
- of
- on
- ONE
- 開いた
- オープンソース
- オペレーティング
- 業務執行統括
- 演算子
- オプション
- or
- 注文
- 組織
- 組織の
- 組織
- OS
- その他
- 私たちの
- でる
- 成果
- 出力
- 外側
- 自分の
- パッケージ
- パッケージ化された
- パラメーター
- パラメータ
- 部
- 特定の
- パーティー
- パス
- パス
- path
- 実行する
- パーミッション
- プラットフォーム
- プラットフォーム
- プラトン
- プラトンデータインテリジェンス
- プラトデータ
- 人気
- 正の
- 可能
- ポスト
- 予測
- 準備
- 準備
- 前提条件
- 主要な
- 校長
- 問題
- 処理済み
- 生産
- 生産性
- 製品
- プロ
- プロジェクト(実績作品)
- 提供します
- 提供
- プロバイダー
- は、大阪で
- 公共
- パブリッシュ
- Python
- パイトーチ
- クイック
- 隆起した
- ランダム
- 準備
- 受け取り
- 推奨される
- 録音
- 減らします
- 参照する
- 関係なく
- 地域
- レジストリ
- 相対
- 繰り返し可能
- 要求
- リクエスト
- 必要とする
- の提出が必要です
- 要件
- リソースを追加する。
- リソース
- 応答
- 結果
- 結果として
- return
- 右
- 職種
- ルート
- ラン
- ランニング
- runs
- セージメーカー
- 同じ
- 保存されました
- 規模
- スキャニング
- シナリオ
- 科学
- 科学者たち
- スクリプト
- SDDK
- 二次
- セクション
- セクション
- セキュリティ
- 選択
- 自己
- 送信
- シニア
- サービス
- サービス
- セッション
- セッションに
- 設定
- 形状
- 彼女
- すべき
- 表示する
- 示されました
- 示す
- 作品
- シャットダウン
- シャットダウン
- 簡単な拡張で
- 状況
- 熟練した
- スキル
- So
- ソフトウェア
- 溶液
- ソリューション
- 一部
- ソース
- 主権
- 指定の
- ステージ
- 標準
- start
- 開始
- 開始
- ステップ
- ストレージ利用料
- 店舗
- 保存され
- 戦略
- 文字列
- 強い
- 構造
- 研究
- 続いて
- 首尾よく
- そのような
- サポート
- 支援する
- サポート
- 取る
- 取り
- ターゲット
- チーム
- 技術的
- テクノロジー
- テクノロジー
- 10
- テンソルフロー
- test
- テスト
- テスト
- 클라우드 기반 AI/ML및 고성능 컴퓨팅을 통한 디지털 트윈의 기초 – Edward Hsu, Rescale CPO 많은 엔지니어링 중심 기업에게 클라우드는 R&D디지털 전환의 첫 단계일 뿐입니다. 클라우드 자원을 활용해 엔지니어링 팀의 제약을 해결하는 단계를 넘어, 시뮬레이션 운영을 통합하고 최적화하며, 궁극적으로는 모델 기반의 협업과 의사 결정을 지원하여 신제품을 결정할 때 데이터 기반 엔지니어링을 적용하고자 합니다. Rescale은 이러한 혁신을 돕기 위해 컴퓨팅 추천 엔진, 통합 데이터 패브릭, 메타데이터 관리 등을 개발하고 있습니다. 이번 자리를 빌려 비즈니스 경쟁력 제고를 위한 디지털 트윈 및 디지털 스레드 전략 개발 방법에 대한 인사이트를 나누고자 합니다.
- それ
- ソース
- アプリ環境に合わせて
- それら
- 自分自身
- その後
- ボーマン
- 彼ら
- もの
- 三番
- この
- <font style="vertical-align: inherit;">回数</font>
- 〜へ
- ツールキット
- 豊富なツール群
- トーチ
- トーチビジョン
- トレース
- トレーニング
- 訓練された
- トレーニング
- 最適化の適用
- 変換
- 変革戦略
- トランスフォーム
- トレンド
- トリガー
- トリガ
- true
- 試します
- type
- ユニーク
- アップロード
- アップロード
- URL
- つかいます
- 使用事例
- 中古
- ユーザー
- 使用されます
- ユーティリティ
- 検証
- 値
- 変数
- 多様
- ベンダー
- バージョン
- 脆弱性
- 欲しいです
- ました
- 方法
- we
- ウェブ
- Webサービス
- ウェブベースの
- WELL
- いつ
- which
- 意志
- 以内
- ワークフロー
- 作品
- 書きます
- 書かれた
- X
- まだ
- You
- あなたの
- ゼファーネット
- 〒