人工知能 (AI) は、テクノロジー コミュニティにおいて重要かつ人気のあるトピックとなっています。 AI の進化に伴い、さまざまな種類の機械学習 (ML) モデルが登場するのを見てきました。 として知られる XNUMX つのアプローチ アンサンブルモデリング、データサイエンティストや実務家の間で急速に注目を集めています。 この投稿では、アンサンブル モデルとは何か、またその使用がなぜ有益であるかについて説明します。 次に、カスタム アンサンブルをトレーニング、最適化、デプロイする方法の例を示します。 アマゾンセージメーカー.
アンサンブル学習とは、複数の学習モデルとアルゴリズムを使用して、単一の個別の学習アルゴリズムよりも正確な予測を取得することを指します。 これらは、サイバーセキュリティ [1] や不正行為の検出、リモート センシング、財務上の意思決定における最適な次のステップの予測、医療診断、さらにはコンピューター ビジョンや自然言語処理 (NLP) タスクなど、さまざまなアプリケーションや学習環境で効率的であることが証明されています。 私たちはアンサンブルを、トレーニングに使用されるテクニック、その構成、さまざまな予測を XNUMX つの推論にマージする方法によって分類する傾向があります。 これらのカテゴリには次のものが含まれます。
- 後押し – 複数の弱い学習器を連続的にトレーニングします。シーケンス内の前の学習器からの各誤った予測には、より高い重みが与えられ、次の学習器に入力され、それによってより強力な学習器が作成されます。 例には、AdaBoost、Gradient Boosting、XGBoost などがあります。
- バギング – 複数のモデルを使用して、単一モデルの差異を削減します。 例としては、ランダム フォレストやエクストラ ツリーなどがあります。
- スタッキング(ブレンド) – 多くの場合、異種モデルが使用されます。この場合、個々の推定器の予測が積み上げられ、予測を処理する最終推定器への入力として使用されます。 この最終推定者のトレーニング プロセスでは、多くの場合、相互検証が使用されます。
予測をモデルが最終的に生成する単一の予測に結合するには、複数の方法があります。たとえば、線形学習器などのメタ推定器を使用する方法、複数のモデルを使用して分類タスクの多数決に基づいて予測を行う投票方法、または回帰のアンサンブル平均を使用する方法などがあります。
XGBoost、CatBoost、scikit-learn のランダム フォレストなど、いくつかのライブラリやフレームワークがアンサンブル モデルの実装を提供していますが、この投稿では、独自のモデルを持ち込み、それらをスタッキング アンサンブルとして使用することに焦点を当てます。 ただし、モデルごとに専用のリソース (モデルごとに専用のトレーニングと調整ジョブ、およびエンドポイントのホスティング) を使用する代わりに、単一の SageMaker トレーニング ジョブと単一の調整ジョブを使用してカスタム アンサンブル (複数のモデル) をトレーニング、調整、デプロイし、単一のエンドポイントにデプロイすることで、コストと運用オーバーヘッドの可能性を削減します。
BYOE: 自分のアンサンブルを持ち込んでください
SageMaker を使用して異種アンサンブル モデルをトレーニングおよびデプロイするには、いくつかの方法があります。各モデルを 個別のトレーニングジョブ を使用して各モデルを個別に最適化します。 Amazon SageMaker 自動モデルチューニング。 これらのモデルをホストする場合、SageMaker は、同じテナント インフラストラクチャ上で複数のモデルをホストするさまざまなコスト効率の高い方法を提供します。 この種の設定の詳細な展開パターンについては、次を参照してください。 Amazon SageMaker でのモデルホスティングパターン、パート 1: Amazon SageMaker で ML アプリケーションを構築するための一般的な設計パターン。 これらのパターンには、複数のエンドポイント (トレーニングされたモデルごと) または単一のエンドポイントの使用が含まれます。 マルチモデルエンドポイント、または単一の マルチコンテナエンドポイント コンテナーは個別に呼び出すことも、パイプラインでチェーンして呼び出すこともできます。 これらすべてのソリューションにはメタ推定機能が含まれています (たとえば、 AWSラムダ 関数) は、各モデルを呼び出し、ブレンディングまたは投票関数を実装します。
ただし、複数のトレーニング ジョブを実行すると、特にアンサンブルで同じデータに対するトレーニングが必要な場合、運用コストとコストのオーバーヘッドが発生する可能性があります。 同様に、異なるモデルを別個のエンドポイントまたはコンテナーでホストし、その予測結果を組み合わせて精度を高めるには、複数回の呼び出しが必要となるため、追加の管理、コスト、監視の労力が発生します。 たとえば、SageMaker はサポートしています Triton Inference Server を使用したアンサンブル ML モデルただし、このソリューションでは、モデルまたはモデル アンサンブルが Triton バックエンドでサポートされている必要があります。 さらに、顧客は Triton サーバーをセットアップするための追加の作業と、さまざまな Triton バックエンドがどのように機能するかを理解するための追加の学習が必要です。 したがって、顧客は、エンドポイントに呼び出しを XNUMX 回送信するだけで済み、結果を集約して最終出力を生成する方法を柔軟に制御できるソリューションを実装するためのより簡単な方法を好みます。
ソリューションの概要
これらの懸念に対処するために、単一のトレーニング ジョブを使用したアンサンブル トレーニングの例を説明し、モデルのハイパーパラメーターを最適化し、単一のコンテナーを使用してサーバーレス エンドポイントにデプロイします。 アンサンブル スタックには CatBoost と XGBoost の XNUMX つのモデルを使用します (どちらもアンサンブルをブーストします)。 データには、 糖尿病データセット [2] scikit-learn ライブラリより: これは 10 個の特徴 (年齢、性別、体重、血圧、および 1 つの血清測定値) で構成されており、私たちのモデルはベースライン特徴が収集されてから XNUMX 年後の疾患の進行を予測します (回帰モデル)。
完全なコード リポジトリは次の場所にあります。 GitHubの.
単一の SageMaker ジョブで複数のモデルをトレーニングする
モデルのトレーニングには、スクリプト モードで SageMaker トレーニング ジョブを使用します。 スクリプト モードを使用すると、SageMaker フレームワーク コンテナを使用しながら、カスタム トレーニング (およびその後の推論コード) を作成できます。 フレームワークコンテナを使用すると、必要な設定とモジュールがすべて含まれた、AWS によって管理される既製の環境を使用できます。 フレームワーク コンテナーをカスタマイズする方法を示すために、例として、XGBoost パッケージと CatBoost パッケージが含まれていない、事前に構築された SKLearn コンテナーを使用します。 これらのパッケージを追加するには XNUMX つのオプションがあります。 組み込みコンテナを拡張する CatBoost と XGBoost をインストールする (その後、カスタム コンテナとしてデプロイする) か、SageMaker トレーニング ジョブ スクリプト モード機能を使用します。 requirements.txt
トレーニング推定量を作成するときにファイルを作成します。 SageMaker トレーニング ジョブは、リストされたライブラリを requirements.txt
実行時にファイルを作成します。 こうすることで、独自の Docker イメージ リポジトリを管理する必要がなくなり、追加の Python パッケージが必要なトレーニング スクリプトをより柔軟に実行できるようになります。
次のコード ブロックは、トレーニングを開始するために使用するコードを示しています。 の entry_point
パラメータはトレーニング スクリプトを指します。 また、SageMaker SDK API の XNUMX つの魅力的な機能も使用します。
- まず、ソース ディレクトリへのローカル パスと依存関係を指定します。
source_dir
およびdependencies
パラメータをそれぞれ指定します。 SDK はこれらのディレクトリを圧縮してアップロードします。 Amazon シンプル ストレージ サービス (Amazon S3) と SageMaker は、作業ディレクトリの下のトレーニング インスタンスでそれらを利用できるようにします。/opt/ml/code
. - XNUMX 番目に、SDK を使用します。
SKLearn
estimator オブジェクトを優先する Python とフレームワークのバージョンで作成すると、SageMaker は対応するコンテナをプルします。 カスタム トレーニング指標も定義しました。validation:rmse
これはトレーニング ログに出力され、SageMaker によってキャプチャされます。 後で、このメトリックを調整ジョブの目標メトリックとして使用します。
hyperparameters = {"num_round": 6, "max_depth": 5}
estimator_parameters = {
"entry_point": "multi_model_hpo.py",
"source_dir": "code",
"dependencies": ["my_custom_library"],
"instance_type": training_instance_type,
"instance_count": 1,
"hyperparameters": hyperparameters,
"role": role,
"base_job_name": "xgboost-model",
"framework_version": "1.0-1",
"keep_alive_period_in_seconds": 60,
"metric_definitions":[
{'Name': 'validation:rmse', 'Regex': 'validation-rmse:(.*?);'}
]
}
estimator = SKLearn(**estimator_parameters)
次に、トレーニング スクリプト (multi_model_hpo.py)。 私たちのスクリプトは単純なフローに従います。 ハイパーパラメータをキャプチャする ジョブの構成に使用されたものと、 CatBoost モデルをトレーニングする および XGBoostモデル。 また、 K折りクロス 検証機能。 次のコードを参照してください。
if __name__ == "__main__":
parser = argparse.ArgumentParser() # Sagemaker specific arguments. Defaults are set in the environment variables.
parser.add_argument("--output-data-dir", type=str, default=os.environ["SM_OUTPUT_DATA_DIR"])
parser.add_argument("--model-dir", type=str, default=os.environ["SM_MODEL_DIR"])
parser.add_argument("--train", type=str, default=os.environ["SM_CHANNEL_TRAIN"])
parser.add_argument("--validation", type=str, default=os.environ["SM_CHANNEL_VALIDATION"])
.
.
.
"""
Train catboost
"""
K = args.k_fold
catboost_hyperparameters = {
"max_depth": args.max_depth,
"eta": args.eta,
}
rmse_list, model_catboost = cross_validation_catboost(train_df, K, catboost_hyperparameters)
.
.
.
"""
Train the XGBoost model
""" hyperparameters = {
"max_depth": args.max_depth,
"eta": args.eta,
"objective": args.objective,
"num_round": args.num_round,
} rmse_list, model_xgb = cross_validation(train_df, K, hyperparameters)
モデルがトレーニングされた後、CatBoost 予測と XGBoost 予測の両方の平均を計算します。 結果、 pred_mean
は私たちのアンサンブルの最終予想です。 次に、 mean_squared_error
検証セットに対して。 val_rmse
トレーニング中にアンサンブル全体の評価に使用されます。 RMSE 値も、 metric_definitions
。 後で、SageMaker 自動モデル調整はそれを使用して客観的なメトリクスを取得します。 次のコードを参照してください。
pred_mean = np.mean(np.array([pred_catboost, pred_xgb]), axis=0)
val_rmse = mean_squared_error(y_validation, pred_mean, squared=False)
print(f"Final evaluation result: validation-rmse:{val_rmse}")
最後に、スクリプトは両方のモデル アーティファクトを次の場所にある出力フォルダーに保存します。 /opt/ml/model
.
トレーニング ジョブが完了すると、SageMaker はそのコンテンツをパッケージ化してコピーします。 /opt/ml/model
ディレクトリを圧縮 TAR 形式の単一オブジェクトとして、ジョブ設定で指定した S3 の場所に保存します。 私たちの場合、SageMaker は 3 つのモデルを TAR ファイルにバンドルし、トレーニング ジョブの最後に Amazon SXNUMX にアップロードします。 次のコードを参照してください。
model_file_name = 'catboost-regressor-model.dump'
# Save CatBoost model
path = os.path.join(args.model_dir, model_file_name)
print('saving model file to {}'.format(path))
model.save_model(path)
.
.
.
# Save XGBoost model
model_location = args.model_dir + "/xgboost-model"
pickle.dump(model, open(model_location, "wb"))
logging.info("Stored trained model at {}".format(model_location))
要約すると、この手順ではデータを XNUMX 回ダウンロードし、XNUMX つのトレーニング ジョブを使用して XNUMX つのモデルをトレーニングしたことがわかります。
アンサンブルモデルの自動チューニング
ML モデルのコレクションを構築しているため、考えられるすべてのハイパーパラメーターの順列を調査することは非現実的です。 SageMaker が提供するもの 自動モデルチューニング (AMT)、指定した範囲内で最も有望な値の組み合わせに焦点を当てて、最適なモデルのハイパーパラメーターを検索します (調査する適切な範囲を定義するのはユーザー次第です)。 SageMaker は複数の最適化方法をサポートしています あなたの中から選択するため。
まず、最適化プロセスの XNUMX つの部分 (目標メトリックと調整するハイパーパラメーター) を定義します。 この例では、検証 RMSE をターゲット メトリックとして使用し、調整します。 eta
および max_depth
(他のハイパーパラメータについては、を参照してください。 XGBoostハイパーパラメータ および CatBoost ハイパーパラメータ):
from sagemaker.tuner import (
IntegerParameter,
ContinuousParameter,
HyperparameterTuner,
) hyperparameter_ranges = {
"eta": ContinuousParameter(0.2, 0.3),
"max_depth": IntegerParameter(3, 4)
}
metric_definitions = [{"Name": "validation:rmse", "Regex": "validation-rmse:([0-9.]+)"}]
objective_metric_name = "validation:rmse"
また、 トレーニングスクリプト ハイパーパラメータはハードコーディングされておらず、SageMaker ランタイム引数から取得されることを確認します。
catboost_hyperparameters = {
"max_depth": args.max_depth,
"eta": args.eta,
}
SageMaker はハイパーパラメータを JSON ファイルに書き込み、そこから読み取ることもできます。 /opt/ml/input/config/hyperparameters.json
トレーニング インスタンス上で。
CatBoost と同様に、XGBoost モデルのハイパーパラメータもキャプチャします ( objective
および num_round
調整されていません):
catboost_hyperparameters = {
"max_depth": args.max_depth,
"eta": args.eta,
}
最後に、次の構成を使用してハイパーパラメータ調整ジョブを起動します。
tuner = HyperparameterTuner(
estimator,
objective_metric_name,
hyperparameter_ranges,
max_jobs=4,
max_parallel_jobs=2,
objective_type='Minimize'
)
tuner.fit({"train": train_location, "validation": validation_location}, include_cls_metadata=False)
ジョブが完了すると、最適なトレーニング ジョブ (最小限の RMSE) の値を取得できます。
job_name=tuner.latest_tuning_job.name
attached_tuner = HyperparameterTuner.attach(job_name)
attached_tuner.describe()["BestTrainingJob"]
AMT の詳細については、以下を参照してください。 SageMaker で自動モデル調整を実行する.
展開
カスタム アンサンブルをデプロイするには、推論リクエストを処理し、SageMaker ホスティングを構成するスクリプトを提供する必要があります。 この例では、トレーニング コードと推論コードの両方を含む XNUMX つのファイルを使用しました (multi_model_hpo.py)。 SageMaker は if の下でコードを使用します _ name _ == "_ main _"
トレーニングや行事のために model_fn
, input_fn
, predict_fn
モデルをデプロイして提供するとき。
推論スクリプト
トレーニングと同様に、SageMaker SKLearn フレームワーク コンテナと独自の推論スクリプトを使用します。 このスクリプトは、SageMaker に必要な XNUMX つのメソッドを実装します。
まず、 model_fn
メソッドは、保存されたモデル アーティファクト ファイルを読み取り、メモリにロードします。 私たちの場合、メソッドはアンサンブルを次のように返します。 all_model
これは Python のリストですが、モデル名をキーとして持つ辞書を使用することもできます。
def model_fn(model_dir):
catboost_model = CatBoostRegressor()
catboost_model.load_model(os.path.join(model_dir, model_file_name))
model_file = "xgboost-model"
model = pickle.load(open(os.path.join(model_dir, model_file), "rb"))
all_model = [catboost_model, model]
return all_model
第二に、 input_fn
メソッドは、推論ハンドラーに渡されるリクエスト入力データを逆シリアル化します。 入力ハンドラーの詳細については、を参照してください。 独自の推論コンテナーを適応させる.
def input_fn(input_data, content_type):
dtype=None
payload = StringIO(input_data)
return np.genfromtxt(payload, dtype=dtype, delimiter=",")
第三に、 predict_fn
メソッドはモデルから予測を取得する役割を果たします。 このメソッドは、モデルと返されたデータを受け取ります。 input_fn
をパラメータとして返し、最終的な予測を返します。 この例では、モデル リストの最初のメンバーから CatBoost 結果を取得します (model[0]
) と XNUMX 番目のメンバーからの XGBoost (model[1]
)、両方の予測の平均を返すブレンディング関数を使用します。
def predict_fn(input_data, model):
predictions_catb = model[0].predict(input_data)
dtest = xgb.DMatrix(input_data)
predictions_xgb = model[1].predict(dtest,
ntree_limit=getattr(model, "best_ntree_limit", 0),
validate_features=False)
return np.mean(np.array([predictions_catb, predictions_xgb]), axis=0)
トレーニングされたモデルと推論スクリプトが完成したので、アンサンブルをデプロイするための環境を構成できます。
SageMaker サーバーレス推論
ありますが SageMaker の多くのホスティング オプション, この例では、サーバーレス エンドポイントを使用します。 サーバーレス エンドポイントは、コンピューティング リソースを自動的に起動し、トラフィックに応じてスケールインおよびスケールアウトします。 これにより、サーバーを管理する未分化の重労働が解消されます。 このオプションは、トラフィックの急増の間にアイドル期間があり、コールド スタートを許容できるワークロードに最適です。
サーバーレス エンドポイントの構成は、インスタンス タイプを選択したり、スケーリング ポリシーを管理したりする必要がないため、簡単です。 指定する必要があるのは、メモリ サイズと最大同時実行数の 200 つのパラメータだけです。 サーバーレス エンドポイントは、選択したメモリに比例してコンピューティング リソースを自動的に割り当てます。 より大きなメモリ サイズを選択すると、コンテナがより多くの vCPU にアクセスできるようになります。 エンドポイントのメモリ サイズは、常にモデルのサイズに応じて選択する必要があります。 指定する必要がある 50 番目のパラメーターは、最大同時実行数です。 単一のエンドポイントの場合、このパラメーターは最大 XNUMX まで設定できます (この記事の執筆時点では、リージョン内のサーバーレス エンドポイントの総数の制限は XNUMX です)。 個々のエンドポイントの最大同時実行数により、そのエンドポイントがアカウントで許可されているすべての呼び出しを処理できないことに注意してください。これは、最大数を超えるエンドポイント呼び出しは調整されるためです (リージョンごとのすべてのサーバーレス エンドポイントの合計同時実行数の詳細については、「」を参照してください)。 AmazonSageMakerのエンドポイントとクォータ).
from sagemaker.serverless.serverless_inference_config import ServerlessInferenceConfig
serverless_config = ServerlessInferenceConfig(
memory_size_in_mb=6144,
max_concurrency=1,
)
エンドポイントを構成したので、いよいよハイパーパラメーター最適化ジョブで選択したモデルをデプロイできます。
estimator=attached_tuner.best_estimator()
predictor = estimator.deploy(serverless_inference_config=serverless_config)
クリーンアップ
サーバーレス エンドポイントは使用されていないときはコストがかかりませんが、この例の実行が終了したら、必ずエンドポイントを削除する必要があります。
predictor.delete_endpoint(predictor.endpoint)
まとめ
この投稿では、カスタム アンサンブルをトレーニング、最適化、デプロイするための XNUMX つのアプローチについて説明しました。 単一のトレーニング ジョブを使用して複数のモデルをトレーニングするプロセス、自動モデル チューニングを使用してアンサンブル ハイパーパラメーターを最適化する方法、および複数のモデルからの推論をブレンドする単一のサーバーレス エンドポイントをデプロイする方法について詳しく説明しました。
この方法を使用すると、潜在的なコストと運用上の問題が解決されます。 トレーニング ジョブのコストは、使用期間中に使用したリソースに基づきます。 4 つのモデルをトレーニングするためにデータを XNUMX 回だけダウンロードすることで、ジョブのデータ ダウンロード フェーズとデータを保存する使用量が半分になり、トレーニング ジョブの全体的なコストが削減されました。 さらに、AMT ジョブは XNUMX つのトレーニング ジョブを実行し、それぞれ前述の時間とストレージが削減されたため、コストが XNUMX 倍削減されたことになります。 サーバーレス エンドポイントへのモデルのデプロイメントに関しては、処理されたデータ量に対しても料金が発生するため、XNUMX つのモデルに対してエンドポイントを XNUMX 回だけ呼び出すことで、I/O データ料金の半分を支払うことになります。
この投稿では XNUMX つのモデルの利点のみを示しましたが、この方法を使用して多数のアンサンブル モデルをトレーニング、調整、デプロイし、さらに大きな効果を確認できます。
参考文献
[1] ラージ クマール、P. アルン。 セルヴァクマール、S. (2011)。 「ニューラル分類器のアンサンブルを使用した分散型サービス拒否攻撃の検出」。 コンピュータ通信。 34 (11): 1328–1341。 土井:10.1016/j.comcom.2011.01.012。
[2] Bradley Efron、Trevor Hastie、Iain Johnstone、Robert Tibshirani (2004) 「最小角度回帰」、Annals of Statistics (議論付き)、407-499。 (https://web.stanford.edu/~hastie/Papers/LARS/LeastAngle_2002.pdf)
著者について
メラニー・リー博士は、オーストラリアのシドニーに拠点を置く AWS のシニア AI/ML スペシャリスト TAM です。 彼女は、企業顧客が AWS 上の最先端の AI/ML ツールを活用したソリューションを構築できるよう支援し、ベストプラクティスを使用した機械学習ソリューションの構築と実装に関するガイダンスを提供します。 余暇には、屋外で自然を探索したり、家族や友人と時間を過ごすのが大好きです。
ユリ・ローゼンバーグ は、ヨーロッパ、中東、アフリカの AI および ML スペシャリスト テクニカル マネージャーです。 Uri はイスラエルを拠点に、企業顧客が ML ワークロードを大規模に設計、構築、運用できるようにすることに取り組んでいます。 余暇には、サイクリング、ハイキング、RMSE の最小化を楽しんでいます。
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- PlatoData.Network 垂直生成 Ai。 自分自身に力を与えましょう。 こちらからアクセスしてください。
- プラトアイストリーム。 Web3 インテリジェンス。 知識増幅。 こちらからアクセスしてください。
- プラトンESG。 自動車/EV、 カーボン、 クリーンテック、 エネルギー、 環境、 太陽、 廃棄物管理。 こちらからアクセスしてください。
- ブロックオフセット。 環境オフセット所有権の近代化。 こちらからアクセスしてください。
- 情報源: https://aws.amazon.com/blogs/machine-learning/efficiently-train-tune-and-deploy-custom-ensembles-using-amazon-sagemaker/
- :持っている
- :は
- :not
- :どこ
- ][p
- $UP
- 1
- 10
- 100
- 11
- 200
- 2011
- 50
- 60
- 7
- a
- 私たちについて
- アクセス
- 従った
- 精度
- 正確な
- 加えます
- NEW
- さらに
- 住所
- アフリカ
- 後
- に対して
- 年齢
- AI
- AI / ML
- アルゴリズム
- アルゴリズム
- すべて
- 許可されて
- ことができます
- また
- 常に
- Amazon
- アマゾンセージメーカー
- Amazon Webサービス
- 間で
- 量
- an
- および
- どれか
- アプローチ
- です
- 引数
- AS
- At
- 攻撃
- オーストラリア
- オートマチック
- 自動的に
- 利用できます
- 平均化
- 離れて
- AWS
- バックエンド
- ベース
- ベースライン
- BE
- なぜなら
- になる
- き
- さ
- 有益な
- 利点
- BEST
- ベストプラクティス
- より良いです
- の間に
- 越えて
- 混合
- ブレンド
- ブロック
- 血
- 血圧
- ボディ
- 後押し
- 両言語で
- 持って来る
- 持参
- ビルド
- 建物
- 内蔵
- バンドル
- 焙煎が極度に未発達や過発達のコーヒーにて、クロロゲン酸の味わいへの影響は強くなり、金属を思わせる味わいと乾いたマウスフィールを感じさせます。
- by
- 計算する
- 缶
- キャプチャー
- 捕捉した
- 場合
- カテゴリ
- 鎖の
- 課金
- 選択する
- 分類
- コード
- 冷たい
- コレクション
- 組み合わせ
- 結合
- コマンドと
- 通信部
- コミュニティ
- 説得力のある
- コンプリート
- 計算
- コンピュータ
- Computer Vision
- 懸念事項
- 設定された
- からなる
- コンテナ
- コンテナ
- コンテンツ
- コントロール
- 対応する
- 費用
- コスト効率の良い
- カバー
- 作成
- カスタム
- 顧客
- Customers
- カスタマイズ
- サイバーセキュリティ
- データ
- 意思決定
- 専用の
- デフォルト
- 定義します
- 定義済みの
- 定義
- 実証します
- サービス拒否
- によっては
- 展開します
- 展開する
- 展開
- 設計
- デザインパターン
- 詳細な
- 検出
- 決定する
- 異なります
- ディレクトリ
- 話し合います
- 議論
- 病気
- 異なる
- デッカー
- そうではありません
- ドント
- ダウンロード
- ダンプ
- デュレーション
- 間に
- 各
- 東
- 効果
- 効率的な
- 効率良く
- 努力
- どちら
- 出てくる
- エンパワー
- enable
- end
- エンドポイント
- 確保
- Enterprise
- 環境
- 環境
- 特に
- ヨーロッパ
- 評価
- さらに
- 進化
- 例
- 例
- 探る
- 探る
- 余分な
- 家族
- 特徴
- 特徴
- File
- ファイナル
- 最後に
- ファイナンシャル
- 名
- 柔軟性
- フロー
- フォーカス
- 焦点
- フォロー中
- 次
- 森林
- 形式でアーカイブしたプロジェクトを保存します.
- 発見
- 4
- フレームワーク
- フレームワーク
- 詐欺
- 不正検出
- 友達
- から
- フル
- function
- 機能
- さらに
- 利得
- 獲得
- 生成する
- 取得する
- 受け
- 与えられた
- 大きい
- ガイダンス
- 半分
- ハンドル
- ハンドル
- 持ってる
- he
- ヘビー
- 重いもの
- ことができます
- 彼女の
- より高い
- 彼の
- host
- ホスティング
- 認定条件
- How To
- しかしながら
- HTML
- HTTP
- HTTPS
- ハイパーパラメーターの最適化
- ハイパーパラメータ調整
- 理想
- アイドル
- if
- 画像
- 実装する
- 実装
- 実装する
- 重要
- in
- include
- 含ま
- 個人
- 個別に
- 情報
- インフラ
- install
- を取得する必要がある者
- インテリジェンス
- に
- 紹介する
- 紹介します
- 呼び出された
- 呼び出す
- イスラエル
- 問題
- IT
- ジョブ
- Jobs > Create New Job
- JPG
- JSON
- キー
- 種類
- 既知の
- 言語
- より大きい
- 後で
- 起動する
- 学習
- 活用
- Li
- ライブラリ
- 図書館
- フェイスリフト
- LIMIT
- リスト
- リストされた
- 負荷
- ローカル
- 位置して
- 場所
- ロギング
- LOOKS
- で
- 機械
- 機械学習
- メイン
- 大多数
- make
- 管理します
- マネージド
- 管理
- マネージャー
- 管理する
- 質量
- 意味する
- 測定結果
- 医療の
- メンバー
- メモリ
- マージ
- 方法
- メソッド
- メトリック
- 真ん中
- 中東
- かもしれない
- 最小限の
- 最小化
- ML
- モード
- モデル
- モジュール
- モニタリング
- 他には?
- 最も
- の試合に
- 名
- 名
- ナチュラル
- 自然言語処理
- 自然
- 必要
- 必要
- 次の
- NLP
- 知らせ..
- 数
- 多数の
- オブジェクト
- 客観
- of
- オファー
- 頻繁に
- on
- かつて
- ONE
- の
- 操作する
- オペレーショナル
- 最適化
- 最適化
- 最適化
- オプション
- オプション
- or
- OS
- その他
- 私たちの
- でる
- 屋外で
- 出力
- 全体
- 自分の
- パッケージ
- パラメーター
- パラメータ
- 部
- 部品
- 渡された
- path
- パターン
- パターン
- 支払う
- 以下のために
- 期間
- 相
- パイプライン
- プラトン
- プラトンデータインテリジェンス
- プラトデータ
- ポイント
- ポリシー
- 人気
- 可能
- ポスト
- 潜在的な
- プラクティス
- 予測
- 予測
- 予測
- Predictor
- 予測
- 好む
- 優先
- 圧力
- を防止
- 前
- 印刷物
- 手続き
- プロセス
- 処理済み
- 処理
- 作り出す
- 進行
- 有望
- 実績のある
- 提供します
- は、大阪で
- Python
- ランダム
- 急速に
- 読む
- 減らします
- 電話代などの費用を削減
- 縮小
- 指し
- 見なす
- 正規表現
- 地域
- リモート
- 倉庫
- 表す
- 要求
- の提出が必要です
- 必要
- リソース
- それぞれ
- 責任
- 結果
- 結果
- return
- 収益
- 右
- ROBERT
- 職種
- ラン
- ランニング
- s
- セージメーカー
- SageMaker自動モデルチューニング
- 同じ
- Save
- 節約
- 規模
- スケーリング
- 科学者たち
- scikit-学ぶ
- スクリプト
- SDDK
- 二番
- 見て
- 選択
- 送信
- シニア
- 別
- シーケンス
- ヒアルロン酸抗酸化セラム
- サーバレス
- サーバー
- サービス
- サービス
- サービング
- セッションに
- 設定
- いくつかの
- 性別
- 彼女
- すべき
- 示されました
- 作品
- 同様に
- 簡単な拡張で
- SIX
- サイズ
- So
- 溶液
- ソリューション
- 解決する
- ソース
- 専門家
- 特定の
- 指定の
- 過ごす
- スタック
- 積み上げ
- スタッキング
- スタンフォード
- start
- 開始
- 最先端の
- 統計
- ステップ
- ストレージ利用料
- 保存され
- 店舗
- 簡単な
- 強い
- そのような
- 概要
- サポート
- サポート
- 確か
- シドニー
- 取り
- 取得
- ターゲット
- タスク
- 技術的
- テクニック
- テクノロジー
- テナント
- より
- それ
- アプリ環境に合わせて
- それら
- その後
- そこ。
- それによって
- したがって、
- ボーマン
- 彼ら
- この
- それらの
- しかし?
- 三
- 介して
- 時間
- <font style="vertical-align: inherit;">回数</font>
- 〜へ
- 一緒に
- 豊富なツール群
- トピック
- トータル
- 牽引力
- トラフィック
- トレーニング
- 訓練された
- トレーニング
- 樹木類
- トレバー
- トリトン
- 2
- 下
- わかる
- 使用法
- つかいます
- 中古
- 使用されます
- 値
- 価値観
- さまざまな
- バージョン
- ビジョン
- ボリューム
- 投票
- 欲しいです
- ました
- 仕方..
- 方法
- we
- ウェブ
- Webサービス
- 重量
- した
- この試験は
- いつ
- which
- while
- 全体
- なぜ
- 意志
- 以内
- 仕事
- ワーキング
- 作品
- 書きます
- 書き込み
- XGブースト
- 年
- You
- あなたの
- ゼファーネット
- ゼロ