ズーデジタル は、オリジナルのテレビや映画のコンテンツをさまざまな言語、地域、文化に適応させるためのエンドツーエンドのローカリゼーションおよびメディア サービスを提供します。世界最高のコンテンツクリエイターにとって、グローバル化が容易になります。エンターテイメント業界の大手から信頼されている ZOO Digital は、吹き替え、字幕、スクリプト作成、コンプライアンスなど、高品質のローカリゼーションおよびメディア サービスを大規模に提供しています。
一般的なローカリゼーション ワークフローでは、手動で話者をダイアライゼーションする必要があり、音声ストリームは話者の ID に基づいてセグメント化されます。この時間のかかるプロセスは、コンテンツを別の言語に吹き替える前に完了する必要があります。手動の方法では、30 分のエピソードのローカライズに 1 ~ 3 時間かかる場合があります。 ZOO Digital は自動化により、30 分以内にローカリゼーションを達成することを目指しています。
この投稿では、次を使用してメディア コンテンツを日記化するためのスケーラブルな機械学習 (ML) モデルのデプロイについて説明します。 アマゾンセージメーカー、に焦点を当てて ウィスパーX モデル。
経歴
ZOO Digital のビジョンは、ローカライズされたコンテンツをより迅速に提供することです。この目標は、手動で集中的に行う演習の性質と、コンテンツを手動でローカライズできる熟練した人材の少数の労働力によってさらにボトルネックになっています。 ZOO Digital は 11,000 人を超えるフリーランサーと協力し、600 年だけで 2022 億語以上の単語をローカライズしました。しかし、コンテンツ需要の増加により熟練人材の供給が追いつかなくなり、ローカリゼーション ワークフローを支援する自動化が必要となっています。
機械学習を通じてコンテンツワークフローのローカライゼーションを加速することを目的として、ZOO Digital は、顧客とワークロードを共同構築するための AWS による投資プログラムである AWS プロトタイピングを利用しました。この取り組みでは、ZOO Digital 開発者に SageMaker に関する実践的なトレーニングを提供しながら、ローカリゼーション プロセスの機能的なソリューションを提供することに焦点を当てました。 Amazon Transcribe, Amazon翻訳.
顧客の課題
タイトル (映画またはテレビ シリーズのエピソード) が書き起こされた後、キャラクターを演じるためにキャストされた声優にスピーカーが正しく割り当てられるように、スピーチの各セグメントにスピーカーを割り当てる必要があります。このプロセスは話者ダイアライゼーションと呼ばれます。 ZOO Digital は、経済的に実行可能でありながら、コンテンツを大規模に日記化するという課題に直面しています。
ソリューションの概要
このプロトタイプでは、元のメディア ファイルを指定された場所に保存しました。 Amazon シンプル ストレージ サービス (Amazon S3) バケット。この S3 バケットは、その中で新しいファイルが検出されたときにイベントを発行し、 AWSラムダ 関数。このトリガーの構成手順については、チュートリアルを参照してください。 Amazon S3 トリガーを使用して Lambda 関数を呼び出す。その後、Lambda 関数は推論のために SageMaker エンドポイントを呼び出しました。 Boto3 SageMaker ランタイム クライアント.
ウィスパーX モデル、に基づいて OpenAIのささやき、メディア資産の文字起こしと日記化を実行します。それは上に構築されています より速いささやき 再実装により、Whisper と比較して単語レベルのタイムスタンプのアライメントが改善され、最大 4 倍高速な文字起こしが可能になります。さらに、オリジナルの Whisper モデルには存在しなかった、スピーカーのダイアライゼーションが導入されています。 WhisperX は文字起こしに Whisper モデルを利用します。 Wav2Vec2 タイムスタンプのアライメントを強化するモデル (書き起こされたテキストと音声のタイムスタンプの同期を確保)、 ピャンノート ダイアライゼーション用のモデル。 FFmpegの ソースメディアからオーディオをロードするために使用され、さまざまなサポート メディア形式。 透過的でモジュール式のモデル アーキテクチャにより、将来必要に応じてモデルの各コンポーネントを交換できるため、柔軟性が得られます。ただし、WhisperX には完全な管理機能がなく、エンタープライズ レベルの製品ではないことに注意することが重要です。メンテナンスとサポートがなければ、運用環境の展開には適さない可能性があります。
このコラボレーションでは、WhisperX を SageMaker にデプロイし、評価しました。 非同期推論エンドポイント モデルをホストします。 SageMaker 非同期エンドポイントは、最大 1 GB のアップロード サイズをサポートし、トラフィックの急増を効率的に軽減し、オフピーク時のコストを節約する自動スケーリング機能を組み込んでいます。非同期エンドポイントは、このユースケースの映画やテレビ シリーズなどの大きなファイルの処理に特に適しています。
次の図は、この共同研究で実施した実験の中核となる要素を示しています。
次のセクションでは、SageMaker 上での WhisperX モデルのデプロイの詳細を掘り下げ、日記作成のパフォーマンスを評価します。
モデルとそのコンポーネントをダウンロードする
WhisperX は、転写、強制アライメント、ダイアライゼーションのための複数のモデルを含むシステムです。推論中にモデル アーティファクトをフェッチする必要がなく、SageMaker をスムーズに操作するには、すべてのモデル アーティファクトを事前にダウンロードすることが不可欠です。これらのアーティファクトは、開始時に SageMaker 提供コンテナにロードされます。これらのモデルには直接アクセスできないため、WhisperX ソースから説明とサンプル コードを提供し、モデルとそのコンポーネントをダウンロードする手順を提供します。
WhisperX は 6 つのモデルを使用します。
これらのモデルのほとんどは次の場所から入手できます。 ハグ顔 ハグフェイス_ハブライブラリを使用します。以下を使用します download_hf_model()
これらのモデル成果物を取得する関数。次の pyannote モデルのユーザー契約に同意した後に生成される、Hugging Face からのアクセス トークンが必要です。
import huggingface_hub
import yaml
import torchaudio
import urllib.request
import os CONTAINER_MODEL_DIR = "/opt/ml/model"
WHISPERX_MODEL = "guillaumekln/faster-whisper-large-v2"
VAD_MODEL_URL = "https://whisperx.s3.eu-west-2.amazonaws.com/model_weights/segmentation/0b5b3216d60a2d32fc086b47ea8c67589aaeb26b7e07fcbe620d6d0b83e209ea/pytorch_model.bin"
WAV2VEC2_MODEL = "WAV2VEC2_ASR_BASE_960H"
DIARIZATION_MODEL = "pyannote/speaker-diarization" def download_hf_model(model_name: str, hf_token: str, local_model_dir: str) -> str: """ Fetches the provided model from HuggingFace and returns the subdirectory it is downloaded to :param model_name: HuggingFace model name (and an optional version, appended with @[version]) :param hf_token: HuggingFace access token authorized to access the requested model :param local_model_dir: The local directory to download the model to :return: The subdirectory within local_modeL_dir that the model is downloaded to """ model_subdir = model_name.split('@')[0] huggingface_hub.snapshot_download(model_subdir, token=hf_token, local_dir=f"{local_model_dir}/{model_subdir}", local_dir_use_symlinks=False) return model_subdir
VAD モデルは Amazon S3 から取得され、Wav2Vec2 モデルは torchaudio.pipelines モジュールから取得されます。次のコードに基づいて、Hugging Face からのものを含むすべてのモデルのアーティファクトを取得し、指定されたローカル モデル ディレクトリに保存できます。
def fetch_models(hf_token: str, local_model_dir="./models"): """ Fetches all required models to run WhisperX locally without downloading models every time :param hf_token: A huggingface access token to download the models :param local_model_dir: The directory to download the models to """ # Fetch Faster Whisper's Large V2 model from HuggingFace download_hf_model(model_name=WHISPERX_MODEL, hf_token=hf_token, local_model_dir=local_model_dir) # Fetch WhisperX's VAD Segmentation model from S3 vad_model_dir = "whisperx/vad" if not os.path.exists(f"{local_model_dir}/{vad_model_dir}"): os.makedirs(f"{local_model_dir}/{vad_model_dir}") urllib.request.urlretrieve(VAD_MODEL_URL, f"{local_model_dir}/{vad_model_dir}/pytorch_model.bin") # Fetch the Wav2Vec2 alignment model torchaudio.pipelines.__dict__[WAV2VEC2_MODEL].get_model(dl_kwargs={"model_dir": f"{local_model_dir}/wav2vec2/"}) # Fetch pyannote's Speaker Diarization model from HuggingFace download_hf_model(model_name=DIARIZATION_MODEL, hf_token=hf_token, local_model_dir=local_model_dir) # Read in the Speaker Diarization model config to fetch models and update with their local paths with open(f"{local_model_dir}/{DIARIZATION_MODEL}/config.yaml", 'r') as file: diarization_config = yaml.safe_load(file) embedding_model = diarization_config['pipeline']['params']['embedding'] embedding_model_dir = download_hf_model(model_name=embedding_model, hf_token=hf_token, local_model_dir=local_model_dir) diarization_config['pipeline']['params']['embedding'] = f"{CONTAINER_MODEL_DIR}/{embedding_model_dir}" segmentation_model = diarization_config['pipeline']['params']['segmentation'] segmentation_model_dir = download_hf_model(model_name=segmentation_model, hf_token=hf_token, local_model_dir=local_model_dir) diarization_config['pipeline']['params']['segmentation'] = f"{CONTAINER_MODEL_DIR}/{segmentation_model_dir}/pytorch_model.bin" with open(f"{local_model_dir}/{DIARIZATION_MODEL}/config.yaml", 'w') as file: yaml.safe_dump(diarization_config, file) # Read in the Speaker Embedding model config to update it with its local path speechbrain_hyperparams_path = f"{local_model_dir}/{embedding_model_dir}/hyperparams.yaml" with open(speechbrain_hyperparams_path, 'r') as file: speechbrain_hyperparams = file.read() speechbrain_hyperparams = speechbrain_hyperparams.replace(embedding_model_dir, f"{CONTAINER_MODEL_DIR}/{embedding_model_dir}") with open(speechbrain_hyperparams_path, 'w') as file: file.write(speechbrain_hyperparams)
モデルを提供するために適切な AWS Deep Learning コンテナを選択します
前述のサンプル コードを使用してモデル アーティファクトを保存した後、事前に構築されたものを選択できます。 AWS深層学習コンテナ (DLC)は以下から GitHubレポ。 Docker イメージを選択するときは、フレームワーク (Hugging Face)、タスク (推論)、Python のバージョン、およびハードウェア (GPU など) の設定を考慮してください。次の画像を使用することをお勧めします。 763104351884.dkr.ecr.[REGION].amazonaws.com/huggingface-pytorch-inference:2.0.0-transformers4.28.1-gpu-py310-cu118-ubuntu20.04
このイメージには、ffmpeg などの必要なシステム パッケージがすべてプリインストールされています。 [REGION] を使用している AWS リージョンに忘れずに置き換えてください。
その他の必要な Python パッケージについては、 requirements.txt
パッケージとそのバージョンのリストを含むファイル。これらのパッケージは、AWS DLC のビルド時にインストールされます。 SageMaker で WhisperX モデルをホストするために必要な追加パッケージは次のとおりです。
モデルをロードして推論を実行する推論スクリプトを作成する
次に、カスタムを作成します inference.py
WhisperX モデルとそのコンポーネントがコンテナにどのようにロードされるか、および推論プロセスがどのように実行されるかを概説するスクリプト。スクリプトには 2 つの関数が含まれています。 model_fn
および transform_fn
を選択します。 model_fn
関数が呼び出され、それぞれの場所からモデルがロードされます。その後、これらのモデルは transform_fn
推論中に機能し、転記、位置合わせ、およびダイアライゼーションのプロセスが実行されます。以下はコードサンプルです inference.py
:
import io
import json
import logging
import tempfile
import time import torch
import whisperx DEVICE = 'cuda' if torch.cuda.is_available() else 'cpu' def model_fn(model_dir: str) -> dict: """ Deserialize and return the models """ logging.info("Loading WhisperX model") model = whisperx.load_model(whisper_arch=f"{model_dir}/guillaumekln/faster-whisper-large-v2", device=DEVICE, language="en", compute_type="float16", vad_options={'model_fp': f"{model_dir}/whisperx/vad/pytorch_model.bin"}) logging.info("Loading alignment model") align_model, metadata = whisperx.load_align_model(language_code="en", device=DEVICE, model_name="WAV2VEC2_ASR_BASE_960H", model_dir=f"{model_dir}/wav2vec2") logging.info("Loading diarization model") diarization_model = whisperx.DiarizationPipeline(model_name=f"{model_dir}/pyannote/speaker-diarization/config.yaml", device=DEVICE) return { 'model': model, 'align_model': align_model, 'metadata': metadata, 'diarization_model': diarization_model } def transform_fn(model: dict, request_body: bytes, request_content_type: str, response_content_type="application/json") -> (str, str): """ Load in audio from the request, transcribe and diarize, and return JSON output """ # Start a timer so that we can log how long inference takes start_time = time.time() # Unpack the models whisperx_model = model['model'] align_model = model['align_model'] metadata = model['metadata'] diarization_model = model['diarization_model'] # Load the media file (the request_body as bytes) into a temporary file, then use WhisperX to load the audio from it logging.info("Loading audio") with io.BytesIO(request_body) as file: tfile = tempfile.NamedTemporaryFile(delete=False) tfile.write(file.read()) audio = whisperx.load_audio(tfile.name) # Run transcription logging.info("Transcribing audio") result = whisperx_model.transcribe(audio, batch_size=16) # Align the outputs for better timings logging.info("Aligning outputs") result = whisperx.align(result["segments"], align_model, metadata, audio, DEVICE, return_char_alignments=False) # Run diarization logging.info("Running diarization") diarize_segments = diarization_model(audio) result = whisperx.assign_word_speakers(diarize_segments, result) # Calculate the time it took to perform the transcription and diarization end_time = time.time() elapsed_time = end_time - start_time logging.info(f"Transcription and Diarization took {int(elapsed_time)} seconds") # Return the results to be stored in S3 return json.dumps(result), response_content_type
モデルのディレクトリ内で、 requirements.txt
ファイル、存在することを確認します inference.py
code サブディレクトリ内。の models
ディレクトリは次のようになります。
モデルの tarball を作成する
モデルとコードディレクトリを作成した後、次のコマンドラインを使用してモデルを tarball (.tar.gz ファイル) に圧縮し、Amazon S3 にアップロードできます。執筆時点では、より高速な Whisper Large V2 モデルを使用しているため、SageMaker モデルを表す tarball のサイズは 3 GB です。詳細については、以下を参照してください。 Amazon SageMaker でのモデルホスティングパターン、パート 2: SageMaker でリアルタイムモデルのデプロイを開始する.
SageMaker モデルを作成し、非同期プレディクターを備えたエンドポイントをデプロイする
これで、SageMaker モデル、エンドポイント構成、および非同期エンドポイントを作成できるようになりました。 非同期予測子 前のステップで作成したモデル tarball を使用します。手順については、を参照してください。 非同期推論エンドポイントを作成する.
ダイアライゼーションのパフォーマンスを評価する
さまざまなシナリオにおける WhisperX モデルの日記化パフォーマンスを評価するために、30 つの英語のタイトルから 45 つのエピソードをそれぞれ選択しました。XNUMX つは XNUMX 分のエピソードで構成されるドラマ タイトル、もう XNUMX つは XNUMX 分のエピソードで構成されるドキュメンタリー タイトルです。 pyannote のメトリクス ツールキットを利用しました。 pyannote.metricsを計算するには、 ダイアライゼーションエラー率 (DER)。評価では、ZOO から提供された手動で転写および日記化されたトランスクリプトがグランド トゥルースとして機能しました。
DER を次のように定義しました。
トータル グラウンドトゥルースビデオの長さです。 FA (False Alarm) は、予測では音声とみなされますが、グラウンド トゥルースでは音声としてみなされないセグメントの長さです。 ミス グラウンド トゥルースでは音声とみなされますが、予測では認識されないセグメントの長さです。 エラーとも呼ばれ、 混乱、予測およびグラウンド トゥルースにおいて異なる話者に割り当てられるセグメントの長さです。すべての単位は秒単位で測定されます。 DER の一般的な値は、特定のアプリケーション、データセット、およびダイアライゼーション システムの品質によって異なります。 DER は 1.0 より大きくなる可能性があることに注意してください。 DERは低いほど良いです。
メディアの DER を計算できるようにするには、WhisperX で転写およびダイアライズされた出力だけでなく、グラウンド トゥルースダイアライズも必要です。これらは解析され、メディア内の各音声セグメントの話者ラベル、音声セグメントの開始時刻、および音声セグメントの終了時刻を含むタプルのリストが生成される必要があります。発言者のラベルは、WhisperX とグラウンド トゥルース ダイアライゼーションの間で一致する必要はありません。結果は主にセグメントの時間に基づいています。 pyannote.metrics は、これらのグラウンド トゥルースダイアライゼーションと出力ダイアライゼーションのタプルを受け取ります (pyannote.metrics ドキュメントでは次のように呼ばれます)。 参照 および 仮説) を使用して DER を計算します。次の表に結果をまとめます。
ビデオタイプ | DER | 正解 | ミス | エラー | 誤報 |
ドラマ | 0.738 | 視聴者の38%が | 視聴者の38%が | 視聴者の38%が | 視聴者の38%が |
ドキュメンタリー | 1.29 | 視聴者の38%が | 視聴者の38%が | 視聴者の38%が | 視聴者の38%が |
平均 | 0.901 | 視聴者の38%が | 視聴者の38%が | 視聴者の38%が | 視聴者の38%が |
これらの結果は、ドラマ タイトルとドキュメンタリー タイトルのパフォーマンスに大きな違いがあることを明らかにしており、このモデルでは、ドキュメンタリー タイトルと比較してドラマ エピソードの方が顕著に優れた結果 (集計指標として DER を使用) を達成しています。タイトルを詳しく分析すると、このパフォーマンスのギャップに寄与する潜在的な要因がわかります。重要な要因の 1 つは、ドキュメンタリーのタイトルの音声と重なるバックグラウンド ミュージックが頻繁に存在することである可能性があります。背景ノイズを除去して音声を分離するなど、ダイアライゼーションの精度を高めるためのメディアの前処理は、このプロトタイプの範囲を超えていましたが、WhisperX のパフォーマンスを向上させる可能性のある将来の作業への道が開かれました。
まとめ
この投稿では、SageMaker と WhisperX モデルによる機械学習技術を採用して日記作成ワークフローを強化する、AWS と ZOO Digital 間の協力パートナーシップについて調査しました。 AWS チームは、特に日記作成用に設計されたカスタム ML モデルのプロトタイピング、評価、効果的な展開を理解する際に、ZOO を支援する上で重要な役割を果たしました。これには、SageMaker を使用したスケーラビリティのための自動スケーリングの組み込みが含まれます。
AI をダイアライゼーションに活用すると、ZOO 用のローカライズされたコンテンツを生成する際のコストと時間の両方が大幅に節約されます。このテクノロジーは、文字起こし者が話者を迅速かつ正確に作成して識別できるようにすることで、従来は時間がかかり、間違いが発生しやすいタスクの性質に対処します。従来のプロセスでは、エラーを最小限に抑えるために、ビデオを複数回通過させたり、追加の品質管理ステップを行ったりすることがよくあります。ダイアライゼーションに AI を採用することで、より的を絞った効率的なアプローチが可能になり、より短期間で生産性が向上します。
SageMaker 非同期エンドポイントに WhisperX モデルをデプロイするための主要な手順を概説しました。提供されたコードを使用して自分で試してみることをお勧めします。 ZOO Digital のサービスとテクノロジーについてさらに詳しく知りたい場合は、次のサイトをご覧ください。 ZOO Digital公式サイト。 SageMaker への OpenAI Whisper モデルのデプロイとさまざまな推論オプションの詳細については、以下を参照してください。 Amazon SageMaker で Whisper モデルをホストする: 推論オプションの探索。コメントでお気軽にあなたの考えを共有してください。
著者について
ホウ・イン博士は、AWS の機械学習プロトタイピング アーキテクトです。彼女の主な関心分野は、GenAI、コンピューター ビジョン、NLP、時系列データ予測を中心とした深層学習です。余暇には、家族と充実した時間を過ごしたり、小説に没頭したり、英国の国立公園でハイキングしたりすることを楽しんでいます。
イーサン・カンバーランド ZOO Digital の AI 研究エンジニアであり、AI と機械学習を支援テクノロジーとして使用して、音声、言語、ローカリゼーションのワークフローを改善することに取り組んでいます。彼はソフトウェア エンジニアリングと、セキュリティとポリシングの領域での研究のバックグラウンドを持ち、Web から構造化情報を抽出し、収集したデータを分析して強化するためのオープンソース ML モデルの活用に重点を置いています。
ガウラフ・カイラ 英国とアイルランドの AWS プロトタイピング チームを率いています。彼のチームは、さまざまな業界の顧客と協力して、AWS サービスの導入を加速するという使命を帯びて、ビジネスに不可欠なワークロードを考案し、共同開発しています。
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- PlatoData.Network 垂直生成 Ai。 自分自身に力を与えましょう。 こちらからアクセスしてください。
- プラトアイストリーム。 Web3 インテリジェンス。 知識増幅。 こちらからアクセスしてください。
- プラトンESG。 カーボン、 クリーンテック、 エネルギー、 環境、 太陽、 廃棄物管理。 こちらからアクセスしてください。
- プラトンヘルス。 バイオテクノロジーと臨床試験のインテリジェンス。 こちらからアクセスしてください。
- 情報源: https://aws.amazon.com/blogs/machine-learning/streamline-diarization-using-ai-as-an-assistive-technology-zoo-digitals-story/
- :持っている
- :は
- :not
- :どこ
- $UP
- 000
- 1
- 10
- 100
- 11
- 140
- 2022
- 220
- 28
- 30
- 350
- 600
- 7
- 8
- a
- できる
- 加速する
- 受諾
- アクセス
- アクセス可能な
- 精度
- 達成する
- 達成する
- 越えて
- 適応する
- NEW
- さらに
- アドレス
- 養子縁組
- 後
- 集計
- 協定
- AI
- 愛の研究
- 目指す
- 目指して
- アラーム
- 整列する
- 整列
- アラインメント
- すべて
- ことができます
- 一人で
- 並んで
- また
- しかし
- Amazon
- アマゾンセージメーカー
- Amazon Webサービス
- an
- 分析する
- 分析
- および
- 別の
- 申し込み
- アプローチ
- 適切な
- 建築
- です
- エリア
- Artists
- AS
- 評価する
- 資産
- 割り当てられた
- アシスト
- 支援する
- At
- オーディオ
- 許可
- オート
- オートメーション
- 通り
- AWS
- 背景
- ベース
- BE
- なぜなら
- き
- さ
- BEST
- より良いです
- の間に
- 越えて
- 最大の
- BIN
- 両言語で
- 内蔵
- ビジネス
- 焙煎が極度に未発達や過発達のコーヒーにて、クロロゲン酸の味わいへの影響は強くなり、金属を思わせる味わいと乾いたマウスフィールを感じさせます。
- by
- 計算する
- 呼ばれます
- 缶
- 場合
- 挑戦する
- 文字
- 選択する
- クローザー
- コード
- 環境、テクノロジーを推奨
- 共同
- 注釈
- 比べ
- 記入済みの
- コンプライアンス
- コンポーネント
- コンポーネント
- 配合
- コンピュータ
- Computer Vision
- 実施
- 設定された
- 構成する
- 検討
- 見なさ
- からなる
- コンテナ
- 含まれています
- コンテンツ
- コンテンツ制作者
- 貢献
- コントロール
- 従来の
- 基本
- 費用
- コスト
- 可能性
- 作ります
- 作成した
- 作成
- クリエイター
- 重大な
- 文化
- カスタム
- Customers
- データ
- 深いです
- 深い学習
- 定義済みの
- 配信する
- 提供します
- 掘り下げる
- 需要
- によっては
- 展開します
- 展開
- 展開する
- 展開
- 設計
- 細部
- 検出された
- 開発者
- デバイス
- ダイアグラム
- DICT
- 違い
- 異なります
- デジタル
- デジタル
- 直接に
- ディレクトリ
- ディレクトリにジョブを開始します。
- 話し合います
- 異なる
- デッカー
- ドキュメンタリー
- ドキュメント
- ドメイン
- ドント
- ダウンロード
- ダウンロード
- ドラマ
- ダビングされた
- 間に
- 各
- 容易
- 効果的な
- 効率的な
- 効率良く
- 要素は
- ほかに
- 埋め込み
- 採用
- 可能
- 含む
- 奨励する
- end
- 端から端まで
- エンドポイント
- 従事して
- 婚約
- エンジニア
- エンジニアリング
- 英語
- 高めます
- 濃縮
- 確保
- 確保する
- 企業レベル
- エンターテインメント
- エピソード
- エラー
- エラー
- 本質的な
- 評価する
- 評価
- 評価します
- 評価
- イベント
- あらゆる
- 例
- 運動
- 実験
- 調査済み
- 探る
- 顔
- 顔
- 要因
- 要因
- false
- 家族
- 速いです
- 特徴
- 感じます
- フェッチ
- File
- 柔軟性
- フォーカス
- 焦点を当て
- 焦点
- フォロー中
- 次
- 強制的な
- 4
- フレームワーク
- 無料版
- 頻繁な
- から
- フル
- function
- 機能的な
- 機能
- さらに
- 未来
- ギャップ
- ゲンナイ
- 生成された
- 生成
- 受け
- GitHubの
- グローバル化
- 目標
- GPU
- 陸上
- 実践的な
- Hardware
- he
- 彼女の
- 高品質
- 彼の
- host
- ホスティング
- HOURS
- 認定条件
- しかしながら
- HTML
- HTTP
- HTTPS
- 抱き合う顔
- 識別
- アイデンティティ
- if
- 説明する
- 画像
- import
- 改善します
- 改善されました
- in
- 含まれました
- 含ま
- 含めて
- 組み込む
- 組み込む
- の増加
- 産業
- 情報
- 開始
- 洞察
- インストール
- 説明書
- 関心
- に
- 紹介します
- 投資
- 呼び出された
- 関与
- アイルランド
- IT
- ITS
- JPG
- JSON
- キー
- 重要な要因
- ラベル
- ラベル
- 言語
- ESL, ビジネスESL <br> 中国語/フランス語、その他
- 大
- より大きい
- つながる
- リード
- 学習
- 長さ
- 活用
- 図書館
- ライン
- リスト
- リスト
- 負荷
- ローディング
- ローカル
- ローカライゼーション
- 局部的に
- 場所
- ログ
- ロギング
- 長い
- 下側
- 機械
- 機械学習
- メンテナンス
- 作る
- 管理
- 委任
- マニュアル
- 手動で
- 一致
- 五月..
- メディア
- メソッド
- メトリック
- メトリック
- 百万
- 最小限に抑えます
- 分
- 軽減する
- ML
- モデル
- モジュラー
- モジュール
- モーメント
- 他には?
- 主に
- 映画
- 動画
- の試合に
- 音楽を聴く際のスピーカーとして
- しなければなりません
- 名
- 名
- 国民
- 自然
- 必要
- 必要
- 必要とされる
- 新作
- NLP
- ノイズ
- 特に
- 注意
- 得
- of
- 提供
- 提供すること
- 公式
- 頻繁に
- on
- ONE
- オープンソース
- OpenAI
- 開きます
- 操作
- オプション
- or
- オリジナル
- OS
- その他
- 私たちの
- でる
- アウトライン
- 概説
- 出力
- outputs
- が
- パッケージ
- 部
- 特に
- パートナーシップ
- 渡された
- パス
- path
- パス
- パターン
- のワークプ
- 実行する
- パフォーマンス
- 実行
- 実行する
- ピース
- パイプライン
- 極めて重要な
- プラトン
- プラトンデータインテリジェンス
- プラトデータ
- プレイ
- 演奏
- ポリシング
- ポスト
- 潜在的な
- :
- 先行
- 正確に
- 予測
- 予測
- プレゼンス
- 現在
- 前
- 主要な
- プロセス
- ラボレーション
- 処理
- プロダクト
- 生産
- 生産性
- 演奏曲目
- プロトタイプ
- プロトタイピング
- 提供します
- 提供
- は、大阪で
- 提供
- Python
- 品質
- R
- レート
- 読む
- リアル
- への
- 推奨する
- 参照する
- 言及
- 地域
- 地域
- 覚えています
- 除去
- replace
- 表します
- 要求
- 必要とする
- の提出が必要です
- 要件
- 研究
- それらの
- 結果
- 結果として
- 結果
- return
- 収益
- 明らかにする
- 職種
- ラン
- ランニング
- ランタイム
- s
- セージメーカー
- サンプル
- Save
- 保存されました
- 貯蓄
- スケーラビリティ
- ド電源のデ
- 規模
- スケーリング
- シナリオ
- スコープ
- スクリプト
- 秒
- セクション
- セキュリティ
- セグメント
- セグメンテーション
- セグメント
- 選択
- 選択
- シリーズ
- サービスを提供
- サービス
- サービング
- 設定
- シェアする
- 彼女
- すべき
- 重要
- 簡単な拡張で
- SIX
- サイズ
- サイズ
- 熟練した
- 小さい
- スムーズ
- So
- ソフトウェア
- ソフトウェア工学
- 溶液
- ソース
- スピーカー
- スピーカー
- 特定の
- 特に
- 指定の
- スピーチ
- 支出
- スパイク
- start
- 開始
- 手順
- ステップ
- ストレージ利用料
- 保存され
- ストーリー
- 流れ
- 流線
- 構造化された
- 続いて
- かなりの
- そのような
- 適当
- 供給
- サポート
- 支援する
- スワップされた
- 素早く
- 同期
- テーブル
- 取る
- 取り
- 対象となります
- 仕事
- チーム
- テクニック
- テクノロジー
- テクノロジー
- 一時的
- 클라우드 기반 AI/ML및 고성능 컴퓨팅을 통한 디지털 트윈의 기초 – Edward Hsu, Rescale CPO 많은 엔지니어링 중심 기업에게 클라우드는 R&D디지털 전환의 첫 단계일 뿐입니다. 클라우드 자원을 활용해 엔지니어링 팀의 제약을 해결하는 단계를 넘어, 시뮬레이션 운영을 통합하고 최적화하며, 궁극적으로는 모델 기반의 협업과 의사 결정을 지원하여 신제품을 결정할 때 데이터 기반 엔지니어링을 적용하고자 합니다. Rescale은 이러한 혁신을 돕기 위해 컴퓨팅 추천 엔진, 통합 데이터 패브릭, 메타데이터 관리 등을 개발하고 있습니다. 이번 자리를 빌려 비즈니스 경쟁력 제고를 위한 디지털 트윈 및 디지털 스레드 전략 개발 방법에 대한 인사이트를 나누고자 합니다.
- より
- それ
- 未来
- 英国
- アプリ環境に合わせて
- それら
- その後
- それによって
- ボーマン
- 彼ら
- この
- それらの
- 三
- 介して
- 時間
- 時系列
- 時間がかかる
- 時間枠
- <font style="vertical-align: inherit;">回数</font>
- タイムスタンプ
- タイミング
- 役職
- タイトル
- 〜へ
- トークン
- 取った
- ツールキット
- トーチ
- 伝統的に
- トラフィック
- トレーニング
- トランスペアレント
- トリガー
- トリガー
- 信頼されている
- 真実
- 試します
- チュートリアル
- tv
- 2
- 典型的な
- Uk
- 下
- 30中
- 理解する
- ユニット
- アップデイト
- に
- つかいます
- 使用事例
- 中古
- ユーザー
- 使用されます
- 利用された
- 利用
- 価値観
- さまざまな
- 変わります
- バージョン
- バージョン
- 実行可能な
- ビデオ
- ビジョン
- 訪問
- ボイス
- W
- ました
- we
- ウェブ
- Webサービス
- WELL
- いつ
- while
- ウィスパー
- 意志
- 以内
- 無し
- 言葉
- 仕事
- ワークフロー
- ワークフロー
- 労働人口
- 作品
- 世界の
- 書き込み
- ヤムル
- You
- あなたの
- あなた自身
- ゼファーネット
- ZOO