Nvidiaは、機械学習ワークロード用のローコードツールキットを含むAI Enterpriseスイートの最新リリースで、今週の機械学習開発の苦痛を取り除くことを目指しています。
このアップデートでは、Red Hat OpenShift、Domino Data LabのMLオペレーションプラットフォーム、およびAzureのNVadsA10v5シリーズ仮想マシンのサポートも拡張されています。
昨年夏に導入されたNvidiaは、AI Enterpriseを、オンプレミスまたはクラウドのどちらにデプロイされているかに関係なく、GPU上でエンタープライズワークロードを開発およびデプロイするためのワンストップショップとして請求しています。
このスイートは、あらゆる規模の企業がAI / MLアプリケーションを構築しやすくするために、Nvidiaによって開発または認定されたツールとフレームワークのコレクションです。 過去XNUMX年間で、チップメーカーは、VMwareのvSphereなど、さまざまな一般的なフレームワークとコンピューティングプラットフォームのサポートを展開してきました。
最新リリース— バージョン2.1 —NvidiaのTAOツールキットの形式でローコードサポートを導入します。
ローコードとは、プロセスでコードをほとんどまたはまったく使用せずに、アプリケーション(この場合は音声およびAIビジョンのワークロード)を手動でコーディングすることに関連する複雑さを抽象化するという考え方です。 たとえば、NvidiaのTOA Toolkitは、REST APIサポート、ウェイトインポート、TensorBoard統合、およびアプリケーションの組み立てプロセスを簡素化するように設計されたいくつかの事前トレーニング済みモデルを備えています。
このリリースには、ローコード機能に加えて、最新バージョンのNvidia RAPIDS(22.04)も含まれています。これは、GPUで実行されるデータサイエンスアプリケーションを対象としたオープンソースソフトウェアライブラリとAPIのスイートです。
2.1リリースでは、チップメーカーがこれらのツールとワークロードをさまざまなソフトウェアやクラウドプラットフォームで使用できるように認定しています。
コンテナー化されたクラウドネイティブフレームワークに移行する場合、このアップデートでは、パブリッククラウドでRedHatの人気のあるOpenShiftKubernetesプラットフォームでNvidiaワークロードを実行するための公式サポートが追加されます。
Red Hatのコンテナランタイムは、認定される最新のアプリケーション環境であり、昨年のVMwareのvSphere統合に続くものです。 Domino Data LabのMLOpsサービスも、今週Nvidiaの祝福を受けました。 同社のプラットフォームは、AI/MLワークロードを仮想化するためにGPUアクセラレーションサーバーを調整するためのツールを提供します。
そして、誰も驚かないはずですが、チームグリーンはMicrosoftAzureの最新世代のNvidiaベースのGPUインスタンスを認定しました。 導入 10月。 インスタンスは、チップメーカーのAXNUMXアクセラレーターを搭載しており、一時的なスライスを使用して最大XNUMXつのフラクショナルGPUに分割できます。
Nvidia AI Enterpriseのアップデートに加えて、同社はLaunchPadサービスにXNUMXつの新しいラボを導入しました。これにより、企業は概念実証とテストの目的でAI/MLソフトウェアとハードウェアに短期的にアクセスできます。
最新のラボには、VMwareのKubernetesプラットフォームであるTanzuを使用したvSphereでの画像分類のためのマルチノードトレーニングが含まれています。 XGBoostモデルとNvidiaの推論サーバーであるTritonを使用した不正検出。 TOAツールキットとチップメーカーのストリーミング分析サービスであるDeepStreamを使用したオブジェクト検出モデリング。 ®