一元化された PlatoBlockchain データ インテリジェンスで AI に火を与えます。垂直検索。あい。

中央集権化で AI に火をつけます

スポンサー機能 火、農業、車輪、印刷機、インターネットなど、革命的な技術と発見の絶え間ない流れは、人間の発展と文明を大きく形作ってきました。 そして、そのイノベーションのサイクルは、人工知能 (AI) で続いています。 

調査会社の IDC は、AI が本当に「すべて」に対する答えであると結論付けています。 IDC のデータおよび分析担当アソシエイト バイス プレジデントである Rasmus Andsbjerg は次のように述べています。 AI は、デジタル トランスフォーメーションの旅を迅速に進めるためのソースとなり、驚異的なインフレ率の時代にコスト削減を可能にし、労働力不足の時代に自動化の取り組みをサポートすることができます。」

確かに、すべての業界と機能にわたって、エンド ユーザー組織は AI の利点を発見し始めています。これは、ますます強力なアルゴリズムと基盤となるインフラストラクチャが出現し、意思決定の改善と生産性の向上を可能にするためです。 

関連するソフトウェア、ハードウェア、AI 中心および AI 非中心アプリケーションの両方のサービスを含む、人工知能 (AI) 市場の世界全体の収益は、383.3 年に 2021 億ドルに達しました。最近 インターナショナル データ コーポレーション (IDC) の世界的な半年ごとの人工知能トラッカー.

同様に、AI ソフトウェアのクラウドへの展開も着実に増加しています。 IDC は、新たに購入した AI ソフトウェアのクラウド バージョンが 2022 年にオンプレミス展開を上回ると予想しています。

空はAIの限界です

AI の計算管理プラットフォームを作成した AI スペシャリスト Run:ai の最高技術責任者である Ronen Dar 博士は、初期のエンタープライズ AI セクターの限界は無限にあると考えています。 

「AI は非常に急速に成長している市場です。 企業に関しては、機械学習と AI の需要と採用が見られます。 そして今、世界を変える新しい機能をもたらす新しいテクノロジーがここにあると思います。 ビジネスに革命を起こすでしょう」と Dar は言います。 

また、AI の探索と実験を開始し、AI をビジネス モデルに統合する方法を理解する必要性についての理解がますます明確になっています。

Dar は、AI が既存のエンタープライズ ビジネス プロセスを改善するための「驚くべき利益」をもたらすことができると信じています。需要と供給について。」

彼は、ニューラル ネットワークに基づく新しいディープ ラーニング モデルは、プロセス、意思決定、および金融サービス業界における不正検出などの重要なビジネス プロセスの精度を向上させることができると指摘しています。 ヘルスケアは、AI の可能性が「巨大」であるもう XNUMX つの分野です。特に、医師がより良い臨床上の意思決定を行うのを支援し、新薬の発見と開発を支援するという点で重要です。 

そして、さらに先を見据えて、Dar は、AI テクノロジが、自動運転車や没入型ゲームなどの分野には現在存在しないまったく新しい商業的機会を提供するのに役立つと予測しています。 

克服すべきインフラストラクチャのハードル

企業における AI と機械学習の明らかな可能性にもかかわらず、Dar は、AI の商用展開がインフラストラクチャの提供に関する問題によって妨げられていることを認めています。 彼は、企業はそもそも AI が組織に侵入する方法を検討する必要があるとアドバイスしています。

通常、これには部門ごとの調整されていないプロセスが含まれ、さまざまなチームがテクノロジーとリソースを個別にプロビジョニングし、サイロ化された展開につながります。 IT 部門は、これらのアドホック プロジェクトを効果的に制御できず、何が起こっているのかを把握できません。 これにより、AI インフラストラクチャの支出に対する ROI を計算することは、不可能ではないにしても困難になります。 

「これは古典的な問題です。昔​​はシャドー IT でしたが、現在はシャドー AI です」と Dar 氏は言います。 

さらに、企業は非常に複雑なデータを処理し、モデルをトレーニングするために強力な GPU アクセラレーション コンピューティング ハードウェアを必要とするため、AI/ML に必要な最先端のインフラストラクチャは投資です。 

「AI チームは、モデルをトレーニングするために多くのコンピューティング パワーを必要とします。通常、GPU はサイロ化され、効率的に使用できないプレミアム データ センター リソースです」と Dar 氏は言います。 「確かに、多くのお金が無駄になる可能性があります。」 

そのサイロ化されたインフラストラクチャは、たとえば、使用率レベルが 10% 未満になる可能性があります。

Run:aiの世論調査によると、 2021 年の AI インフラストラクチャの現状に関する調査、2021 年 87 月に公開された、回答者の 12% が、何らかのレベルの GPU/コンピューティング リソース割り当ての問題を経験していると述べ、83% がこれが頻繁に発生すると述べています。 その結果、調査対象企業の 61% が、GPU と AI ハードウェアを十分に活用していないと報告しました。 実際、ほぼ XNUMX 分の XNUMX (XNUMX%) が、GPU と AI ハードウェアの使用率が「中程度」のレベルにあると回答しています。

AIの集中化

これらの問題を解決するために、Dar 氏は AI リソースの提供を一元化することを提唱しています。 Run:AI は、GPU コンピューティング リソースを一元化および仮想化して、まさにこれを行う AI 用のコンピューティング管理プラットフォームを開発しました。 GPU を単一の仮想レイヤーにプールし、ワークロード スケジューリングを自動化して 100% の使用率にすることにより、このアプローチは、部門レベルのサイロ化されたシステムと比較して利点を提供します。 

インフラストラクチャを一元化することで、データ サイエンティストをインフラストラクチャ管理のオーバーヘッドから解放しながら、制御と可視性を取り戻すことができます。 AI チームは、需要の増減に応じて動的にダイヤルアップおよびダイヤルダウンできるユニバーサル AI コンピューティング リソースを共有し、需要のボトルネックや使用率の低い期間を排除します。 

このアプローチは、組織がハードウェアを最大限に活用し、データ サイエンティストを根底にあるリソース制限の制約から解放するのに役立つと Dar は主張します。 これらはすべて、より多くのジョブを実行し、より多くの AI モデルを本番環境に導入できることを意味します。 

キングス カレッジ ロンドンが主導し、セント トーマス病院に本拠を置く、価値に基づくヘルスケアのためのロンドン メディカル イメージング & 人工知能センターからの例が提供されています。 医用画像と電子ヘルスケア データを使用して、コンピューター ビジョンと自然言語処理のための高度なディープ ラーニング アルゴリズムをトレーニングします。 これらのアルゴリズムは、効果的なスクリーニング、迅速な診断、個別化された治療のための新しいツールを作成するために使用されます。

センターは、レガシー AI インフラストラクチャが効率の問題に苦しんでいることに気付きました。GPU の合計使用率は 30% を下回り、一部のコンポーネントでは「かなりの」アイドル期間がありました。 Run:ai のプラットフォームに基づく集中型 AI コンピューティング プロビジョニング モデルを採用することでこれらの問題に対処した後、GPU 使用率は 110% 上昇し、実験速度と全体的な研究効率が並行して改善されました。

キングス カレッジ ロンドンの准教授で AI の上級講師であり、AI センターの CTO である M. Jorge Cardoso 博士は、次のように述べています。 「結果が出るまでの時間を短縮することで、人々の健康と生活に関するより重要な質問に答えることを確実にします。」 

AI GPU リソースを一元化することは、自動運転車用の AI ソフトウェアを開発するロンドンを拠点とする企業である Wayve に貴重な商業的利益をもたらしました。 そのテクノロジーは、センシングに依存しないように設計されていますが、代わりに、密集した都市部でのより優れた自動運転のために、より優れたインテリジェンスに焦点を当てています。

Wayve のフリート学習ループには、データ収集、キュレーション、モデルのトレーニング、再シミュレーション、およびフリートへの展開前のライセンス モデルの継続的なサイクルが含まれます。 同社の主な GPU コンピューティングの消費は、フリート ラーニング ループの生産トレーニングによるものです。 完全なデータセットを使用して製品ベースラインをトレーニングし、フリート学習ループの反復を通じて新しいデータを収集するために継続的に再トレーニングします。

同社は、GPU スケジューリングの「恐怖」に悩まされていることに気付き始めました。使用可能な GPU リソースのほぼ 100% が研究者に割り当てられていたにもかかわらず、テストが最初に行われたときに使用されたのは 45% 未満でした。 

「GPU は研究者に静的に割り当てられていたため、研究者が割り当てられた GPU を使用していないとき、他の人はそれらにアクセスできず、多くの GPU がアイドル状態であったとしても、モデル トレーニング用の GPU が容量に達しているという錯覚を引き起こしました」と Wayve は述べています。 

Run:ai を使用することで、サイロを取り除き、リソースの静的な割り当てをなくすことで、この問題に取り組みました。 共有 GPU のプールが作成され、チームはより多くの GPU にアクセスし、より多くのワークロードを実行できるようになり、使用率が 35% 向上しました。 

ミラー CPU 効率の改善

ここ数年、VMware がサーバー CPU を最大容量まで使用する方法に大幅な効率改善をもたらした方法を反映して、AI コンピューティング ワークロードの GPU 使用効率を最適化するための新しいイノベーションが現在進行中です。 

「CPU 上で実行されるソフトウェア スタックについて考えると、それは多くの VMware と仮想化で構築されています」と Dar は説明します。 「GPU はデータセンターでは比較的新しいものであり、AI と仮想化のためのソフトウェアです。 NVIDIA AI Enterprise –これも最近の開発です。」 

「フラクショナル GPU、ジョブ スワッピングなどの機能を備えた高度なテクノロジをこの分野にもたらします。 ワークロードが GPU を効率的に共有できるようになります」と Dar 氏は述べ、さらなる機能強化が計画されていると付け加えました。

Run:ai は NVIDIA と緊密に連携して、企業での GPU の使用を改善および簡素化します。 最新のコラボレーションには、クラウドで GPU を使用する企業向けのマルチクラウド GPU の柔軟性の有効化と、 NVIDIATriton推論サーバー モデルを本番環境にデプロイするプロセスを簡素化するソフトウェア。

歴史の中で主要なイノベーションが人類と世界に大きな影響を与えてきたように、Dar 氏は、AI の力を慎重に利用して潜在的な利益を最大化し、潜在的な不利な点を管理する必要があると述べています。 彼は、AI を最も原始的なイノベーションである火と比較しています。 

「それは、多くの素晴らしいものをもたらし、人々の生活を変えた火のようなものです。 火事も危険をもたらしました。 つまり、人間は火と共に生きる方法を理解していたのです」とダールは言います。 「これは最近のAIにもあると思います。」 

Run:ai主催。

タイムスタンプ:

より多くの 登録