オープンソース AI により現代の PC は実用化され、サブスクリプションは粗末に見える

オープンソース AI により現代の PC は実用化され、サブスクリプションは粗末に見える

オープンソース AI は現代の PC を適切なものにし、サブスクリプションは粗末な PlatoBlockchain Data Intelligence のように見えます。垂直検索。あい。

コラム 昨年の今頃、コンピューティングの最新トレンドは無視できなくなりました。それは、数千億個のトランジスタを備えた巨大なシリコンのスラブであり、これはムーアの法則を忘れ去らないようにする別の一連の回避策の避けられない結果でした。

しかし、PC の売上の低迷は、このようなモンスター コンピュータが必要ないことを示唆しています。それは、新型コロナウイルスによる売上の影だけが原因ではありません。

2022 年上半期の企業コンピューティングは、基本的なオフィス アプリ、チーム コミュニケーション アプリ、そしてクリエイティブ クラス向けのいくつかのリッチ メディア ツールなど、過去 XNUMX 年間とほぼ同じように見えました。 確かに、ゲーマーはこれらのトランジスタを機能させる方法を常に見つけますが、ハードウェアの大部分はすでに過剰な能力を備えており、十分に機能していませんでした。 解決済みの問題になぜトランジスタを無駄にするのでしょうか?

それから世界は変わりました。 70 年前、OpenAI は、広く利用可能な最初の生成 AI ツールである DALL-E を発表しました。これは、ノイズ、テキスト プロンプト、および重み付けの膨大なデータベースを画像に変換する「ディフューザー」です。 それはほとんど魔法のようでした。 その後間もなく、『Midjourney』もほぼ同じものを提供しましたが、明らかに XNUMX 年代のプログレ ロックのアルバム ジャケットの美学に合わせて調整されていました。 これらのツールが Microsoft、Canva、Adobe などの製品に導入されると、クラウド コンピューティングの需要が急増するかのように見えました。

その後、世界は再び変わりました。 XNUMX 月、Stability AI はディフューザーの重み付けのオープンソース データベースを導入しました。 Stable Diffusion は当初、最先端の GPU を必要としていましたが、オープンソース コミュニティはすぐに、Stable Diffusion がディフューザーを最適化して、ほぼすべてのもので実行できることに気付きました。 必ずしも高速であるとは限りませんが、機能するでしょう。また、ハードウェアに応じてスケールアップします。

大規模なクラウド リソースを要求する代わりに、 これらの新しい AI ツールはローカルで実行されます。 そして、モンスター コンピューターを購入した場合、それらはサブスクリプションなしで、OpenAI や Midjourney が提供するものと少なくとも同じくらい高速に実行されます。

Stable Diffusion を推進する常に刺激的なオープンソース コミュニティは、それぞれ特定の美学をターゲットにした一連の新しいディフューザー ウェイトを作成しました。 Stable Diffusion は、商用 AI 企業が提供するものよりも速いだけでなく、より便利で拡張性にも優れています。

そして、そう、ご想像のとおり、世界は再び変わりました。 XNUMX 月の初めに、OpenAI の AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 人工知能に対する私たちの期待を完全に書き換え、100 億ユーザーに到達する最速の Web アプリになりました。 「生成事前トレーニング済みトランスフォーマー」を利用した大規模言語モデル (LLM) – これが GPT の略であることを忘れている人はどれだけいるでしょうか? – インターネット上で入手可能な膨大な量のテキストに基づいて重み付けをトレーニングしました。

このトレーニングの取り組みには、Azure クラウド コンピューティング リソースに数百万ドル (おそらく数千万ドル) の費用がかかっていると推定されています。 この参入コストは、おそらく Google と Meta を除いて、競合他社を寄せ付けないようにするのに十分であると予想されていました。

再び世界が変わるまでは。 XNUMX月にはメタ LLaMAをリリース – はるかにコンパクトで効率的な言語モデル。重み付けの比較的小さなデータベースを備えていますが、応答品質は OpenAI の GPT-4 に近づきます。

わずか 32 億個のパラメーターのモデルを使用する LLaMA は、XNUMXGB の RAM を搭載した PC に快適に設置できます。 ChatGPT とよく似たものは、重み付けの巨大なデータベースがあるため Azure クラウド上で実行され、ほぼどこでも実行できます。

Meta の研究者は、その重み付けを研究仲間に無料でダウンロードできるように提供しました。 LLaMA は研究室のコンピューターで実行できるため、スタンフォード大学の研究者は、次の新しいトレーニング手法を通じて LLaMA をすぐに改良しました。 アルパカローラこれにより、既存の重み付けセットのトレーニングにかかる​​コストが数十万ドルから数百ドルまで削減されます。 彼らはコードも共有しました。

DALL-E が使いやすさと拡張性で Stable Diffusion に負けたのと同じように、研究者が Alpaca、 ヴィクーニャ, コアラ、および他の動物園 - 迅速かつ低コストでトレーニングと再トレーニングを行います。

彼らは誰もが予想していたよりもはるかに急速に改善しています。 その理由の XNUMX つは、Reddit などのサイト間で共有されている多くの ChatGPT の「会話」をトレーニングしているためで、ほとんどの PC で適切に実行できます。 モンスターコンピュータをお持ちの場合は、実際に非常にうまく動作します。

ほんの XNUMX 年前には用途を思いつかなかったマシンがその目的を見つけ、私たちのすべての生成 AI タスクの主力になりつつあります。 これらは、コーディング、計画、執筆、描画、モデル化などに役立ちます。

そして、これらの新しいツールを機能させるためにサブスクリプションに依存することもありません。 オープンソースはすでにディフューザーとトランスの両方の商業開発を上回っているようです。

オープンソース AI は、かつてオフィスでしか利用できなかったツールを家庭に持ち帰ることを可能にすることで、PC が普及した理由を私たちに思い出させてくれました。

これで商業への扉が閉ざされるわけではない。 むしろ、起業家にとって、Google、Microsoft、Meta、その他の企業の根底にあるビジネスモデルを侵害するかどうかを心配することなく、新しい製品を生み出す余地が増えることを意味します。 私たちはテクノロジーの破壊が蔓延する時代に向かっていますが、サイズが大きな利点をもたらすとは思えません。

モンスターたちが野放しになっています。 それは良いことだと思います。 ®

タイムスタンプ:

より多くの 登録