انویدیا به تازگی دست به کشتار هوش مصنوعی زده است - بقیه کجا هستند؟

انویدیا به تازگی دست به کشتار هوش مصنوعی زده است - بقیه کجا هستند؟

انویدیا به تازگی دست به کشتار هوش مصنوعی زده است - بقیه کجا هستند؟ هوش داده PlatoBlockchain. جستجوی عمودی Ai.

اظهار نظر آخرین سه ماهه انویدیا لحظه ای تعیین کننده برای پذیرش هوش مصنوعی بود.

تقاضا برای پردازنده‌های گرافیکی این غول فناوری درآمد آن را به سمت بالا سوق داد ارتفاعات جدیددر حالی که شرکت‌ها، ارائه‌دهندگان ابر و مقیاس‌کننده‌های ابر همگی تلاش کردند تا تحت نظم جدید جهانی هوش مصنوعی مرتبط باقی بمانند. 

اما در حالی که مدیران انویدیا انتظار دارند در چند فصل آینده سودهای چند میلیارد دلاری را از این تقاضا استخراج کنند، سوالی که در ذهن بسیاری وجود دارد این است که آیا انویدیا و شرکای آن واقعاً می توانند به اندازه کافی GPU بسازند تا تقاضا را برآورده کنند و اگر نتوانند چه اتفاقی می افتد.

کولت کرس، مدیر مالی انویدیا، در تماسی با تحلیلگران مالی مطمئن وال استریت که غول پردازنده های گرافیکی در حال همکاری نزدیک با شرکای خود برای کاهش زمان چرخه و افزایش ظرفیت عرضه بود. هنگامی که برای جزئیات بیشتر تحت فشار قرار گرفت، کرس بارها از این سوال طفره رفت و استدلال کرد که تجهیزات Nv شامل تامین کنندگان زیادی است که دشوار است بگوییم چقدر و چه زمانی می توانند ظرفیت را تحمل کنند.

فایننشال تایمز گزارشدر همین حال، انویدیا پیشنهاد کرد که قصد دارد حداقل تولید شتاب‌دهنده H100 خود را در سال 2024 سه برابر کند و از حدود نیم میلیون دستگاه در سال جاری به 1.5 تا 2 میلیون دستگاه برسد. در حالی که این خبر خوبی برای خط پایانی انویدیا است، اما اگر درست باشد، برخی از شرکت‌ها منتظر رسیدن Nvidia نیستند و در عوض به دنبال معماری‌های جایگزین هستند.

تقاضای برآورده نشده فرصت ایجاد می کند

یکی از متقاعد کننده ترین نمونه ها G42 Cloud امارات متحده عربی است که شنود گذاشت Cerebras Systems برای ساخت 36 ابرکامپیوتر هوش مصنوعی قادر به اجرای ترکیبی 16 اگزافلاپس عملکرد پراکنده FP100 با صرف XNUMX میلیون دلار برای هر قطعه است.

مغزها شتاب دهنده ها بسیار متفاوت از GPUهایی هستند که سیستم های HGX و DGX انویدیا را تامین می کنند. شتاب‌دهنده‌های سربرا به‌جای بسته‌بندی چهار یا هشت پردازنده گرافیکی در یک شاسی رک، ورق‌های سیلیکونی به اندازه بشقاب شام هستند که 850,000 هسته و 40 گیگابایت SRAM را در خود جای داده‌اند. سازنده تراشه ادعا می‌کند که تنها ۱۶ عدد از این شتاب‌دهنده‌ها برای دستیابی به ۱ اگزافلاپ عملکرد ناچیز FP16 مورد نیاز است، موفقیتی که طبق برآورد ما به ۵۰۰ دستگاه Nvidia H1 نیاز دارد.

و برای دیگرانی که مایل به بیرون رفتن از باغ دیواری انویدیا هستند، هیچ کمبودی برای جایگزین وجود ندارد. آخرین باری که شنیدیم، آمازون است با استفاده از شتاب‌دهنده‌های آموزشی هوش مصنوعی Gaudi اینتل برای تکمیل تراشه‌های سفارشی Trainium خود - اگرچه مشخص نیست در چه حجمی.

در مقایسه با A100 انویدیا، پردازنده های Gaudi2 اینتل که راه اندازی در ماه مه گذشته، ادعا کردند که عملکرد تقریباً دو برابر، حداقل در مدل طبقه‌بندی تصویر ResNet-50 و مدل‌های پردازش زبان طبیعی BERT ارائه می‌کنند. و برای کسانی که در چین هستند، اینتل اخیرا معرفی یک نسخه کوچک از تراشه برای فروش در منطقه. انتظار می رود اینتل نسخه ای حتی قدرتمندتر از این پردازنده را با نام Gaudi3 عرضه کند تا در سال آینده با نسل فعلی H100 انویدیا رقابت کند.

البته بعد از آن، AMD وجود دارد که با برخورداری از یک رشته پیروزی های برجسته اخیر در فضای ابررایانه، توجه خود را به بازار هوش مصنوعی معطوف کرده است.

در رویداد Datacenter و AI در ماه ژوئن، AMD دقیق Instinct MI300X آن، که قرار است تا پایان سال عرضه شود. این شتاب دهنده 192 گیگابایت حافظه HBM3 سرعتی و هشت پردازنده گرافیکی CDNA 3 را در یک بسته بسته بندی می کند.

سایت خواهر ما پلت فرم بعدی تخمین می زند این تراشه تقریباً 3 پتافلاپ عملکرد FP8 را ارائه می دهد. در حالی که 75 درصد از H100 انویدیا از نظر عملکرد، MI300X ظرفیت حافظه 2.4 برابر بالاتری را ارائه می دهد، که می تواند به مشتریان اجازه دهد تا با استفاده از پردازنده های گرافیکی کمتری برای آموزش مدل های خود کنار بیایند.

چشم انداز یک GPU که نه تنها می تواند عملکرد قانع کننده ای ارائه دهد، بلکه شما می توانید در واقع خرید، به وضوح برخی از علاقه را برانگیخته است. لیزا سو، مدیر عامل شرکت AMD در جریان تماس درآمد سه ماهه دوم این ماه افتخار کرد که تعهدات هوش مصنوعی شرکت در طول سه ماهه هفت برابر شده است. او گفت: "تنها در مرکز داده، ما انتظار داریم که بازار شتاب دهنده های هوش مصنوعی تا سال 150 به بیش از 2027 میلیارد دلار برسد."

موانع فرزندخواندگی

بنابراین، اگر انویدیا در حال حاضر فکر می‌کند که تنها یک سوم تقاضا برای سیلیکون متمرکز بر هوش مصنوعی خود را برطرف می‌کند، چرا رقبای آن برای پر کردن شکاف و پول نقد این هیاهو تلاش نمی‌کنند؟

واضح ترین مسئله مربوط به زمان بندی است. نه AMD و نه اینتل شتاب‌دهنده‌ای نخواهند داشت که بتواند H100 انویدیا را حداقل از نظر عملکرد، ماه‌ها آماده به چالش بکشد. با این حال، حتی پس از آن، مشتریان همچنان باید با نرم افزارهای کمتر بالغ مبارزه کنند.

سپس این واقعیت وجود دارد که رقبای انویدیا برای همان منابع و ظرفیت تولیدی که Nv می‌خواهد تامین کند یا قبلا تضمین کرده است، مبارزه خواهند کرد. مثلا AMD بر اساس TSMC درست مانند انویدیا برای ساخت تراشه. اگرچه تقاضای نیمه هادی در رکود است از آنجایی که اخیراً افراد کمتری علاقه مند به خرید رایانه های شخصی، تلفن ها و موارد مشابه هستند، تقاضای قابل توجهی برای شتاب دهنده های سرور برای آموزش مدل ها و تقویت برنامه های یادگیری ماشین وجود دارد.

اما برگردیم به کد: اکوسیستم سخت افزاری و نرم افزاری نزدیک انویدیا سال هاست که وجود دارد. در نتیجه، کدهای زیادی وجود دارد، از جمله بسیاری از محبوب‌ترین مدل‌های هوش مصنوعی، که برای چارچوب CUDA حاکم بر صنعت Nv بهینه‌سازی شده‌اند.

این بدان معنا نیست که خانه های تراشه رقیب سعی در تغییر این پویایی ندارند. OneAPI اینتل شامل ابزارهایی برای کمک به کاربران است تبدیل کد نوشته شده برای CUDA انویدیا به SYCL، که سپس می تواند بر روی مجموعه پلتفرم های هوش مصنوعی اینتل اجرا شود. تلاش‌های مشابهی برای تبدیل بارهای کاری CUDA برای اجرا روی خانواده پردازنده گرافیکی Instinct AMD با استفاده از HIP API انجام شده است.

بسیاری از همین تراشه‌سازان از شرکت‌هایی مانند Hugging Face که ابزارهایی برای ساخت برنامه‌های ML توسعه می‌دهند، کمک می‌گیرند تا مانع اجرای مدل‌های محبوب روی سخت‌افزار خود را کاهش دهند. این سرمایه گذاری ها اخیراً ارزش Hugging را به بیش از 4 میلیارد دلار رساند.

سایر تراشه‌ها، مانند Cerebras، با توسعه مدل‌های AI سفارشی برای سخت‌افزار خود، به دنبال کنار گذاشتن این مشکل خاص هستند، که مشتریان می‌توانند به جای شروع از ابتدا از آن استفاده کنند. در ماه مارس، سربراس اعلام کرد Cerebras-GPT، مجموعه ای از هفت LLM با اندازه 111 میلیون تا 13 میلیارد پارامتر.

برای مشتریان فنی بیشتر با منابعی که باید به توسعه، بهینه سازی یا انتقال کدهای قدیمی به معماری های جدیدتر و کمتر بالغ اختصاص دهند، انتخاب یک پلتفرم سخت افزاری جایگزین ممکن است ارزش صرفه جویی در هزینه های بالقوه یا کاهش زمان ارائه را داشته باشد. هر دو گوگل و آمازون قبلاً این مسیر را با شتاب دهنده های TPU و Trainium خود طی کرده اند.

با این حال، برای کسانی که فاقد این منابع هستند، پذیرفتن زیرساخت بدون پشته نرم افزاری اثبات شده - مهم نیست که چقدر کارآمد باشد - می تواند به عنوان یک تعهد تلقی شود. در این صورت، Nvidia احتمالاً شرط مطمئن باقی خواهد ماند. ®

تمبر زمان:

بیشتر از ثبت نام