برای فروشگاه‌های معمولی هوش مصنوعی، مدل‌های کمیاب و حافظه ارزان‌قیمت برنده هوش داده PlatoBlockchain خواهند بود. جستجوی عمودی Ai.

برای فروشگاه‌های هوش مصنوعی متوسط، مدل‌های کمیاب و حافظه ارزان قیمت برنده خواهند شد

اگرچه مدل‌های زبانی در مقیاس بزرگ ممکن است قانع‌کننده باشند، اما این واقعیت باقی می‌ماند که تنها بزرگترین شرکت‌ها منابع لازم برای استقرار و آموزش آنها را در مقیاس معنادار دارند.

برای شرکت‌هایی که مشتاق استفاده از هوش مصنوعی به یک مزیت رقابتی هستند، یک جایگزین ارزان‌تر و کاهش‌یافته ممکن است مناسب‌تر باشد، به خصوص اگر بتوان آن را در صنایع یا حوزه‌های خاصی تنظیم کرد.

اینجاست که مجموعه‌ای از استارت‌آپ‌های نوظهور هوش مصنوعی که امیدوارند جایگاه خود را ایجاد کنند: با ساختن مدل‌های کمیاب و متناسب که شاید به اندازه قدرتمندی نباشند. GPT-3، برای موارد استفاده سازمانی به اندازه کافی خوب هستند و روی سخت افزاری اجرا می شوند که حافظه پهنای باند گران قیمت (HBM) را برای DDR کالا حذف می کند.

استارتاپ آلمانی هوش مصنوعی Aleph Alpha یکی از این نمونه هاست. در سال 2019، شرکت هایدلبرگ، مستقر در آلمان، تاسیس شد درخشان مدل زبان طبیعی دارای بسیاری از ویژگی‌های جذاب عنوان GPT-3 OpenAI است: کپی‌نویسی، طبقه‌بندی، خلاصه‌نویسی و ترجمه، برای نام بردن از چند مورد.

این استارت‌آپ مدل با Graphcore همکاری کرده است تا مدل‌های زبان پراکنده در بریتانیا را بررسی و توسعه دهد سخت افزار تراشه ساز.

جوناس آندرولیوس، مدیر عامل Aleph Alpha گفت: «IPUهای Graphcore فرصتی برای ارزیابی رویکردهای تکنولوژیکی پیشرفته مانند پراکندگی مشروط هستند. بیانیه. این معماری ها بدون شک نقشی در تحقیقات آینده الف آلفا خواهند داشت.

شرط بزرگ Graphcore بر روی پراکندگی

مدل‌های مشروط پراکنده - که گاهی اوقات مخلوطی از متخصصان یا مدل‌های مسیریابی نامیده می‌شوند - فقط داده‌ها را بر اساس پارامترهای قابل‌اجرا پردازش می‌کنند، چیزی که می‌تواند منابع محاسباتی مورد نیاز برای اجرای آنها را به میزان قابل توجهی کاهش دهد.

به عنوان مثال، اگر یک مدل زبان به تمام زبان‌های موجود در اینترنت آموزش داده شده باشد، و سپس یک سوال به زبان روسی پرسیده شود، منطقی نیست که آن داده‌ها را در کل مدل اجرا کنیم، فقط پارامترهای مربوط به زبان روسی، Simon Knowles مدیر ارشد فناوری Graphcore در مصاحبه ای با ثبت نام.

«کاملاً واضح است. مغز شما اینگونه کار می کند و همچنین یک هوش مصنوعی نیز باید کار کند.» این را بارها گفته‌ام، اما اگر یک هوش مصنوعی می‌تواند بسیاری از کارها را انجام دهد، برای انجام یک کار نیازی به دسترسی به تمام دانش خود ندارد.

ناولز که شرکت شتاب‌دهنده‌های متناسب با این نوع مدل‌ها را می‌سازد، بدون تعجب معتقد است که آنها آینده هوش مصنوعی هستند. او افزود: "من تعجب می کنم اگر تا سال آینده، کسی مدل هایی با زبان متراکم بسازد."

HBM-2 گران است؟ به جای آن در DDR ذخیره کنید

مدل های زبان پراکنده بدون چالش نیستند. به گفته نولز، یکی از مهم‌ترین موارد مربوط به حافظه است. HBM مورد استفاده در پردازنده‌های گرافیکی پیشرفته برای دستیابی به پهنای باند و ظرفیت‌های لازم مورد نیاز این مدل‌ها، گران است و به شتاب‌دهنده‌های گران‌تری متصل است.

او توضیح داد که این موضوع برای مدل‌های با زبان متراکم که ممکن است به همه آن محاسبات و حافظه نیاز داشته باشید، نیست، اما برای مدل‌های پراکنده که حافظه را بر محاسبات ترجیح می‌دهند، مشکل ایجاد می‌کند.

فناوری Interconnect، مانند NVLink انویدیا، می‌تواند برای تجمیع حافظه در چندین GPU مورد استفاده قرار گیرد، اما اگر مدل به همه این محاسبات نیاز نداشته باشد، GPUها می‌توانند بیکار بمانند. نولز گفت: «این یک راه واقعاً گران برای خرید حافظه است.

شتاب‌دهنده‌های Graphcore تلاش می‌کنند تا با قرض گرفتن تکنیکی به قدمت خود محاسبات: کش کردن، از این چالش دوری کنند. هر IPU دارای یک حافظه نهان SRAM نسبتاً بزرگ - 1 گیگابایت - برای برآورده کردن پهنای باند مورد نیاز این مدل‌ها است، در حالی که ظرفیت خام با استفاده از استخرهای بزرگ حافظه ارزان قیمت DDR4 به دست می‌آید.

ناولز گفت: «هرچه SRAM بیشتری داشته باشید، به پهنای باند DRAM کمتری نیاز دارید، و این چیزی است که به ما امکان می دهد از HBM استفاده نکنیم.

با جدا کردن حافظه از شتاب‌دهنده، پشتیبانی از مدل‌های هوش مصنوعی بزرگ‌تر برای شرکت‌ها بسیار کم‌هزینه - هزینه چند ماژول DDR کالایی - است.

علاوه بر پشتیبانی از حافظه ارزان‌تر، ناولز ادعا می‌کند که IPUهای این شرکت نسبت به پردازنده‌های گرافیکی مزیت معماری نیز دارند، حداقل در مورد مدل‌های کمیاب.

تراشه‌های Graphcore به‌جای اجرا بر روی تعداد کمی از ضرب‌کننده‌های ماتریس بزرگ - مانند آنچه در واحد پردازش تانسور می‌بینید، تعداد زیادی واحد ریاضی ماتریس کوچک‌تر را ارائه می‌کنند که می‌توانند به طور مستقل حافظه را آدرس‌دهی کنند.

او توضیح داد که این ویژگی دانه بندی بیشتری را برای مدل های پراکنده فراهم می کند، جایی که "شما به آزادی برای واکشی زیرمجموعه های مربوطه نیاز دارید، و هر چه واحدی که مجبور به واکشی آن هستید کوچکتر باشد، آزادی بیشتری دارید."

حکم هنوز صادر نشده است

در مجموع، Knowles استدلال می‌کند که این رویکرد IPU‌هایش را قادر می‌سازد تا مدل‌های بزرگ AI/ML را با صدها میلیارد یا حتی تریلیون‌ها پارامتر، با هزینه‌ای بسیار کمتر در مقایسه با GPU‌ها آموزش دهند.

با این حال، بازار هوش مصنوعی سازمانی هنوز در مراحل ابتدایی خود است و Graphcore با رقابت سختی در این فضا با رقبای بزرگتر و معتبرتر مواجه است.

بنابراین، در حالی که توسعه مدل‌های زبانی بسیار پراکنده و با نرخ کاهش برای هوش مصنوعی بعید است به این زودی کاهش یابد، باید دید که آیا IPUهای Graphcore یا شتاب‌دهنده شخص دیگری در نهایت حجم کاری هوش مصنوعی سازمانی را تامین می‌کند. ®

تمبر زمان:

بیشتر از ثبت نام