این ابرکامپیوتر هوش مصنوعی دارای 13.5 میلیون هسته است و تنها در سه روز فناوری اطلاعات پلاتوبلاکچین ساخته شده است. جستجوی عمودی Ai.

این ابررایانه هوش مصنوعی 13.5 میلیون هسته دارد و تنها در سه روز ساخته شده است.

هوش مصنوعی در حال پارگی است. ماشین ها می توانند صحبت کنند، بنویسند، بازی کنند و تصاویر، ویدیو و موسیقی اصلی تولید کنند. اما با افزایش قابلیت‌های هوش مصنوعی، الگوریتم‌های آن نیز رشد کرده‌اند.

یک دهه پیش، الگوریتم های یادگیری ماشینی به ده ها میلیون اتصال داخلی متکی بود، یا پارامترها الگوریتم های امروزی به طور منظم به صدها میلیارد و حتی تریلیون ها پارامتر. محققان می‌گویند که افزایش مقیاس همچنان باعث افزایش عملکرد می‌شود و مدل‌هایی با ده‌ها تریلیون پارامتر ممکن است در کوتاه‌مدت وارد بازار شوند.

برای آموزش مدل هایی به این بزرگی، به کامپیوترهای قدرتمندی نیاز دارید. در حالی که هوش مصنوعی در اوایل دهه 2010 بر روی تعداد معدودی از واحدهای پردازش گرافیکی اجرا می‌شد - تراشه‌های رایانه‌ای که در پردازش موازی بسیار مهم برای هوش مصنوعی عالی هستند - نیازهای محاسباتی به صورت تصاعدی رشد کرده اند، و مدل های برتر اکنون به صدها یا هزاران مورد نیاز دارند. OpenAI، مایکروسافت, متاو دیگران در حال ساخت ابررایانه های اختصاصی برای انجام این کار هستند و آنها می گویند که این ماشین های هوش مصنوعی در بین سریع ترین ها در این سیاره قرار دارند.

اما حتی با وجود اینکه پردازنده‌های گرافیکی برای مقیاس‌بندی هوش مصنوعی بسیار مهم بوده‌اند – برای مثال A100 انویدیا هنوز یکی از سریع‌ترین و رایج‌ترین تراشه‌های مورد استفاده در خوشه‌های هوش مصنوعی است – جایگزین‌های عجیب‌تری که به‌طور خاص برای هوش مصنوعی طراحی شده‌اند در سال‌های اخیر ظاهر شده‌اند.

Cerebras یکی از این جایگزین ها را ارائه می دهد.

درست کردن یک وعده غذایی با هوش مصنوعی

اندازه یک بشقاب شام - حدود 8.5 اینچ در یک طرف - موتور مقیاس ویفر این شرکت است. بزرگترین تراشه سیلیکونی در جهانبا 2.6 تریلیون ترانزیستور و 850,000 هسته حک شده بر روی یک ویفر سیلیکونی. هر موتور مقیاس ویفر به عنوان قلب کامپیوتر CS-2 این شرکت عمل می کند.

CS-2 به تنهایی یک جانور است، اما پارسال سربراس از طرحی رونمایی کرد برای اتصال CS-2 به یک سیستم حافظه خارجی به نام MemoryX و یک سیستم برای اتصال CS-2 به نام SwarmX. این شرکت گفت که فناوری جدید می‌تواند تا 192 تراشه را به هم متصل کند و مدل‌های قطار را دو مرتبه بزرگ‌تر از بزرگترین و پیشرفته‌ترین هوش مصنوعی‌های امروزی به هم متصل کند.

اندرو فلدمن، مدیرعامل و بنیانگذار سربراس گفت: «صنعت در حال عبور از مدل‌های 1 تریلیون پارامتری است و ما در حال گسترش این مرز با دو مرتبه بزرگی هستیم و شبکه‌های عصبی در مقیاس مغز را با 120 تریلیون پارامتر فعال می‌کنیم.»

در آن زمان همه اینها تئوری بود. اما هفته گذشته، شرکت اعلام کرد آنها 16 CS-2 را به یک ابررایانه هوش مصنوعی در کلاس جهانی متصل کردند.

با آندرومدا آشنا شوید

دستگاه جدید که آندرومدا نام دارد، دارای 13.5 میلیون هسته است که قادر به سرعت بالای یک اگزافلاپ (یک کوینتیلیون عملیات در ثانیه) با دقت 16 بیتی است. با توجه به تراشه منحصربفرد موجود در هسته آن، آندرومدا به راحتی با ابررایانه هایی که بر روی CPU ها و GPU های سنتی تر کار می کنند مقایسه نمی شود، اما فلدمن گفت سیم HPC آندرومدا تقریباً معادل ابررایانه Polaris آزمایشگاه ملی آرگون است که رتبه هفدهمین سریعترین جهانطبق آخرین لیست Top500.

علاوه بر عملکرد، زمان ساخت سریع، هزینه و ردپای آندرومدا قابل توجه است. آرگون شروع به نصب Polaris کرد در تابستان 2021 و ابرکامپیوتر حدود یک سال بعد زنده شد. 40 قفسه را اشغال می کند، محفظه های بایگانی مانند اجزای ابر رایانه را در خود جای داده است. در مقام مقایسه، آندرومدا 35 میلیون دلار هزینه داشت - قیمت متوسطی برای دستگاهی با قدرت آن - قیمت پایینی داشت فقط سه روز مونتاژ، و از 16 قفسه استفاده می کند.

Cerebras سیستم را با آموزش پنج نسخه از مدل زبان بزرگ OpenAI GPT-3 و همچنین GPT-J و GPT-NeoX منبع باز Eleuther AI آزمایش کرد. و به گفته سربراس، شاید مهم‌ترین یافته این باشد که آندرومدا آنچه را که آن‌ها «مقیاس‌گذاری خطی تقریباً کامل» بارهای کاری هوش مصنوعی را برای مدل‌های زبان بزرگ می‌نامند، نشان داد. به طور خلاصه، این بدان معناست که با اضافه شدن CS-2 های اضافی، زمان تمرین به طور متناسب کاهش می یابد.

به طور معمول، شرکت گفت، با اضافه کردن تراشه های بیشتر، افزایش عملکرد کاهش می یابد. از سوی دیگر، تراشه WSE Cerebras ممکن است کارآمدتر شود زیرا 850,000 هسته آن بر روی یک قطعه سیلیکون به یکدیگر متصل شده اند. علاوه بر این، هر هسته یک ماژول حافظه درست در کنار خانه دارد. در مجموع، تراشه زمان صرف شده برای جابجایی داده ها بین هسته ها و حافظه را کاهش می دهد.

«مقیاس‌گذاری خطی به این معناست که وقتی از یک سیستم به دو سیستم می‌روید، نیمی از زمان طول می‌کشد تا کار شما تکمیل شود. فلدمن گفت که این یک ویژگی بسیار غیرعادی در محاسبات است سیم HPC. و او گفت که می تواند فراتر از 16 سیستم متصل شود.

فراتر از آزمایش خود Cerebras، نتایج مقیاس‌گذاری خطی نیز در حین کار در آزمایشگاه ملی Argonne نشان داده شد، جایی که محققان از Andromeda برای آموزش الگوریتم زبان بزرگ GPT-3-XL بر روی توالی‌های طولانی ژنوم Covid-19 استفاده کردند.

البته، اگرچه مقیاس سیستم ممکن است فراتر از 16 CS-2 باشد، هنوز مشخص نیست که مقیاس بندی خطی تا چه حد ادامه دارد. همچنین، ما هنوز نمی دانیم که Cerebras چگونه در برابر سایر تراشه های هوش مصنوعی عمل می کند. سازندگان تراشه های هوش مصنوعی مانند انویدیا و اینتل شروع به کار کرده اند شرکت در معیارهای عادی شخص ثالث توسط افرادی مانند MLperf. Cerebras هنوز شرکت نکرده است.

فضا به یدکی

با این حال، به نظر می‌رسد که این رویکرد جایگاه خاص خود را در دنیای ابررایانه‌ها ایجاد می‌کند، و مقیاس‌پذیری مداوم در هوش مصنوعی زبان بزرگ یک مورد استفاده اصلی است. در واقع، فلدمن گفته شده سیم پارسال این شرکت قبلاً با مهندسان OpenAI که پیشرو در مدل‌های زبان بزرگ است صحبت می‌کرد. (موسس OpenAI، سام آلتمن، همچنین یک سرمایه گذار در Cerebras است.)

در سال 2020، مدل زبان بزرگ OpenAI GPT-3، بازی را هم از نظر عملکرد و هم از نظر اندازه تغییر داد. این مدل با وزن 175 میلیارد پارامتر، بزرگترین مدل هوش مصنوعی در آن زمان بود و محققان را با توانایی های خود شگفت زده کرد. از آن زمان، مدل‌های زبان به تریلیون‌ها پارامتر رسیده‌اند و ممکن است مدل‌های بزرگ‌تری در راه باشند. شایعات وجود دارد- فقط تا اینجا - که OpenAI GPT-4 را در آینده ای نه چندان دور منتشر خواهد کرد و این یک جهش دیگر از GPT-3 خواهد بود. (باید منتظر بمانیم و در این مورد ببینیم.)

گفته می‌شود، علیرغم قابلیت‌هایشان، مدل‌های زبان بزرگ نه کامل هستند و نه در سطح جهانی مورد تحسین قرار می‌گیرند. معایب آنها شامل خروجی هایی است که می تواند نادرست، جانبدارانه و توهین آمیز باشد. Galactica متا، آموزش دیده بر روی متون علمی، است یک مثال اخیر. با وجود مجموعه داده ای که ممکن است تصور شود نسبت به آموزش در اینترنت باز کمتر مستعد سمیت است، این مدل به راحتی برای تولید متن مضر و نادرست تحریک شد و تنها در سه روز حذف شد. اینکه آیا محققان می‌توانند کاستی‌های هوش مصنوعی زبان را حل کنند، نامشخص است یا خیر.

اما به نظر می‌رسد که افزایش مقیاس تا زمانی که بازدهی کاهشی آغاز شود، ادامه خواهد داشت. جهش بعدی می‌تواند نزدیک به گوشه باشد—و ممکن است از قبل سخت‌افزاری برای تحقق آن داشته باشیم.

تصویر های اعتباری: مغزها

تمبر زمان:

بیشتر از تکینگی هاب