نقش CPU در AI/ML پایدار

نقش CPU در AI/ML پایدار

نقش CPU در هوش پایدار AI/ML PlatoBlockchain Data Intelligence. جستجوی عمودی Ai.

رپرتاژ آگهی همانطور که هوش مصنوعی دامنه خود را در محیط های محاسباتی کسب و کار گسترش می دهد، تأثیر آن باعث ایجاد برخی اثرات غیرقابل پیش بینی می شود. جدیدترین IDC FutureScape به عنوان مثال، گزارش پیش‌بینی می‌کند که با رقابت شرکت‌ها برای معرفی محصولات/خدمات تقویت‌شده هوش مصنوعی و کمک به مشتریان خود در پیاده‌سازی هوش مصنوعی، این فناوری به یک محرک اصلی برای نوآوری تبدیل خواهد شد.

یکی دیگر از تغییرات مبتنی بر هوش مصنوعی به میزانی که مراکز داده ممکن است مجبور شوند CPU ها را با شتاب دهنده های هوش مصنوعی گسسته، مانند GPU ها یا معماری های تخصصی متعادل کنند، به منظور ارائه قابلیت های محاسباتی با کارایی بالا که توسعه دهندگان هوش مصنوعی می خواهند، محور است.

این بحثی است که مسائل پرمخاطره ای را برای صاحبان مرکز داده مطرح می کند، هم از نظر سرمایه گذاری اضافی CAPEX و هم احتمال اینکه (در حالی که روش های اندازه گیری نادقیق هستند) عملیات معمولی هوش مصنوعی مبتنی بر GPU انرژی بیشتری نسبت به بارهای کاری معمولی IT مصرف می کند.

پرداختن به سربار انرژی/کربن بالاتر هوش مصنوعی یک نقطه دردسر اضافی برای عملیات مرکز داده است، که همچنین باید اطمینان حاصل کند که معماری‌های محاسباتی ارتقا یافته بهینه‌شده برای هوش مصنوعی می‌توانند تقاضای افزایش انرژی را بدون خطر بارگذاری بیش از حد فناوری یا امکانات موجود مدیریت کنند.

بنابراین از آنجایی که مقررات گسترده در حاکمیت پایداری و مدیریت کربن، عملیات را برای کاهش مصرف انرژی در سراسر سخت‌افزار و نرم‌افزار IT سوق می‌دهد، هوش مصنوعی هم فرصت و هم مانع را نشان می‌دهد.

کاهش مصرف انرژی هوش مصنوعی

استفان گیلیچ، مدیر هوش مصنوعی GTM در مرکز تعالی هوش مصنوعی اینتل توضیح می‌دهد که در مجموع، افزایش مصرف انرژی و پیکربندی‌های مجدد معماری لازم برای تطبیق با حجم‌های کاری هوش مصنوعی و یادگیری ماشین، چالشی اجتناب‌ناپذیر برای مراکز داده ایجاد می‌کند.

در سراسر بخش‌ها و صنایع عمودی، هرجا که برنامه‌ها و سرویس‌های یادگیری ماشینی/AI در حال توسعه، آموزش و اجرا هستند، کاملاً واضح است که قابلیت‌های امکانات فناوری اطلاعات اولیه و میزبان ابری باید برای مقابله با افزایش حجم داده‌ها ارتقا یابد. گیلیچ می‌گوید: بارهای کاری فشرده. "همچنین واضح است که این ارتقاء باید بیش از افزایش قابلیت محاسباتی را شامل شود."

گیلیچ معتقد است که برای افزایش پایداری مراکز داده متمرکز بر هوش مصنوعی، کارهای زیادی می توان انجام داد و با ارزیابی مجدد برخی از مفروضات پیرامون چشم انداز AI/Machine Learning شروع می شود. واحدهای پردازش مکان خوبی برای شروع هستند، به ویژه هنگامی که تصمیم می گیریم که آیا CPU یا GPU برای کار مناسب تر هستند.

از آنجا که در حالی که به نظر می رسد حجم کاری محاسباتی ویژه هوش مصنوعی در حال افزایش است (هیچ کس کاملاً مطمئن نیست که با چه سرعتی)، بخش عمده ای از کارهای مرکز داده (بارهای کاری غیر AI) باید روز به روز از بین برود – ارائه برنامه ثابت و جریان درآمد خدمات مختل نشود.

اکثر اینها در حال حاضر توسط CPUها مدیریت می‌شوند و نصب مجدد یک مرکز داده استاندارد با پردازنده‌های گرافیکی گران‌تر برای بسیاری از امکانات، مازاد بر نیاز خواهد بود. به طور کلی، یک GPU برای انجام یک کار مشابه، وات بیشتری نسبت به یک CPU مصرف می کند. بسته به منبع تغذیه یک پیکربندی رک معین، ادغام پردازنده‌های گرافیکی در زیرساخت‌های مرکز داده به ارتقاء سیستم‌های توزیع برق نیاز دارد، به‌عنوان مثال، سیستم‌های توزیع برق، علاوه بر هزینه‌های بیشتر انرژی پس از اجرا، متحمل هزینه‌های اولیه اضافی می‌شوند.

علاوه بر این، توسعه CPU اینتل به نوآوری خود ادامه می دهد. گیلیچ استدلال می‌کند که در چندین مورد استفاده، می‌توان ثابت کرد که یک CPU به عملکرد کلی خوب و گاهی بهتر از یک GPU می‌رسد. و عملکرد آن‌ها را می‌توان با فناوری‌های نوآورانه مانند Intel® AMX (افزونه‌های پیشرفته ماتریس) یک شتاب‌دهنده که در نسل چهارم پردازنده‌های اینتل زئون تعبیه شده است، افزایش داد.

Gillich خاطرنشان می کند: «پردازنده های Intel Xeon می توانند یک مرکز داده را قادر سازند تا پذیرش هوش مصنوعی خود را از طریق شتاب هوش مصنوعی داخلی که عملکرد CPU را برای یادگیری ماشینی، آموزش و استنتاج افزایش می دهد، افزایش دهد. به این ترتیب، آن‌ها می‌توانند شتاب‌دهنده‌های مجزا را برای به حداقل رساندن CAPEX و به حداکثر رساندن عملکرد در حالی که از محیط‌های پردازشی Xeon اینتل استفاده می‌کنند، استفاده کنند.

نیاز به ترکیب بار کاری هوش مصنوعی و غیر AI

Intel AMX یک بلوک سخت‌افزاری اختصاصی بر روی هسته پردازشگر Intel Xeon Scalable است که به بارهای کاری هوش مصنوعی اجازه می‌دهد تا به جای بارگذاری روی یک شتاب‌دهنده مجزا، روی CPU اجرا شوند و عملکرد قابل توجهی را افزایش دهند. این برای بارهای کاری هوش مصنوعی مانند سیستم‌های توصیه‌کننده یادگیری ماشین، تشخیص تصویر و پردازش زبان طبیعی که بر ریاضیات ماتریس متکی هستند، مناسب است.

استدلال دیگر به نفع CPU های تقویت شده این است که آنها یک مسیر مقرون به صرفه برای اپراتورهای مرکز داده فراهم می کنند تا تعهدات CPU موجود را بیشتر کنند، دارایی های خود را در آینده مقاوم کنند تا بتوانند بارهای کاری ترکیبی را تحمل کنند، و آنها را در موقعیتی بهتر قرار دهند. کنترل مصرف برق کلی

این به نوبه خود ممکن است به ارائه دهندگان خدمات مرکز داده (و مشتریان آنها) در رسیدن به اهداف پایداری کمک کند و یک نقطه فروش برای توسعه دهندگان نرم افزار (شرکت یا شخص ثالث) که به دنبال یک پلت فرم بهینه برای نمایش بهره وری انرژی کدگذاری خود هستند، فراهم می کند. خروجی ها.

گیلیچ می‌گوید: «واقعیت این است که اپراتورهای مرکز داده به‌جای عجله در فرصت‌هایی که بار کاری هوش مصنوعی می‌دهد، متوجه می‌شوند که باید طیفی از الزامات را در نظر بگیرند که به همان اندازه از نگرانی‌های تجاری به‌عنوان انتخاب‌های فناوری آگاه هستند.

این الزامات می تواند شامل موارد زیر باشد: ادغام بارهای کاری هوش مصنوعی با بارهای کاری غیر AI. ادغام پشته های مختلف سخت افزار و نرم افزار؛ و از آنجا که آنها می خواهند اطمینان حاصل کنند که دارای معماری مناسب برای چندین بار کاری مختلف، ادغام انواع مختلف جریان کاری هستند.

گیلیچ می‌گوید: «این سؤال‌ها به چالش‌های پیچیده اشاره می‌کنند، زیرا درست کردن آن‌ها بر بهره‌وری بهینه فن‌آوری و انرژی تأثیر دارد – با بهره‌وری انرژی در حال حاضر معیار عملکرد اصلی است که به طور فزاینده‌ای بر دوام تجاری یک مرکز داده تأثیر می‌گذارد». "پس باز هم، از اهمیت بالایی برخوردار است."

از دیدگاه گیلیچ، کلید انطباق با این واقعیت نوظهور، فرآیندی است که می‌توان آن را «همان‌سازی هوش مصنوعی» نامید. نکته اول در اینجا این است که بارهای کاری هوش مصنوعی از سایر انواع بار کاری جدا نمی شوند - آنها به جای اجرای جداگانه در بارهای کاری معمولی ادغام می شوند.

Gillich کنفرانس ویدئویی را به عنوان نمونه ای از این ادغام مرحله ای ارائه می دهد: «در حال حاضر هنگام پخش ترافیک استاندارد صوتی/تصویری در بین برنامه های کاربردی استاندارد، هوش مصنوعی برای انجام کارهای همزمان مانند خلاصه سازی، ترجمه، رونویسی یکپارچه شده است. چنین ویژگی هایی به خوبی توسط هوش مصنوعی پشتیبانی می شوند.

صرفه جویی در مصرف انرژی

گیلیچ استدلال می کند که دستیابی به بهره وری انرژی باید یک تعهد استراتژیک واقعاً پایانی باشد. "این نرم افزار و همچنین معماری های سخت افزاری را در بر می گیرد - مکانیزم کاملی که یک فرآیند گردش کار مشخص را امکان پذیر می کند. داده‌ها در کجا ذخیره می‌شوند تا دسترسی به کارآمدتر باشد - محاسباتی و در نتیجه انرژی - بهترین مکان برای بهره‌وری انرژی است؟

عامل دیگری که باید در این ارزیابی وارد شود، تعیین محل اجرای حجم کار است. برای مثال، آیا بر روی کلاینت‌ها (مانند رایانه‌های شخصی هوش مصنوعی مجهز به پردازنده‌های Intel Core Ultra به جای سرورهای موجود در مرکز داده) اجرا می‌شود؟ آیا می‌توان برخی از این بارهای کاری هوش مصنوعی را بر روی کلاینت‌ها (در کنار سرورها) اجرا کرد؟

گیلیچ استدلال می‌کند که اگر بخواهد تعادل هوش مصنوعی/مصرف انرژی را به یک تراز کردن بهتر کمک کند، ارزش بررسی دارد: «تقریباً مانند بازگشت به مفهوم قدیمی رایانش توزیع‌شده است».

Gillich می افزاید: "گاهی اوقات مشتریان ما می پرسند، "هوش مصنوعی کجا بازی می کند؟" – پاسخ این است که هوش مصنوعی در همه جا پخش خواهد شد. بنابراین در اینتل جاه‌طلبی ما بر چیزی متمرکز است که می‌توان آن را تطبیق جهانی هوش مصنوعی نامید، زیرا ما معتقدیم که در تمام زمینه‌های کاربردی وارد خواهد شد.

در اینتل این شامل میان افزارهایی مانند API است که مانند هر بخش دیگری از پشته نرم افزار، باید تا حد امکان کارآمد باشد. "گسترش API" می تواند منجر به پردازش غیر ضروری، به حداقل رساندن ردپای زیرساخت آنها و عدم نظارت و کنترل شود.

"با اینتل oneAPIشرکت‌ها می‌توانند ارزش سخت‌افزاری کامل خود را درک کنند، کدهای معماری متقابل با کارایی بالا را توسعه دهند و برنامه‌های کاربردی خود را برای نیازهای آینده آماده کنند.

“Intel oneAPI یک مدل برنامه‌نویسی باز، فراصنعتی، مبتنی بر استانداردها، یکپارچه، چندمعماری و چند فروشنده است که یک تجربه توسعه‌دهنده مشترک در معماری‌های شتاب‌دهنده ارائه می‌دهد - برای عملکرد سریع‌تر برنامه‌ها و بهره‌وری بهتر. ابتکار oneAPI همکاری بر روی مشخصات oneAPI و پیاده سازی oneAPI سازگار در سراسر اکوسیستم را تشویق می کند.

Gillich می‌افزاید: «oneAPI یک پشته میان‌افزار فراهم می‌کند که چیزهای استانداردی مانند AI Frameworks - مانند Pytorch یا TensorFlow [پلت‌فرم نرم‌افزار منبع باز برای هوش مصنوعی و یادگیری ماشینی] را می‌گیرد و آنها را در سطح ماشین ترجمه می‌کند، و oneAPI راهی کارآمد را برای انجام این کار کاربران می‌توانند از یک API مشترک در سطح چارچوب Ai استفاده کنند، و ما یک API (oneAPI) داریم که به مزه‌های سخت‌افزاری مختلف می‌پردازد.» بنابراین یک API معمولی به این معنی است که کاربران می توانند نرم افزار باز ایجاد کنند که می تواند در پشته نرم افزار باز پشتیبانی شود.

عملکرد در سطح GPU در نقاط قیمتی در سطح CPU

پیشرفت در فناوری اطلاعات عمدتاً ناشی از انتظار پیشرفت مداوم فناوری است که با بهبودهای مبتنی بر بینش در استراتژی‌های استقرار همراه است. این مدلی مبتنی بر یافتن بهترین تعادل قابل دستیابی بین مخارج بودجه و بازگشت سرمایه تجاری و این انتظار است که همیشه نوآوری بیشتری برای تلاش وجود دارد. هوش مصنوعی اوج این ایده‌آل را نشان می‌دهد – آنقدر باهوش است که پیشنهاد ارزش خود را از طریق خودسازی دائمی دوباره ابداع کند.

با ساخت شتاب‌دهنده AMX در نسل چهارم پردازنده‌های Intel Xeon، اینتل نشان می‌دهد که چگونه می‌توان عملکرد سطح GPU را در قیمت‌های سطح CPU به دست آورد. این به مراکز داده اجازه می‌دهد تا در عین به حداکثر رساندن ارزش بازگشتی موجودی پردازش‌های مجهز به اینتل زئون، مقیاس‌پذیری کنند، اما همچنین یک مدل قیمت‌گذاری ارائه می‌کند که هزینه ورود را برای مشتریانی با حجم کاری هوش مصنوعی اما بودجه‌های محدود کاهش می‌دهد.

و مصرف انرژی کمتر پردازنده‌ها به این معنی است که راندمان انرژی را می‌توان به طور کلی در طول کل عملیات مرکز داده - مانند سرمایش و تهویه - به دست آورد و این یکی دیگر از جاذبه‌های برنده برای معماران نرم‌افزار با وجدان پایداری و توسعه‌دهندگان راه‌حل‌های AL است.

ارائه شده توسط اینتل

تمبر زمان:

بیشتر از ثبت نام