با استفاده از هوش مصنوعی، باید تصویر سخت افزاری و نرم افزاری بزرگتری از هوش داده PlatoBlockchain را ببینید. جستجوی عمودی Ai.

با هوش مصنوعی، باید تصویر سخت افزاری و نرم افزاری بزرگتر را ببینید

ویژگی حمایت شده یک دهه و نیم است که محققان با نشان دادن اینکه واحدهای پردازش گرافیکی می توانند برای تسریع چشمگیر عملیات کلیدی هوش مصنوعی استفاده شوند، دنیای فناوری را خیره کردند.

این درک همچنان تخیل شرکت ها را در بر می گیرد. IDC گزارش کرده است که وقتی صحبت از زیرساخت ها می شود، محاسبات شتاب دهنده GPU و افزایش مقیاس HPC از جمله ملاحظات اصلی برای رهبران فناوری و معمارانی است که به دنبال ایجاد زیرساخت هوش مصنوعی خود هستند.

اما برای همه سازمان‌هایی که هوش مصنوعی را با موفقیت در مشکلات دنیای واقعی به کار می‌برند، بسیاری دیگر برای فراتر رفتن از مرحله آزمایشی یا آزمایشی تلاش می‌کنند. تحقیق 2021 IDC دریافتند که کمتر از یک سوم از پاسخ دهندگان پروژه های هوش مصنوعی خود را به مرحله تولید منتقل کرده اند و تنها یک سوم از آنها به "مرحله بلوغ تولید" رسیده اند.

موانع ذکر شده شامل مشکلات پردازش و آماده سازی داده ها و تقویت زیرساخت برای پشتیبانی از هوش مصنوعی در مقیاس سازمانی است. IDC گفت: شرکت ها باید در "زیرساخت های هدفمند و با اندازه مناسب" سرمایه گذاری کنند.

مشکل هوش مصنوعی اینجا چیست؟

بنابراین، کجا آن سازمان ها با هوش مصنوعی اشتباه می کنند؟ یکی از عوامل ممکن است این باشد که رهبران فناوری و متخصصان هوش مصنوعی در نگاهی جامع به خط لوله گسترده تر هوش مصنوعی شکست می خورند و در عین حال توجه بیش از حد به GPU ها در مقایسه با سایر موتورهای محاسباتی، به ویژه CPU محترم، دارند.

زیرا در نهایت، بحث پشتیبان CPU در مقابل GPU در مقابل ASIC نیست. بلکه در مورد یافتن راه بهینه برای ساخت خط لوله هوش مصنوعی است که می تواند شما را از ایده ها و داده ها و ساخت مدل به استقرار و استنتاج برساند. و این به معنای قدردانی از نقاط قوت مربوط به معماری های مختلف پردازنده است تا بتوانید موتور محاسباتی مناسب را در زمان مناسب اعمال کنید.

همانطور که مدیر ارشد اینتل، Datacenter AI Strategy and Execution، Shardul Brahmbhatt توضیح می دهد، «CPU برای میکروسرویس ها و نمونه های محاسباتی سنتی در فضای ابری استفاده شده است. و پردازنده‌های گرافیکی برای محاسبات موازی، مانند جریان رسانه، بازی، و برای حجم کاری هوش مصنوعی استفاده شده‌اند.

بنابراین از آنجایی که هایپراسکیلرها و سایر بازیکنان ابر توجه خود را به هوش مصنوعی معطوف کرده اند، مشخص شده است که آنها از این نقاط قوت برای کارهای مختلف استفاده می کنند.

برای مثال، قابلیت‌های GPU در محاسبات موازی، آنها را برای آموزش الگوریتم‌های هوش مصنوعی بسیار مناسب می‌سازد. در همین حال، CPU ها در مورد استنتاج زمان واقعی دسته ای کم، تأخیر کم و استفاده از آن الگوریتم ها برای تجزیه و تحلیل داده های زنده و ارائه نتایج و پیش بینی ها برتری دارند.

برهمبت توضیح می‌دهد که باز هم هشدارهایی وجود دارد، «مکان‌هایی وجود دارد که می‌خواهید استنتاج دسته‌ای بیشتری انجام دهید. و این استنتاج دسته ای نیز چیزی است که از طریق GPU یا ASIC انجام می شود.

نگاه کردن به خط لوله

اما خط لوله هوش مصنوعی فراتر از آموزش و استنتاج است. در سمت چپ خط لوله، داده‌ها باید از قبل پردازش شوند و الگوریتم‌هایی توسعه داده شوند. CPU عمومی در اینجا نقش مهمی دارد.

در واقع، پردازنده‌های گرافیکی بخش نسبتاً کمی از کل فعالیت پردازنده در سراسر خط لوله هوش مصنوعی را به خود اختصاص می‌دهند، به‌گفته اینتل، حجم کاری «مرحله داده» مبتنی بر CPU به طور کلی دو سوم را تشکیل می‌دهد (شما می‌توانید Solution Brief را بخوانید - بهینه سازی استنتاج با فناوری CPU اینتل اینجا).

و Brahmbhatt به ما یادآوری می کند که معماری CPU مزایای دیگری از جمله قابلیت برنامه ریزی دارد.

او می‌گوید: «از آنجایی که پردازنده‌ها به‌طور گسترده مورد استفاده قرار گرفته‌اند، در حال حاضر یک اکوسیستم موجود از توسعه‌دهندگان و برنامه‌های کاربردی در دسترس است، به علاوه ابزارهایی که سهولت استفاده و قابلیت برنامه‌ریزی را برای محاسبات عمومی ارائه می‌دهند.

دوم، CPU ها دسترسی سریع تری به فضای بزرگتر حافظه فراهم می کنند. و بعد سومین چیز این است که محاسبات بدون ساختار بیشتر در مقابل GPU ها [که] محاسبات موازی تر هستند. به این دلایل، CPU ها به عنوان انتقال دهنده های داده عمل می کنند که GPU ها را تغذیه می کنند، در نتیجه به مدل های سیستم توصیه کننده و همچنین بارهای کاری تکامل یافته مانند شبکه های عصبی نمودار کمک می کنند.

یک طرح باز برای توسعه هوش مصنوعی

بنابراین، چگونه باید نقش CPU و GPU را هنگام برنامه ریزی خط لوله توسعه هوش مصنوعی، چه در مرحله اولیه، چه در فضای ابری و چه در هر دو، مشاهده کنیم؟

پردازنده‌های گرافیکی توسعه هوش مصنوعی را متحول کردند، زیرا روشی برای شتاب ارائه می‌دهند که عملیات را از CPU تخلیه می‌کند. اما به این معنی نیست که این معقول ترین گزینه برای یک شغل معین است.

همانطور که معمار پلتفرم اینتل، Sharath Raghava توضیح می دهد: «برنامه های هوش مصنوعی محاسبات برداری را انجام می دهند. محاسبات برداری قابل موازی سازی هستند. برای اجرای کارآمد بارهای کاری هوش مصنوعی، می‌توان از قابلیت‌های CPU و GPU با در نظر گرفتن اندازه محاسبات برداری، تأخیر بارگذاری، موازی‌سازی و بسیاری عوامل دیگر بهره‌برداری کرد. اما او ادامه می دهد، برای یک کار "کوچکتر"، "هزینه" تخلیه بیش از حد خواهد بود، و ممکن است اجرای آن بر روی یک GPU یا شتاب دهنده منطقی نباشد.

پردازنده‌ها همچنین می‌توانند از یکپارچگی نزدیک‌تر با سایر اجزای سیستم بهره ببرند که به آن‌ها اجازه می‌دهد کار هوش مصنوعی را سریع‌تر انجام دهند. به دست آوردن حداکثر ارزش از استقرار هوش مصنوعی فراتر از اجرای خود مدل ها است – بینش مورد نظر به عملیات پیش پردازش، استنتاج و پس پردازش کارآمد بستگی دارد. پیش پردازش مستلزم آن است که داده ها برای مطابقت با انتظارات ورودی مدل آموزش دیده قبل از تغذیه برای تولید استنتاج آماده شوند. سپس اطلاعات مفید از نتایج استنتاج در مرحله پس پردازش استخراج می شود.

برای مثال، اگر به سیستم تشخیص نفوذ مرکز داده (IDS) فکر کنیم، مهم است که بر روی خروجی مدل برای محافظت و جلوگیری از هرگونه آسیب ناشی از حمله سایبری به موقع عمل کنیم. و به طور معمول، مراحل پیش پردازش و پس پردازش زمانی کارآمدتر هستند که بر روی CPUهای سیستم میزبان انجام شوند، زیرا با بقیه اکوسیستم های معماری یکپارچه تر هستند.

افزایش عملکرد تحت سفارشات استارت

بنابراین، آیا این به معنای چشم پوشی از مزایای شتاب GPU به طور کلی است؟ لازم نیست. اینتل چندین سال است که شتاب هوش مصنوعی را در CPUهای Xeon Scalable خود ایجاد کرده است. این محدوده در حال حاضر شامل تقویت یادگیری عمیق برای استنتاج با کارایی بالا در مدل‌های یادگیری عمیق است، در حالی که افزونه‌های وکتور پیشرفته 512 (AVX 512) و برنامه‌های افزودنی شبکه عصبی برداری (VNNI) عملکرد استنتاج INT8 را سرعت می‌بخشند. اما DL Boost همچنین از فرمت نقطه شناور مغز (BF16) برای افزایش عملکرد در بارهای آموزشی که به دقت بالایی نیاز ندارند، استفاده می کند.

پردازنده‌های نسل چهارم Xeon Scalable آینده اینتل، ضرب ماتریس پیشرفته یا AMX را اضافه خواهند کرد. این امر باعث افزایش 8 برابری افزونه‌های AVX-512 VNNI x86 می‌شود که طبق محاسبات اینتل در پردازنده‌های قبلی پیاده‌سازی شده‌اند و به پردازنده‌های نسل چهارم اینتل Xeon Scalable اجازه می‌دهد تا «مقدارهای آموزشی و الگوریتم‌های DL را مانند GPU مدیریت کنند». اما همین شتاب‌دهنده‌ها می‌توانند برای محاسبات عمومی CPU برای بارهای کاری هوش مصنوعی و غیر AI نیز اعمال شوند.

این بدان معنا نیست که اینتل انتظار دارد خطوط لوله هوش مصنوعی از ابتدا تا انتها x86 باشد. زمانی که تخلیه کامل بارهای آموزشی که از موازی سازی سود می برند منطقی تر باشد، اینتل پردازنده آموزشی هوش مصنوعی Habana Gaudi خود را ارائه می دهد. تست‌های بنچمارک نشان می‌دهند که دومی نمونه‌های آمازون EC2 DL1 را تقویت می‌کند که می‌توانند تا 40 درصد عملکرد قیمت بهتری نسبت به نمونه‌های آموزشی مبتنی بر GPU Nvidia که در فضای ابری میزبانی می‌شوند، ارائه دهند.

در عین حال، سری Flex GPU مرکز داده اینتل برای بارهای کاری و عملیاتی که از موازی سازی مانند استنتاج هوش مصنوعی بهره می برند، با پیاده سازی های مختلف در مدل های هوش مصنوعی "سبک تر" و پیچیده تر، طراحی شده است. یکی دیگر از پردازنده‌های گرافیکی Intel® Data Center، با کد Ponte Vecchio (PVC)، به زودی برق رسانی به ابررایانه Aurora را در آزمایشگاه ملی Argonne آغاز خواهد کرد.

آیا می توانیم از انتها به پایان برویم؟

بنابراین، به طور بالقوه، سیلیکون اینتل می تواند کل خط لوله هوش مصنوعی را پشتیبانی کند، در حالی که نیاز به تخلیه غیرضروری داده ها بین موتورهای محاسباتی مختلف را به حداقل می رساند. پردازنده‌های این شرکت – اعم از GPU یا CPU – همچنین از یک مدل نرم‌افزار رایج مبتنی بر ابزار و چارچوب‌های منبع باز با بهینه‌سازی اینتل از طریق برنامه OneAPI پشتیبانی می‌کنند.

Brahmbhatt میراث اینتل در ساخت یک اکوسیستم نرم افزاری x86 مبتنی بر جامعه و منبع باز را به عنوان مزیت دیگر ذکر می کند. "فلسفه ای که اینتل دارد این است..."اجازه دهید اکوسیستم باعث پذیرش شود". و ما باید اطمینان حاصل کنیم که نسبت به اکوسیستم منصفانه و باز هستیم و هر یک از سس های مخفی خود را به اکوسیستم برمی گردانیم."

ما از یک پشته نرم افزار مشترک استفاده می کنیم تا اساساً مطمئن شویم که توسعه دهندگان نگران تمایز اساسی IP بین CPU و GPU برای هوش مصنوعی نباشند.

این ترکیبی از یک پشته نرم‌افزار مشترک و تمرکز بر استفاده از موتور محاسباتی مناسب برای انجام کار مناسب، در سازمان اهمیت بیشتری دارد. کسب‌وکارها به هوش مصنوعی تکیه می‌کنند تا به آن‌ها کمک کند برخی از مبرم‌ترین مشکلات خود را حل کنند، چه در فضای ابری و چه در مرحله اولیه. اما بارهای کاری مختلط برای اجرای کدی که در هسته ای که روی شتاب دهنده قرار دارد، نیاز به نرم افزار کامل و همچنین نگهداری و مدیریت پشته سیستم دارد.

بنابراین، وقتی نوبت به پاسخ به این سؤال می‌رسد «چگونه هوش مصنوعی را به مقیاس سازمانی برسانیم»، پاسخ ممکن است به نگاهی به تصویر بزرگ‌تر و اطمینان از استفاده کامل از کیت سخت‌افزاری و نرم‌افزاری در اختیارتان باشد.

با حمایت اینتل

تمبر زمان:

بیشتر از ثبت نام