ویژگی حمایت شده یک دهه و نیم است که محققان با نشان دادن اینکه واحدهای پردازش گرافیکی می توانند برای تسریع چشمگیر عملیات کلیدی هوش مصنوعی استفاده شوند، دنیای فناوری را خیره کردند.
این درک همچنان تخیل شرکت ها را در بر می گیرد. IDC گزارش کرده است که وقتی صحبت از زیرساخت ها می شود، محاسبات شتاب دهنده GPU و افزایش مقیاس HPC از جمله ملاحظات اصلی برای رهبران فناوری و معمارانی است که به دنبال ایجاد زیرساخت هوش مصنوعی خود هستند.
اما برای همه سازمانهایی که هوش مصنوعی را با موفقیت در مشکلات دنیای واقعی به کار میبرند، بسیاری دیگر برای فراتر رفتن از مرحله آزمایشی یا آزمایشی تلاش میکنند. تحقیق 2021 IDC دریافتند که کمتر از یک سوم از پاسخ دهندگان پروژه های هوش مصنوعی خود را به مرحله تولید منتقل کرده اند و تنها یک سوم از آنها به "مرحله بلوغ تولید" رسیده اند.
موانع ذکر شده شامل مشکلات پردازش و آماده سازی داده ها و تقویت زیرساخت برای پشتیبانی از هوش مصنوعی در مقیاس سازمانی است. IDC گفت: شرکت ها باید در "زیرساخت های هدفمند و با اندازه مناسب" سرمایه گذاری کنند.
مشکل هوش مصنوعی اینجا چیست؟
بنابراین، کجا آن سازمان ها با هوش مصنوعی اشتباه می کنند؟ یکی از عوامل ممکن است این باشد که رهبران فناوری و متخصصان هوش مصنوعی در نگاهی جامع به خط لوله گسترده تر هوش مصنوعی شکست می خورند و در عین حال توجه بیش از حد به GPU ها در مقایسه با سایر موتورهای محاسباتی، به ویژه CPU محترم، دارند.
زیرا در نهایت، بحث پشتیبان CPU در مقابل GPU در مقابل ASIC نیست. بلکه در مورد یافتن راه بهینه برای ساخت خط لوله هوش مصنوعی است که می تواند شما را از ایده ها و داده ها و ساخت مدل به استقرار و استنتاج برساند. و این به معنای قدردانی از نقاط قوت مربوط به معماری های مختلف پردازنده است تا بتوانید موتور محاسباتی مناسب را در زمان مناسب اعمال کنید.
همانطور که مدیر ارشد اینتل، Datacenter AI Strategy and Execution، Shardul Brahmbhatt توضیح می دهد، «CPU برای میکروسرویس ها و نمونه های محاسباتی سنتی در فضای ابری استفاده شده است. و پردازندههای گرافیکی برای محاسبات موازی، مانند جریان رسانه، بازی، و برای حجم کاری هوش مصنوعی استفاده شدهاند.
بنابراین از آنجایی که هایپراسکیلرها و سایر بازیکنان ابر توجه خود را به هوش مصنوعی معطوف کرده اند، مشخص شده است که آنها از این نقاط قوت برای کارهای مختلف استفاده می کنند.
برای مثال، قابلیتهای GPU در محاسبات موازی، آنها را برای آموزش الگوریتمهای هوش مصنوعی بسیار مناسب میسازد. در همین حال، CPU ها در مورد استنتاج زمان واقعی دسته ای کم، تأخیر کم و استفاده از آن الگوریتم ها برای تجزیه و تحلیل داده های زنده و ارائه نتایج و پیش بینی ها برتری دارند.
برهمبت توضیح میدهد که باز هم هشدارهایی وجود دارد، «مکانهایی وجود دارد که میخواهید استنتاج دستهای بیشتری انجام دهید. و این استنتاج دسته ای نیز چیزی است که از طریق GPU یا ASIC انجام می شود.
نگاه کردن به خط لوله
اما خط لوله هوش مصنوعی فراتر از آموزش و استنتاج است. در سمت چپ خط لوله، دادهها باید از قبل پردازش شوند و الگوریتمهایی توسعه داده شوند. CPU عمومی در اینجا نقش مهمی دارد.
در واقع، پردازندههای گرافیکی بخش نسبتاً کمی از کل فعالیت پردازنده در سراسر خط لوله هوش مصنوعی را به خود اختصاص میدهند، بهگفته اینتل، حجم کاری «مرحله داده» مبتنی بر CPU به طور کلی دو سوم را تشکیل میدهد (شما میتوانید Solution Brief را بخوانید - بهینه سازی استنتاج با فناوری CPU اینتل اینجا).
و Brahmbhatt به ما یادآوری می کند که معماری CPU مزایای دیگری از جمله قابلیت برنامه ریزی دارد.
او میگوید: «از آنجایی که پردازندهها بهطور گسترده مورد استفاده قرار گرفتهاند، در حال حاضر یک اکوسیستم موجود از توسعهدهندگان و برنامههای کاربردی در دسترس است، به علاوه ابزارهایی که سهولت استفاده و قابلیت برنامهریزی را برای محاسبات عمومی ارائه میدهند.
دوم، CPU ها دسترسی سریع تری به فضای بزرگتر حافظه فراهم می کنند. و بعد سومین چیز این است که محاسبات بدون ساختار بیشتر در مقابل GPU ها [که] محاسبات موازی تر هستند. به این دلایل، CPU ها به عنوان انتقال دهنده های داده عمل می کنند که GPU ها را تغذیه می کنند، در نتیجه به مدل های سیستم توصیه کننده و همچنین بارهای کاری تکامل یافته مانند شبکه های عصبی نمودار کمک می کنند.
یک طرح باز برای توسعه هوش مصنوعی
بنابراین، چگونه باید نقش CPU و GPU را هنگام برنامه ریزی خط لوله توسعه هوش مصنوعی، چه در مرحله اولیه، چه در فضای ابری و چه در هر دو، مشاهده کنیم؟
پردازندههای گرافیکی توسعه هوش مصنوعی را متحول کردند، زیرا روشی برای شتاب ارائه میدهند که عملیات را از CPU تخلیه میکند. اما به این معنی نیست که این معقول ترین گزینه برای یک شغل معین است.
همانطور که معمار پلتفرم اینتل، Sharath Raghava توضیح می دهد: «برنامه های هوش مصنوعی محاسبات برداری را انجام می دهند. محاسبات برداری قابل موازی سازی هستند. برای اجرای کارآمد بارهای کاری هوش مصنوعی، میتوان از قابلیتهای CPU و GPU با در نظر گرفتن اندازه محاسبات برداری، تأخیر بارگذاری، موازیسازی و بسیاری عوامل دیگر بهرهبرداری کرد. اما او ادامه می دهد، برای یک کار "کوچکتر"، "هزینه" تخلیه بیش از حد خواهد بود، و ممکن است اجرای آن بر روی یک GPU یا شتاب دهنده منطقی نباشد.
پردازندهها همچنین میتوانند از یکپارچگی نزدیکتر با سایر اجزای سیستم بهره ببرند که به آنها اجازه میدهد کار هوش مصنوعی را سریعتر انجام دهند. به دست آوردن حداکثر ارزش از استقرار هوش مصنوعی فراتر از اجرای خود مدل ها است – بینش مورد نظر به عملیات پیش پردازش، استنتاج و پس پردازش کارآمد بستگی دارد. پیش پردازش مستلزم آن است که داده ها برای مطابقت با انتظارات ورودی مدل آموزش دیده قبل از تغذیه برای تولید استنتاج آماده شوند. سپس اطلاعات مفید از نتایج استنتاج در مرحله پس پردازش استخراج می شود.
برای مثال، اگر به سیستم تشخیص نفوذ مرکز داده (IDS) فکر کنیم، مهم است که بر روی خروجی مدل برای محافظت و جلوگیری از هرگونه آسیب ناشی از حمله سایبری به موقع عمل کنیم. و به طور معمول، مراحل پیش پردازش و پس پردازش زمانی کارآمدتر هستند که بر روی CPUهای سیستم میزبان انجام شوند، زیرا با بقیه اکوسیستم های معماری یکپارچه تر هستند.
افزایش عملکرد تحت سفارشات استارت
بنابراین، آیا این به معنای چشم پوشی از مزایای شتاب GPU به طور کلی است؟ لازم نیست. اینتل چندین سال است که شتاب هوش مصنوعی را در CPUهای Xeon Scalable خود ایجاد کرده است. این محدوده در حال حاضر شامل تقویت یادگیری عمیق برای استنتاج با کارایی بالا در مدلهای یادگیری عمیق است، در حالی که افزونههای وکتور پیشرفته 512 (AVX 512) و برنامههای افزودنی شبکه عصبی برداری (VNNI) عملکرد استنتاج INT8 را سرعت میبخشند. اما DL Boost همچنین از فرمت نقطه شناور مغز (BF16) برای افزایش عملکرد در بارهای آموزشی که به دقت بالایی نیاز ندارند، استفاده می کند.
پردازندههای نسل چهارم Xeon Scalable آینده اینتل، ضرب ماتریس پیشرفته یا AMX را اضافه خواهند کرد. این امر باعث افزایش 8 برابری افزونههای AVX-512 VNNI x86 میشود که طبق محاسبات اینتل در پردازندههای قبلی پیادهسازی شدهاند و به پردازندههای نسل چهارم اینتل Xeon Scalable اجازه میدهد تا «مقدارهای آموزشی و الگوریتمهای DL را مانند GPU مدیریت کنند». اما همین شتابدهندهها میتوانند برای محاسبات عمومی CPU برای بارهای کاری هوش مصنوعی و غیر AI نیز اعمال شوند.
این بدان معنا نیست که اینتل انتظار دارد خطوط لوله هوش مصنوعی از ابتدا تا انتها x86 باشد. زمانی که تخلیه کامل بارهای آموزشی که از موازی سازی سود می برند منطقی تر باشد، اینتل پردازنده آموزشی هوش مصنوعی Habana Gaudi خود را ارائه می دهد. تستهای بنچمارک نشان میدهند که دومی نمونههای آمازون EC2 DL1 را تقویت میکند که میتوانند تا 40 درصد عملکرد قیمت بهتری نسبت به نمونههای آموزشی مبتنی بر GPU Nvidia که در فضای ابری میزبانی میشوند، ارائه دهند.
در عین حال، سری Flex GPU مرکز داده اینتل برای بارهای کاری و عملیاتی که از موازی سازی مانند استنتاج هوش مصنوعی بهره می برند، با پیاده سازی های مختلف در مدل های هوش مصنوعی "سبک تر" و پیچیده تر، طراحی شده است. یکی دیگر از پردازندههای گرافیکی Intel® Data Center، با کد Ponte Vecchio (PVC)، به زودی برق رسانی به ابررایانه Aurora را در آزمایشگاه ملی Argonne آغاز خواهد کرد.
آیا می توانیم از انتها به پایان برویم؟
بنابراین، به طور بالقوه، سیلیکون اینتل می تواند کل خط لوله هوش مصنوعی را پشتیبانی کند، در حالی که نیاز به تخلیه غیرضروری داده ها بین موتورهای محاسباتی مختلف را به حداقل می رساند. پردازندههای این شرکت – اعم از GPU یا CPU – همچنین از یک مدل نرمافزار رایج مبتنی بر ابزار و چارچوبهای منبع باز با بهینهسازی اینتل از طریق برنامه OneAPI پشتیبانی میکنند.
Brahmbhatt میراث اینتل در ساخت یک اکوسیستم نرم افزاری x86 مبتنی بر جامعه و منبع باز را به عنوان مزیت دیگر ذکر می کند. "فلسفه ای که اینتل دارد این است..."اجازه دهید اکوسیستم باعث پذیرش شود". و ما باید اطمینان حاصل کنیم که نسبت به اکوسیستم منصفانه و باز هستیم و هر یک از سس های مخفی خود را به اکوسیستم برمی گردانیم."
ما از یک پشته نرم افزار مشترک استفاده می کنیم تا اساساً مطمئن شویم که توسعه دهندگان نگران تمایز اساسی IP بین CPU و GPU برای هوش مصنوعی نباشند.
این ترکیبی از یک پشته نرمافزار مشترک و تمرکز بر استفاده از موتور محاسباتی مناسب برای انجام کار مناسب، در سازمان اهمیت بیشتری دارد. کسبوکارها به هوش مصنوعی تکیه میکنند تا به آنها کمک کند برخی از مبرمترین مشکلات خود را حل کنند، چه در فضای ابری و چه در مرحله اولیه. اما بارهای کاری مختلط برای اجرای کدی که در هسته ای که روی شتاب دهنده قرار دارد، نیاز به نرم افزار کامل و همچنین نگهداری و مدیریت پشته سیستم دارد.
بنابراین، وقتی نوبت به پاسخ به این سؤال میرسد «چگونه هوش مصنوعی را به مقیاس سازمانی برسانیم»، پاسخ ممکن است به نگاهی به تصویر بزرگتر و اطمینان از استفاده کامل از کیت سختافزاری و نرمافزاری در اختیارتان باشد.
با حمایت اینتل
- AI
- آی هنر
- مولد هنر ai
- ربات ai
- هوش مصنوعی
- گواهی هوش مصنوعی
- هوش مصنوعی در بانکداری
- ربات هوش مصنوعی
- ربات های هوش مصنوعی
- نرم افزار هوش مصنوعی
- بلاکچین
- کنفرانس بلاک چین ai
- coingenius
- هوش مصنوعی محاوره ای
- کنفرانس کریپتو ai
- دل-ه
- یادگیری عمیق
- گوگل ai
- فراگیری ماشین
- افلاطون
- افلاطون آی
- هوش داده افلاطون
- بازی افلاطون
- PlatoData
- بازی پلاتو
- مقیاس Ai
- نحو
- ثبت نام
- زفیرنت