GPU چیست؟ تراشه هایی که رونق هوش مصنوعی را تقویت می کنند و چرا تریلیون ها ارزش دارند

GPU چیست؟ تراشه هایی که رونق هوش مصنوعی را تقویت می کنند و چرا تریلیون ها ارزش دارند

What Is a GPU? The Chips Powering the AI Boom, and Why They’re Worth Trillions PlatoBlockchain Data Intelligence. Vertical Search. Ai.

از آنجایی که جهان برای استفاده از آخرین موج فناوری‌های هوش مصنوعی عجله دارد، یک قطعه سخت‌افزار با فناوری پیشرفته به کالایی شگفت‌آور تبدیل شده است: واحد پردازش گرافیک یا GPU.

یک پردازنده گرافیکی درجه یک می تواند به قیمت فروخته شود دهها هزار دلار، و سازنده پیشرو Nvidia ارزش بازار خود را دیده است از 2 تریلیون دلار گذشت با افزایش تقاضا برای محصولاتش.

پردازنده‌های گرافیکی نیز فقط محصولات پیشرفته هوش مصنوعی نیستند. پردازنده‌های گرافیکی کمتری در گوشی‌ها، لپ‌تاپ‌ها و کنسول‌های بازی نیز وجود دارد.

تا به حال احتمالاً از خود می پرسید: واقعاً GPU چیست؟ و چه چیزی آنها را بسیار خاص می کند؟

GPU چیست؟

پردازنده‌های گرافیکی در اصل برای تولید و نمایش سریع صحنه‌ها و اشیاء سه بعدی پیچیده، مانند مواردی که در بازی‌های ویدیویی و بازی‌های ویدیویی نقش دارند، طراحی شده بودند. طراحی به کمک کامپیوتر نرم افزار. پردازنده های گرافیکی مدرن نیز وظایفی مانند رفع فشار جریان های ویدیویی

"مغز" اکثر رایانه ها تراشه ای است به نام واحد پردازش مرکزی (CPU). پردازنده‌ها را می‌توان برای تولید صحنه‌های گرافیکی و از حالت فشرده‌کردن ویدیوها استفاده کرد، اما معمولاً در مقایسه با پردازنده‌های گرافیکی، در انجام این کارها بسیار کندتر و کارآمدتر هستند. CPU ها برای کارهای محاسباتی عمومی مانند پردازش کلمه و مرور صفحات وب مناسب تر هستند.

GPU ها چه تفاوتی با CPU دارند؟

یک CPU معمولی مدرن از 8 تا 16 اینچ تشکیل شده است.هسته"، که هر کدام می توانند وظایف پیچیده را به صورت متوالی پردازش کنند.

از سوی دیگر، پردازنده‌های گرافیکی دارای هزاران هسته نسبتاً کوچک هستند که برای دستیابی به پردازش کلی سریع، همه به طور همزمان ("موازی") طراحی شده‌اند. این باعث می‌شود که آنها برای کارهایی مناسب باشند که به تعداد زیادی عملیات ساده نیاز دارند که می‌توانند همزمان انجام شوند، نه یکی پس از دیگری.

پردازنده‌های گرافیکی سنتی دو نوع اصلی دارند.

اول، تراشه‌های مستقلی وجود دارند که اغلب به صورت کارت‌های افزودنی برای رایانه‌های رومیزی بزرگ ارائه می‌شوند. دوم، پردازنده‌های گرافیکی ترکیب شده با یک پردازنده در یک بسته تراشه، که اغلب در لپ‌تاپ‌ها و کنسول‌های بازی مانند پلی‌استیشن 5 یافت می‌شوند. در هر دو مورد، CPU کارهای GPU را کنترل می‌کند.

چرا GPU ها برای هوش مصنوعی بسیار مفید هستند؟

به نظر می رسد که پردازنده های گرافیکی را می توان برای انجام کارهایی بیشتر از تولید صحنه های گرافیکی تغییر کاربری داد.

بسیاری از تکنیک های یادگیری ماشین پشت سر هوش مصنوعی، از جمله شبکه های عصبی عمیق، به شدت بر اشکال مختلف ضرب ماتریس تکیه می کنند.

این یک عملیات ریاضی است که در آن مجموعه های بسیار بزرگی از اعداد ضرب و با هم جمع می شوند. این عملیات به خوبی برای پردازش موازی مناسب هستند و از این رو می‌توانند به سرعت توسط پردازنده‌های گرافیکی انجام شوند.

بعدی برای GPU ها چیست؟

به دلیل افزایش تعداد هسته‌ها و سرعت عملکرد آن‌ها، قدرت پردازشگرهای گرافیکی به طور پیوسته در حال افزایش است. این پیشرفت ها در درجه اول ناشی از پیشرفت در تولید تراشه توسط شرکت هایی مانند TSMC در تایوان.

اندازه هر ترانزیستور - اجزای اصلی هر تراشه کامپیوتری - در حال کاهش است و به ترانزیستورهای بیشتری اجازه می دهد تا در همان مقدار فضای فیزیکی قرار گیرند.

با این حال، این تمام داستان نیست. در حالی که GPU های سنتی برای کارهای محاسباتی مرتبط با هوش مصنوعی مفید هستند، اما بهینه نیستند.

همانطور که پردازنده‌های گرافیکی در ابتدا برای سرعت بخشیدن به رایانه‌ها از طریق ارائه پردازش‌های تخصصی برای گرافیک طراحی شدند، شتاب‌دهنده‌هایی نیز وجود دارند که برای سرعت بخشیدن به وظایف یادگیری ماشین طراحی شده‌اند. این شتاب دهنده ها اغلب به عنوان GPU های مرکز داده نامیده می شوند.

برخی از محبوب ترین شتاب دهنده ها، ساخته شده توسط شرکت هایی مانند AMD و Nvidia، به عنوان GPU های سنتی شروع به کار کردند. با گذشت زمان، طرح‌های آن‌ها برای انجام بهتر وظایف مختلف یادگیری ماشین، برای مثال با پشتیبانی از کارآمدتر، تکامل یافتند.شناور مغز” قالب شماره.

شتاب دهنده های دیگر، مانند گوگل واحدهای پردازش تانسور و Tenstorrent's هسته های تنسیکس، از ابتدا برای سرعت بخشیدن به شبکه های عصبی عمیق طراحی شدند.

پردازنده‌های گرافیکی مرکز داده و سایر شتاب‌دهنده‌های هوش مصنوعی معمولاً حافظه بیشتری نسبت به کارت‌های الحاقی GPU سنتی دارند که برای آموزش مدل‌های بزرگ هوش مصنوعی بسیار مهم است. هرچه مدل هوش مصنوعی بزرگتر باشد، توانایی و دقت بیشتری دارد.

برای تسریع بیشتر در آموزش و مدیریت مدل‌های هوش مصنوعی حتی بزرگ‌تر، مانند ChatGPT، بسیاری از پردازنده‌های گرافیکی مرکز داده را می‌توان با هم ترکیب کرد و یک ابر رایانه را تشکیل داد. این به نرم افزار پیچیده تری نیاز دارد تا بتواند به درستی از قدرت خرد کردن اعداد موجود استفاده کند. رویکرد دیگر این است که یک شتاب دهنده بسیار بزرگ ایجاد کنید، مانند "پردازنده در مقیاس ویفر” تولید شده توسط Cerebras.

آیا تراشه های تخصصی آینده هستند؟

CPU ها نیز ثابت نبوده اند. CPUهای اخیر AMD و Intel دارای دستورالعمل‌های سطح پایین داخلی هستند که اعداد مورد نیاز شبکه‌های عصبی عمیق را سرعت می‌بخشد. این عملکرد اضافی عمدتاً به وظایف "استنتاج" کمک می کند - یعنی استفاده از مدل های هوش مصنوعی که قبلاً در جاهای دیگر توسعه یافته اند.

برای آموزش مدل های هوش مصنوعی در وهله اول، هنوز به شتاب دهنده های بزرگ شبیه GPU نیاز است.

امکان ایجاد شتاب دهنده های تخصصی تر برای الگوریتم های خاص یادگیری ماشین وجود دارد. به عنوان مثال، اخیراً شرکتی به نام Groq یک "واحد پردازش زبان” (LPU) به طور خاص برای اجرای مدل های زبان بزرگ در امتداد خطوط ChatGPT طراحی شده است.

با این حال، ایجاد این پردازنده های تخصصی منابع مهندسی قابل توجهی را می طلبد. تاریخ نشان می‌دهد که استفاده و محبوبیت هر الگوریتم یادگیری ماشینی به اوج خود می‌رسد و سپس کاهش می‌یابد—بنابراین سخت‌افزار تخصصی گران قیمت ممکن است به سرعت منسوخ شود.

با این حال، برای مصرف کننده معمولی، بعید است که مشکلی ایجاد کند. پردازنده‌های گرافیکی و سایر تراشه‌های موجود در محصولاتی که استفاده می‌کنید احتمالاً سریع‌تر می‌شوند.

این مقاله از مجله منتشر شده است گفتگو تحت مجوز Creative Commons دفعات بازدید: مقاله.

تصویر های اعتباری: کارت گرافیک Nvidia

تمبر زمان:

بیشتر از تکینگی هاب