تراشه جدید امکانات هوش مصنوعی PlatoBlockchain Data Intelligence را گسترش می دهد. جستجوی عمودی Ai.

تراشه جدید امکانات هوش مصنوعی را گسترش می دهد

معرفی

الگوریتم های هوش مصنوعی نمی توانند با سرعت فعلی خود به رشد خود ادامه دهند. الگوریتم‌هایی مانند شبکه‌های عصبی عمیق – که به طور ضعیفی از مغز الهام می‌گیرند، با چندین لایه از نورون‌های مصنوعی که از طریق مقادیر عددی به نام وزن به یکدیگر متصل شده‌اند، هر سال بزرگ‌تر می‌شوند. اما این روزها، پیشرفت‌های سخت‌افزاری دیگر با حجم عظیم حافظه و ظرفیت پردازشی مورد نیاز برای اجرای این الگوریتم‌های عظیم هماهنگ نیست. به زودی، اندازه الگوریتم های هوش مصنوعی ممکن است به دیوار برخورد کند.

و حتی اگر بتوانیم سخت‌افزار را برای پاسخگویی به نیازهای هوش مصنوعی افزایش دهیم، مشکل دیگری وجود دارد: اجرای آنها بر روی رایانه‌های سنتی مقدار زیادی انرژی را هدر می‌دهد. انتشار کربن بالای تولید شده از اجرای الگوریتم‌های بزرگ هوش مصنوعی در حال حاضر برای محیط زیست مضر است و با بزرگ‌تر شدن الگوریتم‌ها بدتر می‌شود.

یک راه حل به نام محاسبات نورومورفیک، از مغزهای بیولوژیکی الهام می گیرد تا طرح هایی با انرژی کارآمد ایجاد کند. متأسفانه، در حالی که این تراشه ها می توانند از رایانه های دیجیتال در صرفه جویی در انرژی پیشی بگیرند، آنها فاقد قدرت محاسباتی مورد نیاز برای اجرای یک شبکه عصبی عمیق قابل توجه هستند. نادیده گرفتن آنها برای محققان هوش مصنوعی آسان شده است.

سرانجام در ماه اوت تغییر کرد وایر وان, H.-S. فیلیپ وانگ, گرت کوونبرگس و همکارانشان یک تراشه نورومورفیک جدید را نشان داد NeuRRAM نام دارد که شامل 3 میلیون سلول حافظه و هزاران نورون است که در سخت افزار آن برای اجرای الگوریتم ها تعبیه شده است. از نوع نسبتا جدیدی از حافظه به نام رم مقاومتی یا RRAM استفاده می کند. برخلاف تراشه‌های RRAM قبلی، NeuRRAM طوری برنامه‌ریزی شده است که به صورت آنالوگ کار کند تا انرژی و فضای بیشتری ذخیره کند. در حالی که حافظه دیجیتال باینری است - ذخیره سلول های حافظه آنالوگ 1 یا 0 در تراشه NeuRRAM هر کدام می توانند چندین مقدار را در یک محدوده کاملاً پیوسته ذخیره کنند. این به تراشه اجازه می دهد تا اطلاعات بیشتری را از الگوریتم های عظیم هوش مصنوعی در همان مقدار فضای تراشه ذخیره کند.

در نتیجه، تراشه جدید می‌تواند به خوبی رایانه‌های دیجیتال در وظایف پیچیده هوش مصنوعی مانند تشخیص تصویر و گفتار عمل کند و نویسندگان ادعا می‌کنند که تا ۱۰۰۰ برابر انرژی کارآمدتر است و این امکان را برای تراشه‌های کوچک برای اجرای الگوریتم‌های پیچیده‌تر فراهم می‌کند. در دستگاه‌های کوچکی که قبلاً برای هوش مصنوعی مانند ساعت‌های هوشمند و تلفن‌ها نامناسب بودند.

محققانی که در این کار شرکت نکرده‌اند، عمیقاً تحت تأثیر نتایج قرار گرفته‌اند. گفت: "این مقاله بسیار منحصر به فرد است." ژونگروی وانگ، محقق قدیمی RRAM در دانشگاه هنگ کنگ. در سطوح مختلف - در سطح دستگاه، در سطح معماری مدار، و در سطح الگوریتم مشارکت دارد.

ایجاد خاطرات جدید

در رایانه‌های دیجیتال، هدر رفتن مقادیر زیادی انرژی در حین اجرای الگوریتم‌های هوش مصنوعی ناشی از یک نقص طراحی ساده و فراگیر است که هر محاسباتی را ناکارآمد می‌کند. به طور معمول، حافظه رایانه - که داده ها و مقادیر عددی را در حین محاسبه خرد می کند - در مادربرد دور از پردازنده، جایی که محاسبات انجام می شود، قرار می گیرد.

وان، دانشمند کامپیوتر سابقاً در دانشگاه استنفورد که اخیراً به استارت‌آپ هوش مصنوعی Aizip نقل مکان کرده است، می‌گوید: برای اطلاعاتی که از طریق پردازنده در جریان است، «مثل این است که شما هشت ساعت را در رفت و آمد می‌گذرانید، اما دو ساعت کار می‌کنید.

معرفی

رفع این مشکل با تراشه های همه کاره جدید که حافظه و محاسبات را در یک مکان قرار می دهند، ساده به نظر می رسد. همچنین به نحوه پردازش اطلاعات مغز ما نزدیک‌تر است، زیرا بسیاری از عصب‌شناسان معتقدند که محاسبات درون جمعیت‌های نورون‌ها اتفاق می‌افتد، در حالی که خاطرات زمانی شکل می‌گیرند که سیناپس‌های بین نورون‌ها اتصالات آنها را تقویت یا ضعیف می‌کنند. اما ایجاد چنین دستگاه‌هایی دشوار است، زیرا اشکال فعلی حافظه با فناوری پردازنده‌ها ناسازگار است.

دانشمندان علوم کامپیوتر چندین دهه پیش موادی را برای ایجاد تراشه‌های جدید توسعه دادند که محاسبات را در جایی که حافظه ذخیره می‌شود انجام می‌دهند - فناوری به نام محاسبه در حافظه. اما با عملکرد بسیار خوب رایانه های دیجیتال سنتی، این ایده ها برای دهه ها نادیده گرفته شد.

وانگ، استاد دانشگاه استنفورد، گفت: «این کار، درست مانند بسیاری از کارهای علمی، به نوعی فراموش شده بود.

در واقع، اولین چنین دستگاهی حداقل به سال 1964 برمی گردد، زمانی که مهندسان برق در استنفورد کشف کردند که می توانند مواد خاصی به نام اکسیدهای فلزی را دستکاری کنند تا توانایی آنها برای هدایت الکتریسیته روشن و خاموش شود. این مهم است زیرا توانایی یک ماده برای تغییر بین دو حالت، ستون فقرات ذخیره سازی حافظه سنتی را فراهم می کند. به طور معمول، در حافظه دیجیتال، حالت ولتاژ بالا با 1 و ولتاژ پایین با 0 مطابقت دارد.

برای اینکه یک دستگاه RRAM حالت‌ها را تغییر دهد، ولتاژی را روی الکترودهای فلزی که به دو سر اکسید فلز متصل هستند اعمال می‌کنید. به طور معمول، اکسیدهای فلزی عایق هستند، به این معنی که آنها الکتریسیته را هدایت نمی کنند. اما با ولتاژ کافی، جریان افزایش می یابد و در نهایت از نقاط ضعیف ماده عبور می کند و مسیری را به سمت الکترود در سمت دیگر ایجاد می کند. هنگامی که جریان عبور کرد، می تواند آزادانه در آن مسیر جریان یابد.

وونگ این فرآیند را به رعد و برق تشبیه می کند: وقتی بار کافی در یک ابر جمع می شود، به سرعت مسیری با مقاومت کم پیدا می کند و رعد و برق به آن برخورد می کند. اما بر خلاف رعد و برق که مسیر آن ناپدید می شود، مسیر عبور از اکسید فلز باقی می ماند، به این معنی که به طور نامحدود رسانا می ماند. و این امکان وجود دارد که مسیر رسانا را با اعمال ولتاژ دیگری به ماده پاک کنید. بنابراین محققان می توانند یک RRAM را بین دو حالت تغییر دهند و از آنها برای ذخیره حافظه دیجیتال استفاده کنند.

محققان قرن میانی پتانسیل محاسبات با انرژی کارآمد را تشخیص ندادند و با الگوریتم‌های کوچک‌تری که با آن کار می‌کردند به آن نیاز نداشتند. تا اوایل دهه 2000، با کشف اکسیدهای فلزی جدید، محققان به این احتمالات پی بردند.

وونگ که در آن زمان در IBM کار می‌کرد، به یاد می‌آورد که یکی از همکاران برنده جایزه که روی RRAM کار می‌کرد اعتراف کرد که فیزیک را کاملاً درک نکرده است. وونگ به یاد می‌آورد: «اگر او آن را درک نمی‌کند، شاید من نباید سعی کنم آن را بفهمم.»

اما در سال 2004، محققان سامسونگ الکترونیکس اعلام کردند که این کار را انجام داده اند حافظه RRAM با موفقیت یکپارچه شد ساخته شده بر روی یک تراشه محاسباتی سنتی، نشان می دهد که یک تراشه محاسباتی در حافظه ممکن است در نهایت امکان پذیر شود. وونگ تصمیم گرفت حداقل تلاش کند.

تراشه های محاسباتی در حافظه برای هوش مصنوعی

 برای بیش از یک دهه، محققانی مانند Wong برای ایجاد فناوری RRAM تا حدی کار کردند که بتواند به طور قابل اعتماد وظایف محاسباتی پرقدرت را انجام دهد. در حدود سال 2015، دانشمندان کامپیوتر شروع به شناسایی پتانسیل عظیم این دستگاه‌های کم مصرف برای الگوریتم‌های بزرگ هوش مصنوعی کردند، که در حال رشد بودند. در آن سال، دانشمندان دانشگاه کالیفرنیا، سانتا باربارا نشان داد که دستگاه های RRAM می توانند بیشتر از صرفاً حافظه را به روشی جدید ذخیره کنند. آنها می توانند وظایف محاسباتی اساسی را خودشان انجام دهند - از جمله اکثر محاسباتی که در نورون های مصنوعی شبکه عصبی انجام می شود، که وظایف ضرب ماتریس ساده ای هستند.

در تراشه NeuRRAM، نورون‌های سیلیکونی در سخت‌افزار تعبیه شده‌اند و سلول‌های حافظه RRAM وزن‌ها را ذخیره می‌کنند - مقادیری که قدرت اتصالات بین نورون‌ها را نشان می‌دهند. و از آنجایی که سلول‌های حافظه NeuRRAM آنالوگ هستند، وزن‌هایی که ذخیره می‌کنند نشان‌دهنده طیف کامل حالت‌های مقاومتی است که هنگام تغییر دستگاه بین حالت مقاومت کم به حالت مقاومت بالا رخ می‌دهد. این امر حتی بازده انرژی بالاتری را نسبت به حافظه RRAM دیجیتالی که می‌تواند به دست آورد را ممکن می‌سازد، زیرا تراشه می‌تواند بسیاری از محاسبات ماتریس را به صورت موازی انجام دهد - به جای اینکه مانند نسخه‌های پردازش دیجیتال، به صورت قفلی یکی پس از دیگری انجام شود.

اما از آنجایی که پردازش آنالوگ هنوز چندین دهه از پردازش دیجیتال عقب است، هنوز مشکلات زیادی وجود دارد که باید برطرف شود. یکی این است که تراشه های RRAM آنالوگ باید به طور غیرعادی دقیق باشند زیرا نقص در تراشه فیزیکی می تواند باعث تغییر و نویز شود. (برای تراشه‌های سنتی، با تنها دو حالت، این عیوب تقریباً چندان مهم نیستند.) این امر اجرای الگوریتم‌های هوش مصنوعی را برای دستگاه‌های RRAM آنالوگ به‌طور قابل‌توجهی سخت‌تر می‌کند، با توجه به اینکه دقت، مثلاً، تشخیص یک تصویر در صورتی که وضعیت رسانایی دستگاه RRAM در هر زمان دقیقاً یکسان نیست.

وونگ گفت: "وقتی به یک مسیر روشنایی نگاه می کنیم، هر بار متفاوت است." "بنابراین در نتیجه، RRAM درجه خاصی از تصادفی را نشان می دهد - هر بار که آنها را برنامه ریزی می کنید کمی متفاوت است." وونگ و همکارانش ثابت کردند که دستگاه‌های RRAM می‌توانند وزن‌های پیوسته هوش مصنوعی را ذخیره کنند و همچنان به دقت رایانه‌های دیجیتالی باشند، اگر الگوریتم‌ها برای عادت به نویز روی تراشه آموزش داده شوند، پیشرفتی که آنها را قادر به تولید تراشه NeuRRAM کرد.

معرفی

مشکل اصلی دیگری که آنها باید حل می‌کردند، انعطاف‌پذیری لازم برای پشتیبانی از شبکه‌های عصبی متنوع بود. در گذشته، طراحان تراشه مجبور بودند دستگاه‌های RRAM کوچک را در یک ناحیه در کنار نورون‌های سیلیکونی بزرگ‌تر ردیف کنند. دستگاه‌های RRAM و نورون‌ها بدون قابلیت برنامه‌ریزی با سیم سخت متصل بودند، بنابراین محاسبات فقط در یک جهت انجام می‌شد. برای پشتیبانی از شبکه‌های عصبی با محاسبات دو طرفه، سیم‌ها و مدارهای اضافی لازم بود که نیاز به انرژی و فضا را افزایش می‌داد.

بنابراین تیم Wong یک معماری تراشه جدید طراحی کرد که در آن دستگاه های حافظه RRAM و نورون های سیلیکونی با هم مخلوط می شدند. این تغییر کوچک در طراحی باعث کاهش کل مساحت و صرفه جویی در مصرف انرژی شد.

گفت: "من فکر می کردم [این تنظیم] واقعا زیبا بود." ملیکا پیوند، یک محقق نورومورفیک در موسسه فدرال فناوری سوئیس زوریخ. "من قطعا آن را یک کار پیشگامانه می دانم."

برای چندین سال، تیم Wong با همکاران برای طراحی، ساخت، آزمایش، کالیبره و اجرای الگوریتم‌های AI بر روی تراشه NeuRRAM کار کرد. آنها استفاده از انواع دیگر حافظه های نوظهور را در نظر گرفتند که می توانند در تراشه های محاسباتی در حافظه نیز استفاده شوند، اما RRAM به دلیل مزایای آن در برنامه نویسی آنالوگ و به دلیل اینکه ادغام با مواد محاسباتی سنتی نسبتاً آسان بود، برتری داشت.

نتایج اخیر آن‌ها نشان‌دهنده اولین تراشه RRAM است که می‌تواند چنین الگوریتم‌های هوش مصنوعی بزرگ و پیچیده‌ای را اجرا کند - شاهکاری که قبلاً فقط در شبیه‌سازی‌های نظری امکان‌پذیر بود. گفت: "وقتی صحبت از سیلیکون واقعی می شود، این قابلیت وجود نداشت." آنوپ داس، دانشمند کامپیوتر در دانشگاه درکسل. "این کار اولین نمایش است."

Cauwenberghs گفت: «سیستم‌های هوش مصنوعی دیجیتال انعطاف‌پذیر و دقیق هستند، اما درجه‌ای از کارایی کمتری دارند. اکنون، Cauwenberghs گفت، تراشه آنالوگ RRAM انعطاف‌پذیر، دقیق و کم مصرف آنها «برای اولین بار شکاف را پر کرده است».

افزایش مقیاس

طراحی تیم، تراشه NeuRRAM را کوچک نگه می‌دارد - فقط به اندازه یک ناخن - در حالی که 3 میلیون دستگاه حافظه RRAM را فشرده می‌کند که می‌توانند به عنوان پردازنده آنالوگ عمل کنند. و در حالی که می تواند شبکه های عصبی را حداقل به خوبی کامپیوترهای دیجیتال اجرا کند، تراشه همچنین (و برای اولین بار) می تواند الگوریتم هایی را اجرا کند که محاسبات را در جهات مختلف انجام می دهند. تراشه آن‌ها می‌تواند ولتاژی را به ردیف‌های آرایه RRAM وارد کند و خروجی‌ها را از ستون‌ها بخواند، همانطور که برای تراشه‌های RRAM استاندارد است، اما همچنین می‌تواند این کار را از ستون‌ها به ردیف‌ها به عقب انجام دهد، بنابراین می‌توان از آن در شبکه‌های عصبی که کار می‌کنند استفاده کرد. با داده هایی که در جهات مختلف جریان دارند.

مانند خود فناوری RRAM، این مدت طولانی امکان پذیر بوده است، اما هیچ کس فکر نمی کند این کار را انجام دهد. "چرا قبلاً به این موضوع فکر نکردیم؟" پیوند پرسید. "در گذشته، من نمی دانم."

داس گفت: "این در واقع فرصت های زیادی را باز می کند." به عنوان مثال، او توانایی یک سیستم ساده برای اجرای الگوریتم های عظیم مورد نیاز برای شبیه سازی های فیزیک چند بعدی یا اتومبیل های خودران را ذکر کرد.

با این حال اندازه یک مسئله است. اکنون بزرگترین شبکه های عصبی حاوی میلیاردها وزن هستند، نه میلیون ها وزن موجود در تراشه های جدید. Wong قصد دارد با قرار دادن چندین تراشه NeuRRAM روی هم، مقیاس را افزایش دهد.

پایین نگه داشتن هزینه های انرژی در دستگاه های آینده یا کاهش بیشتر آنها به همان اندازه مهم خواهد بود. یکی از راه های رسیدن به آنجا این است کپی کردن مغز حتی با دقت بیشتری از سیگنال ارتباطی مورد استفاده بین نورون های واقعی استفاده می کند: سنبله الکتریکی. این سیگنالی است که زمانی که اختلاف ولتاژ بین داخل و خارج سلول به یک آستانه بحرانی می رسد، از یک نورون به نورون دیگر شلیک می شود.

گفت: «چالش‌های بزرگی در آنجا وجود دارد تونی کنیونمحقق نانوتکنولوژی در دانشگاه کالج لندن. "اما ما هنوز هم ممکن است بخواهیم در این جهت حرکت کنیم، زیرا ... اگر از میخ های بسیار پراکنده استفاده می کنید، به احتمال زیاد بازده انرژی بیشتری خواهید داشت." کنیون خاطرنشان کرد، برای اجرای الگوریتم‌هایی که روی تراشه NeuRRAM فعلی افزایش می‌یابند، احتمالاً به معماری کاملاً متفاوتی نیاز است.

در حال حاضر، کارایی انرژی که این تیم هنگام اجرای الگوریتم‌های هوش مصنوعی بزرگ روی تراشه NeuRRAM به دست آورد، امید جدیدی ایجاد کرده است که فناوری‌های حافظه ممکن است آینده محاسباتی با هوش مصنوعی را نشان دهند. شاید روزی ما حتی بتوانیم 86 میلیارد نورون مغز انسان و تریلیون ها سیناپسی که آنها را بدون تمام شدن توانشان به هم متصل می کنند، مطابقت دهیم.

تمبر زمان:

بیشتر از مجله کوانتاما