چگونه به نظر می رسد ترانسفورماتورها بخش هایی از مغز را از هوش داده پلاتو بلاک چین تقلید می کنند. جستجوی عمودی Ai.

چگونه به نظر می رسد ترانسفورماتورها بخش هایی از مغز را تقلید می کنند

درک اینکه چگونه مغز اطلاعات مکانی را سازماندهی می کند و به آن دسترسی پیدا می کند - جایی که ما هستیم، آنچه در اطراف وجود دارد، چگونه به آنجا برسیم - یک چالش عالی باقی مانده است. این فرآیند شامل یادآوری یک شبکه کامل از حافظه ها و داده های فضایی ذخیره شده از ده ها میلیارد نورون است که هر کدام به هزاران نورون دیگر متصل هستند. عصب شناسان عناصر کلیدی مانند سلول های شبکه، نورون هایی که مکان ها را ترسیم می کنند. اما عمیق‌تر رفتن دشوار خواهد بود: اینطور نیست که محققان بتوانند برش‌هایی از ماده خاکستری انسان را حذف کرده و مطالعه کنند تا ببینند چگونه خاطرات مبتنی بر مکان از تصاویر، صداها و بوها جریان می‌یابند و به یکدیگر متصل می‌شوند.

هوش مصنوعی راه دیگری را ارائه می‌کند. برای سال‌ها، دانشمندان علوم اعصاب از انواع بسیاری از شبکه‌های عصبی - موتورهایی که اکثر برنامه‌های یادگیری عمیق را نیرو می‌دهند - برای مدل‌سازی شلیک نورون‌ها در مغز استفاده کرده‌اند. در کار اخیر، محققان نشان داده اند که هیپوکامپ، ساختاری از مغز که برای حافظه حیاتی است، اساساً نوع خاصی از شبکه عصبی است که به عنوان یک شبکه عصبی شناخته می شود. ترانسفورماتور، در لباس مبدل. مدل جدید آن‌ها اطلاعات مکانی را به‌گونه‌ای ردیابی می‌کند که به موازات عملکرد درونی مغز است. آنها موفقیت چشمگیری دیده اند.

این واقعیت که ما می‌دانیم این مدل‌های مغز معادل ترانسفورماتور هستند به این معنی است که مدل‌های ما بسیار بهتر عمل می‌کنند و آموزش آن‌ها آسان‌تر است. جیمز ویتینگتون، یک عصب شناس شناختی که زمان خود را بین دانشگاه استنفورد و آزمایشگاه تقسیم می کند تیم بهرنز در دانشگاه آکسفورد

مطالعات انجام شده توسط Whittington و دیگران نشان می دهد که ترانسفورماتورها می توانند توانایی مدل های شبکه عصبی را برای تقلید از انواع محاسبات انجام شده توسط سلول های شبکه و سایر بخش های مغز بهبود بخشند. ویتینگتون گفت، چنین مدل‌هایی می‌توانند درک ما را از نحوه عملکرد شبکه‌های عصبی مصنوعی و به احتمال زیاد، نحوه انجام محاسبات در مغز تقویت کنند.

گفت: "ما در تلاش برای بازسازی مغز نیستیم." دیوید ها، یک دانشمند کامپیوتر در Google Brain که روی مدل های ترانسفورماتور نیز کار می کند. اما آیا می توانیم مکانیزمی ایجاد کنیم که بتواند کاری را که مغز انجام می دهد انجام دهد؟

ترانسفورماتورها برای اولین بار پنج سال پیش به عنوان روشی جدید برای پردازش زبان توسط هوش مصنوعی ظاهر شدند. آنها سس مخفی در برنامه های تکمیل جملات سرفصل مانند هستند برت و GPT-3، که می‌تواند متن آهنگ قانع‌کننده ایجاد کند، غزل‌های شکسپیر را بسازد و خود را به نمایندگی از خدمات مشتری جعل کند.

ترانسفورماتورها با استفاده از مکانیزمی به نام خود توجهی کار می کنند که در آن هر ورودی - یک کلمه، یک پیکسل، یک عدد در یک دنباله - همیشه به هر ورودی دیگر متصل است. (شبکه‌های عصبی دیگر ورودی‌ها را فقط به ورودی‌های دیگر متصل می‌کنند.) اما در حالی که ترانسفورماتورها برای کارهای زبانی طراحی شده‌اند، از آن زمان در کارهای دیگری مانند طبقه‌بندی تصاویر - و اکنون مدل‌سازی مغز، سرآمد بوده‌اند.

در سال 2020، گروهی به رهبری سپ هوکرایتریک دانشمند کامپیوتر در دانشگاه یوهانس کپلر لینز در اتریش، از یک ترانسفورماتور برای بازسازی یک مدل قدرتمند و طولانی مدت از بازیابی حافظه به نام شبکه هاپفیلد استفاده کرد. این شبکه ها برای اولین بار 40 سال پیش توسط جان هاپفیلد، فیزیکدان پرینستون معرفی شدند، از یک قانون کلی پیروی می کنند: نورون هایی که در همان زمان فعال هستند، ارتباطات قوی با یکدیگر ایجاد می کنند.

هوکرایتر و همکارانش با اشاره به اینکه محققان به دنبال مدل‌های بهتری برای بازیابی حافظه بوده‌اند، ارتباطی بین نحوه بازیابی حافظه‌ها توسط شبکه‌های هاپفیلد و نحوه عملکرد ترانسفورماتورها مشاهده کردند. آنها شبکه هاپفیلد را ارتقا دادند و اساساً آن را به یک ترانسفورماتور تبدیل کردند. ویتینگتون گفت که این تغییر به مدل اجازه داد تا خاطرات بیشتری را به دلیل اتصالات موثرتر ذخیره و بازیابی کند. خود هاپفیلد به همراه دیمیتری کروتوف در آزمایشگاه هوش مصنوعی واتسون MIT-IBM ثابت کردند که شبکه هاپفیلد مبتنی بر ترانسفورماتور از نظر بیولوژیکی قابل قبول است.

سپس، در اوایل سال جاری، ویتینگتون و بهرنز به تغییر بیشتر رویکرد هوکرایتر کمک کردند و ترانسفورماتور را طوری اصلاح کردند که به جای اینکه خاطرات را به عنوان یک دنباله خطی تلقی کند - مانند رشته ای از کلمات در یک جمله - آنها را به عنوان مختصاتی در فضاهای با ابعاد بالاتر رمزگذاری کرد. آن «پیچش»، همانطور که محققان آن را نامیدند، عملکرد مدل را در وظایف علوم اعصاب بیشتر بهبود بخشید. آنها همچنین نشان دادند که این مدل از نظر ریاضی معادل مدل‌های الگوهای شلیک سلول شبکه‌ای است که عصب‌شناسان در اسکن‌های fMRI مشاهده می‌کنند.

کاسول بری، عصب‌شناس در دانشگاه کالج لندن، می‌گوید: «سلول‌های شبکه‌ای این نوع ساختار هیجان‌انگیز، زیبا، منظم و با الگوهای خیره‌کننده‌ای دارند که بعید است به‌طور تصادفی ظاهر شوند. کار جدید نشان داد که چگونه ترانسفورماتورها دقیقاً همان الگوهای مشاهده شده در هیپوکامپ را تکرار می کنند. آنها متوجه شدند که یک ترانسفورماتور می تواند بفهمد که بر اساس حالت های قبلی کجاست و چگونه حرکت می کند، و به روشی که در مدل های سنتی سلول های شبکه کلید می خورد.

کار اخیر دیگر نشان می دهد که ترانسفورماتورها می توانند درک ما را از سایر عملکردهای مغز نیز ارتقا دهند. سال گذشته، مارتین شریمپ، عصب شناس محاسباتی در موسسه فناوری ماساچوست، 43 مدل شبکه عصبی مختلف را تجزیه و تحلیل کرد برای اینکه ببینند آنها چقدر اندازه‌گیری‌های فعالیت عصبی انسان را که توسط fMRI و الکتروکورتیکوگرافی گزارش شده بود، پیش‌بینی کردند. او دریافت که ترانسفورماتورها شبکه های عصبی پیشرو و پیشرفته فعلی هستند که تقریباً تمام تغییرات موجود در تصویربرداری را پیش بینی می کنند.

و ها، همراه با دانشمند کامپیوتر یوجین تانگ، اخیراً مدلی طراحی کرده است که می تواند عمداً مقادیر زیادی داده را از طریق یک ترانسفورماتور به روشی تصادفی و نامرتب ارسال کند و تقلید کند که چگونه بدن انسان مشاهدات حسی را به مغز منتقل می کند. ترانسفورماتور آنها، مانند مغز ما، می تواند با موفقیت یک جریان نامنظم اطلاعات را مدیریت کند.

تانگ می‌گوید: «شبکه‌های عصبی برای پذیرش یک ورودی خاص به سختی متصل می‌شوند. اما در زندگی واقعی، مجموعه داده ها اغلب به سرعت تغییر می کنند و بیشتر هوش مصنوعی هیچ راهی برای تنظیم ندارند. ما می‌خواستیم معماری‌ای را آزمایش کنیم که بتواند خیلی سریع با آن سازگار شود.»

علی‌رغم این نشانه‌های پیشرفت، Behrens ترانسفورماتورها را تنها گامی به سوی مدل دقیق مغز می‌داند - نه پایان کار. او گفت: "من باید در اینجا یک عصب شناس بدبین باشم." من فکر نمی‌کنم که ترانسفورماتورها در نهایت همان چیزی باشند که ما در مورد زبان در مغز فکر می‌کنیم، حتی اگر بهترین مدل جملات فعلی را داشته باشند.»

«آیا این کارآمدترین مبنای برای پیش‌بینی در مورد اینکه کجا هستم و آنچه در آینده خواهم دید، این است؟ اگر صادقانه بگویم، برای گفتن خیلی زود است.»

شریمف همچنین خاطرنشان کرد که حتی ترانسفورماتورهای با بهترین عملکرد نیز محدود هستند، به عنوان مثال برای کلمات و عبارات کوتاه به خوبی کار می کنند، اما برای کارهای زبانی در مقیاس بزرگتر مانند داستان گفتن کار نمی کنند.

شریمپف گفت: "احساس من این است که این معماری، این ترانسفورماتور، شما را در فضای مناسب برای درک ساختار مغز قرار می دهد و می تواند با آموزش بهبود یابد." "این یک مسیر خوب است، اما این زمینه بسیار پیچیده است."

تمبر زمان:

بیشتر از مجله کوانتاما