باز کردن جعبه سیاه برای ساخت مدل‌های هوش مصنوعی بهتر

باز کردن جعبه سیاه برای ساخت مدل‌های هوش مصنوعی بهتر

بسته‌بندی «جعبه سیاه» را برای ساختن مدل‌های بهتر هوش مصنوعی پلاتوبلاکچین داده هوشیاری باز کنید. جستجوی عمودی Ai.

هنگامی که مدل‌های یادگیری عمیق در دنیای واقعی به کار گرفته می‌شوند، شاید برای شناسایی تقلب مالی ناشی از فعالیت کارت اعتباری یا شناسایی سرطان در تصاویر پزشکی، اغلب می‌توانند از انسان‌ها بهتر عمل کنند.

اما این مدل های یادگیری عمیق دقیقاً چه چیزی را یاد می گیرند؟ آیا یک مدل آموزش دیده برای تشخیص سرطان پوست در تصاویر بالینی، به عنوان مثال، در واقع رنگ ها و بافت های بافت سرطانی را یاد می گیرد یا برخی از ویژگی ها یا الگوهای دیگر را نشان می دهد؟

این مدل‌های قدرتمند یادگیری ماشینی معمولاً مبتنی بر شبکه های عصبی مصنوعی که می تواند میلیون ها گره داشته باشد که داده ها را برای پیش بینی پردازش می کند. به دلیل پیچیدگی آنها، محققان اغلب این مدل ها را "جعبه سیاه" می نامند، زیرا حتی دانشمندانی که آنها را می سازند، همه چیزهایی که در زیر کاپوت می گذرد را درک نمی کنند.

استفانی جگلکا از توضیح «جعبه سیاه» راضی نیست. جگلکا که به تازگی به عنوان دانشیار در بخش مهندسی برق و علوم کامپیوتر MIT مشغول به کار است، در حال حفاری عمیق در یادگیری عمیق است تا بفهمد این مدل‌ها چه چیزی می‌توانند بیاموزند و چگونه رفتار می‌کنند، و چگونه می‌توان اطلاعات قبلی را در این مدل‌ها ایجاد کرد.

«در پایان روز، اینکه یک مدل یادگیری عمیق چه خواهد آموخت به عوامل بسیاری بستگی دارد. اما ایجاد درک درستی که در عمل مرتبط باشد به ما کمک می‌کند مدل‌های بهتری طراحی کنیم، و همچنین به ما کمک می‌کند تا بفهمیم در داخل آن‌ها چه می‌گذرد تا بدانیم چه زمانی می‌توانیم یک مدل را اجرا کنیم و چه زمانی نمی‌توانیم. جگلکا، که همچنین یکی از اعضای آزمایشگاه علوم کامپیوتر و هوش مصنوعی (CSAIL) و موسسه داده، سیستم‌ها و جامعه (IDSS) است، می‌گوید که این بسیار مهم است.

Jegelka به خصوص به بهینه سازی مدل های یادگیری ماشینی علاقه دارد زمانی که داده های ورودی به شکل نمودار هستند. داده‌های نمودار چالش‌های خاصی را ایجاد می‌کنند: به عنوان مثال، اطلاعات موجود در داده‌ها هم از اطلاعات مربوط به گره‌ها و لبه‌ها و هم از ساختار - چه چیزی به چه چیزی متصل است. علاوه بر این، نمودارها دارای تقارن های ریاضی هستند که باید توسط مدل یادگیری ماشینی رعایت شود، به طوری که، برای مثال، نمودار یکسان همیشه به یک پیش بینی منجر می شود. ایجاد چنین تقارن هایی در یک مدل یادگیری ماشینی معمولاً آسان نیست.

به عنوان مثال، مولکول ها را در نظر بگیرید. مولکول ها را می توان به صورت نمودار نشان داد، با رئوس مربوط به اتم ها و یال هایی که مربوط به پیوندهای شیمیایی بین آنهاست. شرکت‌های دارویی ممکن است بخواهند از یادگیری عمیق برای پیش‌بینی سریع خواص بسیاری از مولکول‌ها استفاده کنند و تعداد آنها را که باید در آزمایشگاه آزمایش فیزیکی کنند، محدود کنند.

جگلکا روش‌هایی را برای ساختن مدل‌های یادگیری ماشینی ریاضی مطالعه می‌کند که می‌توانند به طور موثر داده‌های نمودار را به عنوان ورودی و خروجی چیز دیگری، در این مورد پیش‌بینی خواص شیمیایی یک مولکول، دریافت کنند. این امر به ویژه چالش برانگیز است زیرا خواص یک مولکول نه تنها توسط اتم های درون آن، بلکه توسط اتصالات بین آنها تعیین می شود.  

نمونه‌های دیگر یادگیری ماشین روی نمودارها شامل مسیریابی ترافیک، طراحی تراشه و سیستم‌های توصیه‌کننده است.

طراحی این مدل‌ها با این واقعیت که داده‌های مورد استفاده برای آموزش آن‌ها اغلب با داده‌هایی که مدل‌ها در عمل می‌بینند متفاوت است، دشوارتر می‌شود. شاید این مدل با استفاده از نمودارهای مولکولی کوچک یا شبکه های ترافیکی آموزش داده شده باشد، اما نمودارهایی که پس از استقرار می بیند بزرگتر یا پیچیده تر هستند.

در این صورت، محققین چه چیزی می توانند از این مدل انتظار داشته باشند که یاد بگیرد و آیا اگر داده های دنیای واقعی متفاوت باشد، همچنان در عمل کار خواهد کرد؟

جگلکا می‌گوید: «مدل شما نمی‌تواند همه چیز را به دلیل برخی مشکلات سختی در علوم رایانه یاد بگیرد، اما اینکه چه چیزی می‌توانید یاد بگیرید و چه چیزی نمی‌توانید بیاموزید بستگی به نحوه تنظیم مدل دارد.

او با ترکیب اشتیاق خود به الگوریتم ها و ریاضیات گسسته با هیجان خود برای یادگیری ماشین به این سوال نزدیک می شود.

از پروانه ها تا بیوانفورماتیک

جگلکا در شهر کوچکی در آلمان بزرگ شد و زمانی که دانش آموز دبیرستان بود به علم علاقه مند شد. یک معلم حامی او را تشویق کرد تا در یک مسابقه علمی بین المللی شرکت کند. او و هم تیمی هایش از ایالات متحده و سنگاپور برای وب سایتی که در مورد پروانه ها به سه زبان ایجاد کردند، جایزه گرفتند.

برای پروژه خود، تصاویری از بال ها با میکروسکوپ الکترونی روبشی در دانشگاه علوم کاربردی محلی گرفتیم. من همچنین این فرصت را داشتم که از یک دوربین پرسرعت در مرسدس بنز استفاده کنم - این دوربین معمولاً از موتورهای احتراقی فیلمبرداری می کرد - که از آن برای ضبط یک فیلم آهسته از حرکت بال های پروانه استفاده کردم. این اولین باری بود که واقعاً با علم و اکتشاف ارتباط برقرار کردم.» او به یاد می آورد.

جگلکا که شیفته زیست شناسی و ریاضیات بود، تصمیم گرفت بیوانفورماتیک را در دانشگاه توبینگن و دانشگاه تگزاس در آستین مطالعه کند. او فرصت‌های کمی برای انجام تحقیقات در مقطع کارشناسی داشت، از جمله کارآموزی در علوم اعصاب محاسباتی در دانشگاه جورج تاون، اما مطمئن نبود که چه شغلی را دنبال کند.

وقتی جگلکا برای سال آخر کالج بازگشت، با دو هم اتاقی که به عنوان دستیار پژوهشی در موسسه ماکس پلانک در توبینگن کار می کردند، نقل مکان کرد.

«آنها روی یادگیری ماشین کار می کردند، و این برای من بسیار جالب به نظر می رسید. باید پایان نامه کارشناسی ام را می نوشتم، بنابراین از موسسه پرسیدم که آیا پروژه ای برای من دارند؟ من کار بر روی یادگیری ماشینی را در موسسه ماکس پلانک شروع کردم و آن را دوست داشتم. من در آنجا چیزهای زیادی یاد گرفتم و مکان بسیار خوبی برای تحقیق بود.

او در مؤسسه ماکس پلانک ماند تا پایان نامه کارشناسی ارشد خود را به پایان برساند و سپس دکترای خود را در یادگیری ماشین در مؤسسه ماکس پلانک و مؤسسه فناوری فدرال سوئیس آغاز کرد..

او در طول دکترای خود به بررسی این موضوع پرداخت که چگونه مفاهیم ریاضیات گسسته می توانند به بهبود تکنیک های یادگیری ماشینی کمک کنند.

آموزش مدل هایی برای یادگیری

هر چه جگلکا بیشتر در مورد یادگیری ماشینی یاد می‌گرفت، چالش‌های درک نحوه رفتار مدل‌ها و نحوه هدایت این رفتار را بیشتر مجذوب خود می‌کرد.

"شما می توانید کارهای زیادی را با یادگیری ماشین انجام دهید، اما تنها در صورتی که مدل و داده مناسبی داشته باشید. این فقط یک جعبه سیاه نیست که آن را به داده ها پرتاب کنید و کار می کند. شما در واقع باید در مورد آن، ویژگی های آن، و آنچه می خواهید مدل یاد بگیرد و انجام دهد فکر کنید.» او می گوید.

جگلکا پس از گذراندن دوره فوق دکتری در دانشگاه کالیفرنیا در برکلی، درگیر تحقیق شد و تصمیم گرفت در دانشگاه به دنبال شغلی باشد. او در سال 2015 به عنوان استادیار به دانشکده MIT پیوست.

چیزی که من از همان ابتدا در مورد MIT دوست داشتم این بود که مردم واقعاً به تحقیق و خلاقیت اهمیت می دهند. این چیزی است که در مورد MIT بیشتر از همه قدردانی می کنم. مردم اینجا واقعا برای اصالت و عمق در تحقیق ارزش قائل هستند.

این تمرکز بر خلاقیت، جگلکا را قادر ساخته تا طیف وسیعی از موضوعات را بررسی کند.

او با همکاری سایر اساتید دانشگاه MIT، کاربردهای یادگیری ماشینی را در زیست شناسی، تصویربرداری، بینایی کامپیوتر و علم مواد مطالعه می کند.

اما چیزی که واقعاً جگلکا را هدایت می‌کند، بررسی اصول یادگیری ماشین و اخیراً موضوع استحکام است. اغلب، یک مدل روی داده های آموزشی عملکرد خوبی دارد، اما عملکرد آن زمانی که روی داده های کمی متفاوت مستقر می شود، بدتر می شود. ایجاد دانش قبلی در یک مدل می‌تواند آن را قابل اعتمادتر کند، اما درک اینکه مدل برای موفقیت به چه اطلاعاتی نیاز دارد و چگونه می‌توان آن را ساخت چندان ساده نیست.

او همچنین در حال بررسی روش هایی برای بهبود عملکرد مدل های یادگیری ماشینی برای طبقه بندی تصاویر است.

مدل‌های طبقه‌بندی تصویر در همه جا وجود دارند، از سیستم‌های تشخیص چهره در تلفن‌های همراه تا ابزارهایی که حساب‌های جعلی را در رسانه‌های اجتماعی شناسایی می‌کنند. این مدل‌ها برای آموزش به حجم عظیمی از داده‌ها نیاز دارند، اما از آنجایی که برچسب‌گذاری دستی میلیون‌ها تصویر برای انسان گران است، محققان اغلب از مجموعه داده‌های بدون برچسب برای پیش‌آموزش مدل‌ها استفاده می‌کنند.

سپس این مدل‌ها از بازنمایی‌هایی که یاد گرفته‌اند، زمانی که بعداً برای یک کار خاص تنظیم می‌شوند، دوباره استفاده می‌کنند.

در حالت ایده‌آل، محققان می‌خواهند که مدل در طول پیش‌آموزش تا آنجا که می‌تواند بیاموزد، بنابراین می‌تواند آن دانش را در کار پایین دستی خود به کار گیرد. اما در عمل، این مدل‌ها اغلب فقط چند همبستگی ساده را یاد می‌گیرند – مانند اینکه یک تصویر دارای آفتاب و یکی دارای سایه است – و از این «میانبرها» برای طبقه‌بندی تصاویر استفاده می‌کنند.

ما نشان دادیم که این یک مشکل در «یادگیری متضاد» است، که یک تکنیک استاندارد برای پیش‌آموزش است، هم از لحاظ نظری و هم تجربی. اما ما همچنین نشان می‌دهیم که می‌توانید با تغییر انواع داده‌هایی که مدل را نشان می‌دهید، بر انواع اطلاعاتی که مدل یاد می‌گیرد نمایش دهد، تأثیر بگذارید. این یک گام به سوی درک این است که مدل‌ها در عمل چه کاری انجام می‌دهند.»

محققان هنوز همه چیزهایی را که در داخل یک مدل یادگیری عمیق می گذرد، یا جزئیاتی در مورد اینکه چگونه می توانند بر آنچه یک مدل می آموزد و نحوه رفتار آن تأثیر بگذارند، درک نمی کنند، اما Jegelka مشتاقانه منتظر ادامه کاوش در این موضوعات است.

«اغلب در یادگیری ماشینی، می بینیم که اتفاقی در عمل رخ می دهد و سعی می کنیم آن را به صورت نظری درک کنیم. این یک چالش بزرگ است. شما می خواهید درک درستی ایجاد کنید که با آنچه در عمل می بینید مطابقت داشته باشد، تا بتوانید بهتر انجام دهید. ما هنوز در ابتدای درک این موضوع هستیم.»

جگلکا در خارج از آزمایشگاه، طرفدار موسیقی، هنر، مسافرت و دوچرخه سواری است. اما این روزها بیشتر اوقات فراغت خود را با دختر پیش دبستانی خود می گذراند.

<!–
->

تمبر زمان:

بیشتر از مشاوران بلاک چین