تنظیم خودکار مدل Amazon SageMaker Autotune را معرفی کرده است، یک ویژگی جدید برای انتخاب خودکار هایپرپارامترها از طرف شما. این یک راه سریع و کارآمدتر برای یافتن محدوده هایپرپارامتر فراهم می کند و می تواند بودجه و زمان بهینه شده قابل توجهی را برای کارهای تنظیم خودکار مدل شما فراهم کند.
در این پست به این قابلیت جدید و برخی از مزایای آن می پردازیم.
نمای کلی فراپارامتر
هنگام آموزش هر مدل یادگیری ماشینی (ML)، به طور کلی با سه نوع داده سر و کار دارید: داده های ورودی (که داده های آموزشی نیز نامیده می شود)، پارامترهای مدل و هایپرپارامترها. شما از داده های ورودی برای آموزش مدل خود استفاده می کنید که در واقع پارامترهای مدل شما را یاد می گیرد. در طول فرآیند آموزش، الگوریتمهای ML شما سعی میکنند پارامترهای مدل بهینه را بر اساس دادهها پیدا کنند، در حالی که اهداف تابع هدف شما را برآورده میکنند. به عنوان مثال، هنگامی که یک شبکه عصبی آموزش داده می شود، وزن گره های شبکه از آموزش آموخته می شود و نشان می دهد که چقدر بر پیش بینی نهایی تأثیر می گذارد. این وزن ها پارامترهای مدل هستند.
از سوی دیگر، فراپارامترها پارامترهای یک الگوریتم یادگیری هستند و نه خود مدل. تعداد لایه های پنهان و تعداد گره ها نمونه هایی از فراپارامترهایی هستند که می توانید برای یک شبکه عصبی تنظیم کنید. تفاوت بین پارامترهای مدل و فراپارامترها در این است که پارامترهای مدل در طول فرآیند آموزش یاد میشوند، در حالی که فراپارامترها قبل از آموزش تنظیم میشوند و در طول فرآیند آموزش ثابت میمانند.
نقاط درد
تنظیم خودکار مدل SageMaker که به آن تنظیم هایپرپارامتر نیز می گویند، بسیاری از کارهای آموزشی را روی مجموعه داده شما با استفاده از طیف وسیعی از فراپارامترهایی که شما مشخص کرده اید اجرا می کند. این می تواند بهره وری شما را با آزمایش انواع مختلف یک مدل تسریع کند. با تمرکز بر روی امیدوارکنندهترین ترکیب مقادیر فراپارامتر در محدودههایی که شما مشخص میکنید، بهطور خودکار بهترین مدل را جستجو میکند. با این حال، برای به دست آوردن نتایج خوب، باید محدوده های مناسب را برای کاوش انتخاب کنید.
اما چگونه می دانید که محدوده مناسب برای شروع چیست؟ با کارهای تنظیم هایپرپارامتر، ما فرض می کنیم که مجموعه بهینه هایپرپارامترها در محدوده ای است که ما مشخص کردیم. اگر محدوده انتخاب شده درست نباشد و فراپارامتر بهینه در واقع خارج از محدوده باشد، چه اتفاقی میافتد؟
انتخاب ابرپارامترهای مناسب نیاز به تجربه با تکنیک ML مورد استفاده شما و درک نحوه رفتار ابرپارامترهای آن دارد. درک مفاهیم هایپرپارامتر بسیار مهم است زیرا هر هایپرپارامتری که برای تنظیم انتخاب می کنید، پتانسیل افزایش تعداد آزمایش های مورد نیاز برای یک کار تنظیم موفق را دارد. شما باید بین منابع تخصیص داده شده به کار تنظیم و دستیابی به اهدافی که تعیین کرده اید، یک مبادله بهینه ایجاد کنید.
تیم تنظیم خودکار مدل SageMaker دائماً از طرف مشتریان خود در حال نوآوری هستند تا بار کاری ML خود را بهینه کنند. AWS اخیرا اعلام کرد پشتیبانی از معیارهای تکمیل جدید برای بهینه سازی هایپرپارامتر: معیار حداکثر زمان اجرا، که یک معیار تکمیل کنترل بودجه است که می تواند برای محدود کردن هزینه و زمان اجرا استفاده شود. معیارهای هدف مورد نظر، نظارت بهبود، و تشخیص همگرایی عملکرد مدل را نظارت میکند و در صورت عدم بهبود مدلها پس از تعداد مشخصی از مشاغل آموزشی، به توقف اولیه کمک میکند. Autotune یک ویژگی جدید از تنظیم خودکار مدل است که به شما کمک می کند در زمان شما صرفه جویی کنید و منابع هدر رفته را برای یافتن محدوده هایپرپارامتر بهینه کاهش دهید.
مزایای Autotune و اینکه چگونه تنظیم خودکار مدل این نقاط درد را کاهش می دهد
Autotune یک پیکربندی جدید در است CreateHyperParameterTuningJob
API و در HyperparameterTuner
SageMaker Python SDK که نیاز به تعیین محدوده هایپرپارامتر، استراتژی تنظیم، معیارهای هدف یا تعداد کارهایی که به عنوان بخشی از تعریف شغل مورد نیاز بود را کاهش می دهد. Autotune به طور خودکار پیکربندی های بهینه را برای کار تنظیم شما انتخاب می کند، به جلوگیری از هدر رفتن منابع کمک می کند و بهره وری را تسریع می بخشد.
مثال زیر نشان می دهد که چه تعداد از پارامترها هنگام استفاده از Autotune ضروری نیستند.
کد زیر با استفاده از SageMaker Python SDK بدون Autotune یک تیونر هایپرپارامتر ایجاد می کند:
مثال زیر نشان می دهد که چه تعداد از پارامترها هنگام استفاده از Autotune ضروری نیستند:
اگر از API استفاده می کنید، کد معادل به صورت زیر خواهد بود:
مثال کد برخی از مزایای کلیدی Autotune را نشان می دهد:
- یک انتخاب کلیدی برای کار تنظیم این است که کدام هایپرپارامترها و محدوده آنها تنظیم شود. Autotune این انتخاب را برای شما بر اساس لیستی از فراپارامترهایی که ارائه می دهید انجام می دهد. با استفاده از مثال قبلی، هایپرپارامترهایی که Autotune می تواند برای تنظیم انتخاب کند، هستند
lr
وbatch-size
. - Autotune به طور خودکار محدوده هایپرپارامتر را از طرف شما انتخاب می کند. Autotune از بهترین شیوه ها و همچنین معیارهای داخلی برای انتخاب محدوده های مناسب استفاده می کند.
- Autotune به طور خودکار استراتژی نحوه انتخاب ترکیبی از مقادیر فراپارامتر را برای استفاده در کار آموزشی انتخاب می کند.
- هنگام استفاده از Autotune، توقف زودهنگام به طور پیش فرض فعال است. هنگام استفاده از توقف زودهنگام، SageMaker کارهای آموزشی راهاندازی شده توسط کار تنظیم فراپارامتر را زمانی که بعید به نظر میرسد عملکرد بهتری نسبت به کارهای آموزشی تکمیلشده قبلی داشته باشند، متوقف میکند تا از استفاده از منابع اضافی جلوگیری شود.
- حداکثر منابع مورد انتظار مصرف شده توسط کار تنظیم (کارهای موازی، حداکثر زمان اجرا و غیره) محاسبه و به محض ایجاد کار تنظیم در رکورد کار تنظیم تنظیم می شود. چنین منابع رزرو شده در طول کار تنظیم افزایش نخواهد یافت. این یک حد بالایی از هزینه و مدت زمان کار تنظیم را حفظ می کند که به راحتی توسط کاربر قابل پیش بینی است. حداکثر زمان اجرا 48 ساعت به طور پیش فرض استفاده می شود.
میتوانید تنظیماتی را که بهطور خودکار توسط Autotune انتخاب شدهاند لغو کنید. به عنوان مثال، اگر محدوده هایپرپارامتر خود را مشخص کنید، آن ها در کنار محدوده های استنباط شده استفاده خواهند شد. هر محدوده هایپرپارامتر مشخص شده توسط کاربر بر همان محدوده های استنباط شده با نام اولویت دارد:
Autotune مجموعه ای از تنظیمات را به عنوان بخشی از کار تنظیم ایجاد می کند. هر گونه تنظیمات مشخص شده توسط مشتری که دارای نامی مشابه باشد، تنظیمات انتخاب شده توسط Autotune را لغو می کند. هر گونه تنظیمات ارائه شده توسط مشتری (که با تنظیمات Autotune نامگذاری شده یکسان نیست) علاوه بر تنظیمات انتخاب شده توسط Autotune اضافه می شود.
بررسی پارامترهای انتخاب شده توسط Autotune
تنظیم خودکار زمانی را که معمولاً برای تصمیم گیری در مورد مجموعه اولیه هایپرپارامترها برای تنظیم صرف می کردید، کاهش می دهد. اما چگونه می توانید بینش هایی را در مورد مقادیر فراپارامتری که Autotune در نهایت انتخاب کرد به دست آورید؟ می توانید اطلاعاتی در مورد تصمیماتی که برای شما گرفته شده است در شرح کار تنظیم در حال اجرا (در پاسخ به Describe HyperParameterTuningJob عمل). پس از ارسال درخواست برای ایجاد یک کار تنظیم، درخواست پردازش میشود و تمام فیلدهای گمشده توسط Autotune تنظیم میشوند. تمام فیلدهای مجموعه در قسمت گزارش می شوند DescribeHyperParameterTuningJob
عمل.
یا می توانید بازرسی کنید HyperparameterTuner
فیلدهای کلاس برای دیدن تنظیمات انتخاب شده توسط Autotune.
در زیر یک مثال XGBoost از نحوه استفاده از آن آورده شده است DescribeHyperParameterTuningJob
برای بررسی هایپرپارامترهای انتخاب شده توسط Autotune.
ابتدا یک کار تنظیم با تنظیم خودکار مدل ایجاد می کنیم:
پس از اینکه کار تنظیم با موفقیت ایجاد شد، میتوانیم متوجه شویم که Autotune چه تنظیماتی را انتخاب کرده است. برای مثال، میتوانیم کار تنظیم را با نامی که توسط آن داده شده است توصیف کنیم hp_tuner
:
سپس می توانیم پاسخ تولید شده را بررسی کنیم تا تنظیمات انتخاب شده توسط Autotune از طرف ما بررسی شود.
اگر تنظیمات کار تنظیم فعلی رضایت بخش نیست، می توانید کار تنظیم را متوقف کنید:
hp_tuner.stop()
نتیجه
تنظیم خودکار مدل SageMaker به شما امکان می دهد با جستجوی خودکار بهترین پیکربندی هایپرپارامتر در محدوده هایی که مشخص کرده اید، زمان تنظیم یک مدل را کاهش دهید. با این حال، انتخاب محدوده هایپرپارامتر مناسب می تواند یک فرآیند زمان بر باشد و می تواند پیامدهای مستقیمی بر هزینه و مدت آموزش شما داشته باشد.
در این پست، ما در مورد چگونگی استفاده از Autotune، یک ویژگی جدید که به عنوان بخشی از تنظیم خودکار مدل معرفی شده است، برای انتخاب خودکار مجموعه اولیه محدوده هایپرپارامتر از طرف شما صحبت کردیم. این می تواند زمان لازم برای شروع فرآیند تنظیم مدل را کاهش دهد. علاوه بر این، می توانید محدوده های انتخاب شده توسط Autotune را ارزیابی کرده و آنها را بر اساس نیاز خود تنظیم کنید.
ما همچنین نشان دادیم که Autotune چگونه میتواند بهطور خودکار تنظیمات پارامتر بهینه را از طرف شما انتخاب کند، مانند تعداد کارهای آموزشی، استراتژی انتخاب ترکیبهای فراپارامتر، و فعال کردن توقف اولیه بهطور پیشفرض. این می تواند منجر به بهینه سازی بودجه و محدودیت های زمانی شود که به راحتی قابل پیش بینی است.
برای کسب اطلاعات بیشتر به ادامه مطلب مراجعه نمایید تنظیم خودکار مدل را با SageMaker انجام دهید.
درباره نویسنده
جاس سینگ یک معمار ارشد راه حل است که به مشتریان بخش عمومی کمک می کند تا از طریق معماری و اجرای راه حل های نوآورانه و انعطاف پذیر در مقیاس، به نتایج تجاری خود دست یابند. جاس بیش از 20 سال تجربه در طراحی و پیاده سازی برنامه های کاربردی حیاتی دارد و دارای مدرک کارشناسی ارشد در رشته علوم کامپیوتر از دانشگاه بیلور است.
گوپی مودیالا یک مدیر ارشد حساب فنی در AWS است. او به مشتریان در صنعت خدمات مالی با عملیات خود در AWS کمک می کند. به عنوان یک علاقهمند به یادگیری ماشین، Gopi به مشتریان کمک میکند تا در سفر ML خود موفق شوند. او در اوقات فراغت خود دوست دارد بدمینتون بازی کند، وقت خود را با خانواده بگذراند و سفر کند.
راویته یلامانچیلی یک معمار راه حل های سازمانی با خدمات وب آمازون مستقر در نیویورک است. او با مشتریان بزرگ شرکت های خدمات مالی کار می کند تا برنامه های بسیار ایمن، مقیاس پذیر، قابل اعتماد و مقرون به صرفه را در فضای ابری طراحی و اجرا کند. او بیش از 11 سال مدیریت ریسک، مشاوره فناوری، تجزیه و تحلیل داده ها و تجربه یادگیری ماشین را به ارمغان می آورد. وقتی به مشتریان کمک نمی کند، از سفر و بازی PS5 لذت می برد.
یاروسلاو شچرباتی مهندس یادگیری ماشین در AWS است. او عمدتاً روی بهبود پلتفرم Amazon SageMaker و کمک به مشتریان در استفاده بهینه از ویژگیهای آن کار میکند. او دوست دارد در اوقات فراغت خود به باشگاه برود، ورزشهایی در فضای باز مانند اسکیت روی یخ یا پیادهروی انجام دهد و تحقیقات جدید هوش مصنوعی را دنبال کند.
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoAiStream. Web3 Data Intelligence دانش تقویت شده دسترسی به اینجا.
- ضرب کردن آینده با آدرین اشلی. دسترسی به اینجا.
- خرید و فروش سهام در شرکت های PRE-IPO با PREIPO®. دسترسی به اینجا.
- منبع: https://aws.amazon.com/blogs/machine-learning/amazon-sagemaker-automatic-model-tuning-now-automatically-chooses-tuning-configurations-to-improve-usability-and-cost-efficiency/
- : دارد
- :است
- :نه
- $UP
- 1
- 100
- 11
- 13
- 16
- 20
- سال 20
- ٪۱۰۰
- 50
- 7
- 8
- a
- درباره ما
- شتاب دادن
- تسریع شد
- تسریع می شود
- مطابق
- حساب
- رسیدن
- دستیابی به
- واقعا
- اضافه
- اضافه
- اضافی
- علاوه بر این
- پس از
- AI
- تحقیق ai
- الگوریتم
- الگوریتم
- معرفی
- اختصاص داده شده است
- اجازه می دهد تا
- در کنار
- همچنین
- آمازون
- آمازون SageMaker
- آمازون خدمات وب
- an
- علم تجزیه و تحلیل
- و
- هر
- API
- برنامه های کاربردی
- مناسب
- هستند
- AS
- کمک می کند
- At
- اتوماتیک
- بطور خودکار
- اجتناب از
- AWS
- بخش مدیریت
- مستقر
- BE
- زیرا
- شروع
- از طرف
- معیار
- مزایای
- بهترین
- بهترین شیوه
- بهتر
- میان
- کران
- به ارمغان می آورد
- بودجه
- کسب و کار
- اما
- by
- محاسبه
- نام
- CAN
- می توانید دریافت کنید
- کشتی
- انتخاب
- را انتخاب کنید
- انتخاب
- را انتخاب
- برگزیده
- کلاس
- ابر
- رمز
- ترکیب
- تکمیل شده
- اتمام
- کامپیوتر
- علم کامپیوتر
- پیکر بندی
- ثابت
- به طور مداوم
- مشاوره
- مصرف
- کنترل
- همگرایی
- هزینه
- مقرون به صرفه
- دوره
- ایجاد
- ایجاد شده
- ایجاد
- ضوابط
- جاری
- مشتریان
- داده ها
- تجزیه و تحلیل داده ها
- معامله
- تصمیم گیری
- تصمیم گیری
- به طور پیش فرض
- مشخص
- درجه
- گسترش
- توصیف
- شرح
- طرح
- طراحی
- مطلوب
- کشف
- تفاوت
- مستقیم
- كشف كردن
- بحث و تبادل نظر
- بحث کردیم
- do
- آیا
- مدت
- در طی
- در اوایل
- به آسانی
- اثر
- بهره وری
- موثر
- فعال
- را قادر می سازد
- مهندس
- سرمایه گذاری
- علاقهمند
- دوره ها
- معادل
- ارزیابی
- هر
- مثال
- مثال ها
- انتظار می رود
- تجربه
- اکتشاف
- آبشار
- خانواده
- ویژگی
- امکانات
- زمینه
- نهایی
- مالی
- خدمات مالی
- پیدا کردن
- پیدا کردن
- تمرکز
- پیروی
- به دنبال آن است
- برای
- از جانب
- تابع
- عموما
- تولید
- تولید می کند
- دریافت کنید
- داده
- Go
- اهداف
- خوب
- باشگاه بدنسازی
- دست
- اتفاق می افتد
- آیا
- he
- کمک
- کمک
- کمک می کند
- پنهان
- خیلی
- خود را
- دارای
- ساعت ها
- چگونه
- چگونه
- اما
- HTML
- HTTPS
- بهینه سازی هایپرپارامتر
- تنظیم فراپارامتر
- ICE
- if
- نشان می دهد
- تأثیر
- اجرای
- پیامدهای
- مهم
- بهبود
- بهبود
- ارتقاء
- in
- افزایش
- نشان می دهد
- صنعت
- اطلاعات
- اول
- نوآوری
- ابتکاری
- ورودی
- بینش
- داخلی
- به
- معرفی
- IT
- ITS
- خود
- کار
- شغل ها
- سفر
- کلید
- دانستن
- بزرگ
- راه اندازی
- لایه
- یاد گرفتن
- آموخته
- یادگیری
- نهفته است
- دوست دارد
- فهرست
- مطالب
- دستگاه
- فراگیری ماشین
- ساخته
- عمدتا
- حفظ
- باعث می شود
- مدیریت
- مدیر
- بسیاری
- کارشناسی ارشد
- حداکثر
- ممکن است..
- نشست
- متریک
- گم
- ML
- حالت
- مدل
- مدل
- نظارت بر
- مانیتور
- بیش
- کارآمدتر
- اکثر
- بسیار
- باید
- نام
- تحت عنوان
- لازم
- نیاز
- نیازهای
- شبکه
- شبکه های عصبی
- جدید
- نیویورک
- گره
- به طور معمول
- اکنون
- عدد
- هدف
- of
- on
- عمل
- عملیات
- بهینه
- بهینه سازی
- بهینه سازی
- بهینه
- or
- دیگر
- ما
- نتایج
- خارج از
- روی
- باطل کردن
- خود
- درد
- موازی
- پارامتر
- پارامترهای
- بخش
- انجام
- کارایی
- انتخاب کنید
- برگزیده
- سکو
- افلاطون
- هوش داده افلاطون
- PlatoData
- بازی
- بازی
- پست
- پتانسیل
- شیوه های
- قابل پیش بینی
- پیش گویی
- جلوگیری از
- قبلی
- قبلا
- قبلا
- روند
- فرآوری شده
- بهره وری
- امید بخش
- ارائه
- فراهم می کند
- PS5
- عمومی
- پــایتــون
- تصادفی
- محدوده
- تازه
- رکورد
- كاهش دادن
- را کاهش می دهد
- رجیستر
- قابل اعتماد
- ماندن
- گزارش
- درخواست
- ضروری
- نیاز
- تحقیق
- محفوظ می باشد
- انعطاف پذیر
- منابع
- منابع
- پاسخ
- نتیجه
- نتایج
- این فایل نقد می نویسید:
- راست
- خطر
- مدیریت ریسک
- در حال اجرا
- حکیم ساز
- تنظیم خودکار مدل SageMaker
- همان
- ذخیره
- مقیاس پذیر
- مقیاس
- علم
- sdk
- جستجو
- بخش
- امن
- دیدن
- انتخاب
- ارشد
- خدمات
- تنظیم
- تنظیمات
- نشان داد
- قابل توجه
- به طور قابل توجهی
- So
- مزایا
- برخی از
- بزودی
- مشخص شده
- خرج کردن
- صرف
- ورزش ها
- آغاز شده
- توقف
- متوقف کردن
- توقف
- استراتژی
- ضربه
- ارسال
- موفق شدن
- موفق
- موفقیت
- چنین
- پشتیبانی
- گرفتن
- طول می کشد
- هدف
- تیم
- فنی
- پیشرفته
- نسبت به
- که
- La
- شان
- آنها
- اینها
- آنها
- این
- کسانی که
- سه
- از طریق
- زمان
- زمان بر
- به
- قطار
- آموزش دیده
- آموزش
- سفر
- سفر
- آزمایش های
- انواع
- فهمیدن
- درک
- دانشگاه
- بعید
- قابلیت استفاده
- استفاده کنید
- استفاده
- کاربر
- استفاده
- با استفاده از
- اعتبار سنجی
- ارزشها
- مسیر..
- we
- وب
- خدمات وب
- وزن
- خوب
- بود
- چی
- چه زمانی
- در حالیکه
- که
- در حین
- اراده
- با
- در داخل
- بدون
- با این نسخهها کار
- خواهد بود
- XGBoost
- سال
- نیویورک
- شما
- شما
- زفیرنت