ایمیزون سیج میکر آٹومیٹک ماڈل ٹیوننگ اب سیج میکر ٹریننگ انسٹینس فال بیکس پلیٹو بلاکچین ڈیٹا انٹیلی جنس کو سپورٹ کرتی ہے۔ عمودی تلاش۔ عی

ایمیزون سیج میکر آٹومیٹک ماڈل ٹیوننگ اب سیج میکر ٹریننگ انسٹینس فال بیکس کو سپورٹ کرتی ہے۔

آج ایمیزون سیج میکر SageMaker ٹریننگ مثال کے طور پر فال بیکس کی حمایت کا اعلان کیا۔ ایمیزون سیج میکر آٹومیٹک ماڈل ٹیوننگ (AMT) جو صارفین کو متبادل کمپیوٹ ریسورس کنفیگریشنز کی وضاحت کرنے کی اجازت دیتا ہے۔

سیج میکر آٹومیٹک ماڈل ٹیوننگ آپ کے ڈیٹاسیٹ پر بہت سی ٹریننگ جابز چلا کر ماڈل کا بہترین ورژن تلاش کرتی ہے۔ حدود ہائپرپیرامیٹرس کا جو آپ اپنے الگورتھم کے لیے بیان کرتے ہیں۔ پھر، یہ ہائپر پیرامیٹر اقدار کا انتخاب کرتا ہے جس کے نتیجے میں ایک ایسا ماڈل ہوتا ہے جو بہترین کارکردگی کا مظاہرہ کرتا ہے، جیسا کہ a کے ذریعے ماپا جاتا ہے۔ میٹرک۔ جسے آپ منتخب کرتے ہیں۔

پہلے، صارفین کے پاس صرف ایک مثال کی ترتیب کی وضاحت کرنے کا اختیار تھا۔ یہ مسائل کا باعث بن سکتا ہے جب مخصوص مثال کی قسم زیادہ استعمال کی وجہ سے دستیاب نہیں ہوتی ہے۔ ماضی میں، آپ کی تربیتی ملازمتیں Insufficient CapacityError (ICE) کے ساتھ ناکام ہو جائیں گی۔ AMT نے بہت سے معاملات میں ان ناکامیوں سے بچنے کے لیے ہوشیار کوششوں کا استعمال کیا، لیکن یہ مسلسل کم صلاحیت کی وجہ سے بے اختیار رہا۔

اس نئی خصوصیت کا مطلب ہے کہ آپ ترجیحی ترتیب میں مثال کی ترتیب کی فہرست بتا سکتے ہیں، اس طرح کہ کم گنجائش کی صورت میں آپ کی AMT جاب خود بخود فہرست میں اگلی مثال میں واپس آجائے گی۔

درج ذیل حصوں میں، ہم ICE پر قابو پانے کے لیے ان اعلیٰ سطحی مراحل سے گزرتے ہیں:

  1. HyperParameter ٹیوننگ جاب کنفیگریشن کی وضاحت کریں۔
  2. تربیتی ملازمت کے پیرامیٹرز کی وضاحت کریں۔
  3. ہائپرپیرامیٹر ٹیوننگ جاب بنائیں
  4. تربیتی کام کی وضاحت کریں۔

HyperParameter ٹیوننگ جاب کنفیگریشن کی وضاحت کریں۔

۔ HyperParameterTuningJobConfig آبجیکٹ ٹیوننگ جاب کی وضاحت کرتا ہے، بشمول تلاش کی حکمت عملی، تربیتی ملازمتوں کا اندازہ کرنے کے لیے استعمال ہونے والا مقصدی میٹرک، تلاش کرنے کے لیے پیرامیٹرز کی حدود، اور ٹیوننگ جاب کے لیے وسائل کی حدود۔ آج کے فیچر ریلیز کے ساتھ اس پہلو کو تبدیل نہیں کیا گیا۔ بہر حال، ہم ایک مکمل مثال دینے کے لیے اس پر جائیں گے۔

۔ ResourceLimits آبجیکٹ اس ٹیوننگ جاب کے لیے زیادہ سے زیادہ ٹریننگ جابز اور متوازی ٹریننگ جابز کی وضاحت کرتا ہے۔ اس مثال میں، ہم کر رہے ہیں a بے ترتیب تلاش حکمت عملی اور زیادہ سے زیادہ 10 ملازمتوں کی وضاحت (MaxNumberOfTrainingJobs) اور 5 ایک ساتھ ملازمتیں (MaxParallelTrainingJobs) ایک وقت میں.

۔ ParameterRanges آبجیکٹ ہائپر پیرامیٹر کی حدود کو بتاتا ہے جو یہ ٹیوننگ جاب تلاش کرتا ہے۔ ہم نام کے ساتھ ساتھ تلاش کرنے کے لیے ہائپر پیرامیٹر کی کم از کم اور زیادہ سے زیادہ قدر بھی بتاتے ہیں۔ اس مثال میں، ہم مسلسل اور انٹیجر پیرامیٹر رینجز کے لیے کم از کم اور زیادہ سے زیادہ اقدار اور ہائپر پیرامیٹر کے نام ("eta"، "max_depth") کی وضاحت کرتے ہیں۔

AmtTuningJobConfig={
            "Strategy": "Random",
            "ResourceLimits": {
              "MaxNumberOfTrainingJobs": 10,
              "MaxParallelTrainingJobs": 5
            },
            "HyperParameterTuningJobObjective": {
              "MetricName": "validation:rmse",
              "Type": "Minimize"
            },
            "ParameterRanges": {
              "CategoricalParameterRanges": [],
              "ContinuousParameterRanges": [
                {
                    "MaxValue": "1",
                    "MinValue": "0",
                    "Name": "eta"
                }
              ],
              "IntegerParameterRanges": [
                {
                  "MaxValue": "6",
                  "MinValue": "2",
                  "Name": "max_depth"
                }
              ]
            }
          }

تربیتی ملازمت کے پیرامیٹرز کی وضاحت کریں۔

تربیتی ملازمت کی تعریف میں، ہم اس الگورتھم کا استعمال کرتے ہوئے تربیتی جاب کو چلانے کے لیے درکار ان پٹ کی وضاحت کرتے ہیں جسے ہم بیان کرتے ہیں۔ تربیت مکمل ہونے کے بعد، SageMaker نتیجے میں آنے والے ماڈل کے نمونے ایک میں محفوظ کرتا ہے۔ ایمیزون سادہ اسٹوریج سروس (ایمیزون S3) وہ مقام جو آپ بتاتے ہیں۔

پہلے، ہم نے مثال کی قسم، گنتی، اور حجم کا سائز کے تحت بیان کیا تھا۔ ResourceConfig پیرامیٹر جب اس پیرامیٹر کے تحت مثال دستیاب نہیں تھی، ایک ناکافی صلاحیت کی خرابی (ICE) پھینک دی گئی تھی۔

اس سے بچنے کے لیے، اب ہمارے پاس ہے۔ HyperParameterTuningResourceConfig کے تحت پیرامیٹر TrainingJobDefinition، جہاں ہم ان مثالوں کی فہرست بتاتے ہیں جن پر واپس آنا ہے۔ ان مثالوں کی شکل ویسا ہی ہے۔ ResourceConfig. یہ کام دستیاب مثال کی ترتیب کو تلاش کرنے کے لیے فہرست کو اوپر سے نیچے تک لے جائے گا۔ اگر کوئی مثال دستیاب نہیں ہے، تو ناکافی صلاحیت کی خرابی (ICE) کے بجائے، فہرست میں اگلی مثال کا انتخاب کیا جاتا ہے، اس طرح ICE پر قابو پا لیا جاتا ہے۔

TrainingJobDefinition={
            "HyperParameterTuningResourceConfig": {
      		"InstanceConfigs": [
            		{
                		"InstanceType": "ml.m4.xlarge",
                		"InstanceCount": 1,
                		"VolumeSizeInGB": 5
            		},
            		{
                		"InstanceType": "ml.m5.4xlarge",
                		"InstanceCount": 1,
                		"VolumeSizeInGB": 5
            		}
        		 ]
    		  },
            "AlgorithmSpecification": {
              "TrainingImage": "433757028032.dkr.ecr.us-west-2.amazonaws.com/xgboost:latest",
              "TrainingInputMode": "File"
            },
            "InputDataConfig": [
              {
                "ChannelName": "train",
                "CompressionType": "None",
                "ContentType": "json",
                "DataSource": {
                  "S3DataSource": {
                    "S3DataDistributionType": "FullyReplicated",
                    "S3DataType": "S3Prefix",
                    "S3Uri": "s3://<bucket>/test/"
                  }
                },
                "RecordWrapperType": "None"
              }
            ],
            "OutputDataConfig": {
              "S3OutputPath": "s3://<bucket>/output/"
            },
            "RoleArn": "arn:aws:iam::340308762637:role/service-role/AmazonSageMaker-ExecutionRole-20201117T142856",
            "StoppingCondition": {
              "MaxRuntimeInSeconds": 259200
            },
            "StaticHyperParameters": {
              "training_script_loc": "q2bn-sagemaker-test_6"
            },
          }

ہائپر پیرامیٹر ٹیوننگ جاب چلائیں۔

اس مرحلے میں، ہم اوپر بیان کردہ ہائپر پیرامیٹر ٹیوننگ ریسورس کنفیگریشن کے ساتھ ایک ہائپر پیرامیٹر ٹیوننگ جاب بنا اور چلا رہے ہیں۔

ہم سیج میکر کلائنٹ کو شروع کرتے ہیں اور ٹیوننگ کنفیگریشن، ٹریننگ جاب ڈیفینیشن، اور نوکری کا نام بتا کر جاب تخلیق کرتے ہیں۔

import boto3
sm = boto3.client('sagemaker')     
                    
sm.create_hyper_parameter_tuning_job(
    HyperParameterTuningJobName="my-job-name",
    HyperParameterTuningJobConfig=AmtTuningJobConfig,
    TrainingJobDefinition=TrainingJobDefinition) 

سیج میکر ٹریننگ انسٹینس فال بیکس کی مدد سے AMT جاب چلانا صارف کو خود سے ناکافی صلاحیت پر قابو پانے کی طاقت دیتا ہے، اس طرح ملازمت میں ناکامی کے امکانات کم ہوتے ہیں۔

تربیتی ملازمتوں کی وضاحت کریں۔

مندرجہ ذیل فنکشن تجربے کے دوران استعمال ہونے والی تمام مثالوں کی اقسام کی فہرست دیتا ہے اور اس بات کی تصدیق کے لیے استعمال کیا جا سکتا ہے کہ آیا سیج میکر ٹریننگ مثال خود بخود وسائل کی تقسیم کے دوران فہرست میں اگلی مثال پر واپس آ گئی ہے۔

def list_instances(name):
    job_list = []
    instances = []
    def _get_training_jobs(name, next=None):
        if next:
            list = sm.list_training_jobs_for_hyper_parameter_tuning_job(
            HyperParameterTuningJobName=name, NextToken=next)
        else:
            list = sm.list_training_jobs_for_hyper_parameter_tuning_job(
            HyperParameterTuningJobName=name)
        for jobs in list['TrainingJobSummaries']:
            job_list.append(jobs['TrainingJobName'])
        next = list.get('NextToken', None)
        if next:
            _get_training_jobs(name, next=next)
            pass
        else:
            pass
    _get_training_jobs(name)


    for job_name in job_list:
        ec2 = sm.describe_training_job(
        TrainingJobName=job_name
        )
        instances.append(ec2['ResourceConfig'])
    return instances

list_instances("my-job-name")  

اوپر والے فنکشن کا آؤٹ پٹ ان تمام مثالوں کو دکھاتا ہے جنہیں AMT جاب تجربہ چلانے کے لیے استعمال کر رہا ہے۔

نتیجہ

اس پوسٹ میں، ہم نے دکھایا کہ اب آپ مثالوں کے ایک پول کی وضاحت کیسے کر سکتے ہیں جس پر آپ کا AMT تجربہ واپس آ سکتا ہے۔ InsufficientCapacityError. ہم نے دیکھا کہ ہائپر پیرامیٹر ٹیوننگ جاب کنفیگریشن کی وضاحت کیسے کی جائے، ساتھ ہی تربیتی ملازمتوں کی زیادہ سے زیادہ تعداد اور زیادہ سے زیادہ متوازی ملازمتیں بھی بتائیں۔ آخر میں، ہم نے دیکھا کہ کس طرح پر قابو پانا ہے۔ InsufficientCapacityError استعمال کرتے ہوئے HyperParameterTuningResourceConfig پیرامیٹر، جو تربیتی ملازمت کی تعریف کے تحت بیان کیا جا سکتا ہے۔

AMT کے بارے میں مزید جاننے کے لیے، ملاحظہ کریں۔ ایمیزون سیج میکر آٹومیٹک ماڈل ٹیوننگ.


مصنفین کے بارے میں

ایمیزون سیج میکر آٹومیٹک ماڈل ٹیوننگ اب سیج میکر ٹریننگ انسٹینس فال بیکس پلیٹو بلاکچین ڈیٹا انٹیلی جنس کو سپورٹ کرتی ہے۔ عمودی تلاش۔ عیڈوگ Mbaya ڈیٹا اور تجزیات پر توجہ کے ساتھ ایک سینئر پارٹنر سلوشن آرکیٹیکٹ ہے۔ Doug AWS پارٹنرز کے ساتھ مل کر کام کرتا ہے، ان کو کلاؤڈ میں ڈیٹا اور اینالیٹکس سلوشن کو مربوط کرنے میں مدد کرتا ہے۔

ایمیزون سیج میکر آٹومیٹک ماڈل ٹیوننگ اب سیج میکر ٹریننگ انسٹینس فال بیکس پلیٹو بلاکچین ڈیٹا انٹیلی جنس کو سپورٹ کرتی ہے۔ عمودی تلاش۔ عیکروتھی جیاسمہا۔ راؤ Scale-PSA ٹیم میں ایک پارٹنر سلوشنز آرکیٹیکٹ ہے۔ کروتھی شراکت داروں کے لیے تکنیکی توثیق کرتی ہے تاکہ وہ پارٹنر پاتھ میں ترقی کر سکیں۔

ایمیزون سیج میکر آٹومیٹک ماڈل ٹیوننگ اب سیج میکر ٹریننگ انسٹینس فال بیکس پلیٹو بلاکچین ڈیٹا انٹیلی جنس کو سپورٹ کرتی ہے۔ عمودی تلاش۔ عیبرنارڈ جولانز ایمیزون سیج میکر آٹومیٹک ماڈل ٹیوننگ کے لیے سافٹ ویئر ڈویلپمنٹ انجینئر ہے۔

ٹائم اسٹیمپ:

سے زیادہ AWS مشین لرننگ