Amazon SageMaker JumpStart PlatoBlockchain ডেটা ইন্টেলিজেন্সের সাথে স্বয়ংক্রিয় মডেল টিউনিং চালান। উল্লম্ব অনুসন্ধান. আ.

Amazon SageMaker JumpStart এর সাথে স্বয়ংক্রিয় মডেল টিউনিং চালান

ডিসেম্বর 2020 এ, AWS ঘোষিত সাধারণ প্রাপ্যতা আমাজন সেজমেকার জাম্পস্টার্ট, একটি ক্ষমতা আমাজন সেজমেকার যা আপনাকে দ্রুত এবং সহজেই মেশিন লার্নিং (ML) দিয়ে শুরু করতে সাহায্য করে। 2022 সালের মার্চ মাসে, আমরাও ঘোষিত জাম্পস্টার্টে API-এর জন্য সমর্থন। জাম্পস্টার্ট জনপ্রিয় ML টাস্ক জুড়ে এক-ক্লিক ফাইন-টিউনিং এবং বিভিন্ন ধরণের প্রাক-প্রশিক্ষিত মডেলের স্থাপনা প্রদান করে, সেইসাথে সাধারণ ব্যবসায়িক সমস্যাগুলি সমাধান করে এমন এন্ড-টু-এন্ড সমাধানগুলির একটি নির্বাচন। এই বৈশিষ্ট্যগুলি ML প্রক্রিয়ার প্রতিটি ধাপ থেকে ভারী উত্তোলনকে সরিয়ে দেয়, এটি উচ্চ-মানের মডেলগুলি বিকাশ করা সহজ করে এবং স্থাপনার সময় হ্রাস করে।

এই পোস্টে, আমরা জাম্পস্টার্টের সাথে কীভাবে স্বয়ংক্রিয় মডেল টিউনিং চালাতে হয় তা প্রদর্শন করি।

সেজমেকার স্বয়ংক্রিয় মডেল টিউনিং

ঐতিহ্যগতভাবে, এমএল ইঞ্জিনিয়াররা হাইপারপ্যারামিটারের সঠিক সেট খুঁজে পেতে একটি ট্রায়াল এবং ত্রুটি পদ্ধতি প্রয়োগ করে। পরীক্ষা চালানোর জন্য প্রয়োজনীয় সংস্থানগুলির বিধান করার সময় ট্রায়াল এবং ত্রুটি ক্রমানুসারে বা সমান্তরালে একাধিক কাজ চালানো জড়িত।

সঙ্গে সেজমেকার স্বয়ংক্রিয় মডেল টিউনিং, ML ইঞ্জিনিয়ার এবং ডেটা বিজ্ঞানীরা তাদের মডেল অপ্টিমাইজ করার সময়সাপেক্ষ কাজটি অফলোড করতে পারেন এবং সেজমেকারকে পরীক্ষা চালাতে দিতে পারেন৷ SageMaker AWS প্ল্যাটফর্মের স্থিতিস্থাপকতার সুবিধা গ্রহণ করে দক্ষতার সাথে এবং একযোগে একটি ডেটাসেটে একাধিক প্রশিক্ষণ সিমুলেশন চালাতে এবং একটি মডেলের জন্য সর্বোত্তম হাইপারপ্যারামিটার খুঁজে বের করতে।

সেজমেকার স্বয়ংক্রিয় মডেল টিউনিং অ্যালগরিদম ব্যবহার করে আপনার ডেটাসেটে অনেক প্রশিক্ষণের কাজ চালানোর মাধ্যমে একটি মডেলের সেরা সংস্করণ খুঁজে পায় এবং রেঞ্জ আপনার নির্দিষ্ট করা হাইপারপ্যারামিটারের। এটি তারপর হাইপারপ্যারামিটার মানগুলি বেছে নেয় যার ফলে একটি মডেল যা সর্বোত্তম কার্য সম্পাদন করে, যেমন a দ্বারা পরিমাপ করা হয় ছন্দোময় যেটা তুমি চয়ন করো।

স্বয়ংক্রিয় মডেল টিউনিং হয় একটি ব্যবহার করে বায়েসিয়ান (ডিফল্ট) বা ক এলোমেলো হাইপারপ্যারামিটারের জন্য সর্বোত্তম মান খুঁজে পেতে অনুসন্ধান কৌশল। Bayesian অনুসন্ধান একটি মত হাইপারপ্যারামিটার টিউনিং আচরণ করে প্রত্যাগতি সমস্যা পরবর্তী প্রশিক্ষণের কাজের জন্য সর্বোত্তম হাইপারপ্যারামিটারগুলি বেছে নেওয়ার সময়, এটি এখন পর্যন্ত সমস্যাটি সম্পর্কে যা কিছু জানে তা বিবেচনা করে এবং অ্যালগরিদমকে সর্বোত্তম-পরিচিত ফলাফলগুলিকে কাজে লাগাতে দেয়৷

এই পোস্টে, আমরা জাম্পস্টার্ট ব্যবহার করে স্বয়ংক্রিয় মডেল টিউনিং চালানোর সাথে জড়িত পদক্ষেপগুলি প্রদর্শন করতে ডিফল্ট বায়েসিয়ান অনুসন্ধান কৌশল ব্যবহার করি। লাইটজিবিএম মডেল.

জাম্পস্টার্ট বর্তমানে স্বয়ংক্রিয় মডেল টিউনিং সহ 10টি উদাহরণ নোটবুক সমর্থন করে। এটি ট্যাবুলার ডেটা মডেলিংয়ের জন্য চারটি জনপ্রিয় অ্যালগরিদম সমর্থন করে। তাদের নমুনা নোটবুকের কাজ এবং লিঙ্কগুলি নিম্নলিখিত টেবিলে সংক্ষিপ্ত করা হয়েছে।

কার্য প্রাক-প্রশিক্ষিত মডেল কাস্টম ডেটাসেট সমর্থন করে ফ্রেমওয়ার্ক সমর্থিত উদাহরণ নোটবুক
ছবির শ্রেণীবিভাগ হাঁ হাঁ পাইটর্চ, টেনসরফ্লো জাম্পস্টার্টের ভূমিকা - চিত্র শ্রেণীবিভাগ
বস্তু সনাক্তকরণ হাঁ হাঁ পাইটর্চ, টেনসরফ্লো, এমএক্সনেট জাম্পস্টার্টের ভূমিকা - অবজেক্ট সনাক্তকরণ
শব্দার্থিক সেগমেন্টেশন হাঁ হাঁ এমএক্স নেট জাম্পস্টার্টের ভূমিকা - শব্দার্থিক সেগমেন্টেশন
পাঠ্য শ্রেণিবিন্যাস হাঁ হাঁ TensorFlow জাম্পস্টার্টের ভূমিকা - পাঠ্য শ্রেণিবিন্যাস
বাক্য জোড়া শ্রেণীবিভাগ হাঁ হাঁ টেনসরফ্লো, আলিঙ্গন করা মুখ জাম্পস্টার্টের ভূমিকা - বাক্য জোড়া শ্রেণীবিভাগ
প্রশ্নের উত্তর হাঁ হাঁ পাইটর্চ জাম্পস্টার্টের ভূমিকা - প্রশ্নের উত্তর
ট্যাবুলার শ্রেণীবিভাগ হাঁ হাঁ LightGBM, CatBoost, XGBoost, লিনিয়ার লার্নার জাম্পস্টার্টের ভূমিকা - ট্যাবুলার ক্লাসিফিকেশন - লাইটজিবিএম, ক্যাটবুস্ট
জাম্পস্টার্টের ভূমিকা - ট্যাবুলার ক্লাসিফিকেশন - XGBoost, লিনিয়ার লার্নার
ট্যাবুলার রিগ্রেশন হাঁ হাঁ LightGBM, CatBoost, XGBoost, লিনিয়ার লার্নার জাম্পস্টার্টের ভূমিকা - ট্যাবুলার রিগ্রেশন - লাইটজিবিএম, ক্যাটবুস্ট
জাম্পস্টার্টের ভূমিকা - ট্যাবুলার রিগ্রেশন - XGBoost, লিনিয়ার লার্নার

সমাধান ওভারভিউ

এই প্রযুক্তিগত কর্মপ্রবাহ বিভিন্ন Amazon Sagemaker বৈশিষ্ট্যগুলির একটি ওভারভিউ দেয় এবং একটি জাম্পস্টার্ট মডেল স্বয়ংক্রিয়ভাবে টিউন করার জন্য প্রয়োজনীয় পদক্ষেপগুলি দেয়৷

Amazon SageMaker JumpStart PlatoBlockchain ডেটা ইন্টেলিজেন্সের সাথে স্বয়ংক্রিয় মডেল টিউনিং চালান। উল্লম্ব অনুসন্ধান. আ.

নিম্নলিখিত বিভাগে, আমরা লাইটজিবিএম অ্যালগরিদম ব্যবহার করে জাম্পস্টার্টের সাথে কীভাবে স্বয়ংক্রিয় মডেল টিউনিং চালাতে হয় তার একটি ধাপে ধাপে ওয়াকথ্রু প্রদান করি। আমরা একটি সহগামী প্রদান নোটবই এই ওয়াকথ্রু জন্য.

আমরা নিম্নোক্ত উচ্চ-স্তরের ধাপগুলোর মধ্য দিয়ে চলেছি:

  1. জাম্পস্টার্ট প্রাক-প্রশিক্ষিত মডেল এবং ছবি ধারক পুনরুদ্ধার করুন।
  2. স্ট্যাটিক হাইপারপ্যারামিটার সেট করুন।
  3. টিউনযোগ্য হাইপারপ্যারামিটার ব্যাপ্তি সংজ্ঞায়িত করুন।
  4. স্বয়ংক্রিয় মডেল টিউনিং শুরু করুন।
  5. টিউনিং কাজ চালান।
  6. একটি শেষ পয়েন্টে সেরা মডেল স্থাপন করুন.

জাম্পস্টার্ট প্রাক-প্রশিক্ষিত মডেল এবং ছবি ধারক পুনরুদ্ধার করুন

এই বিভাগে, আমরা ফাইন-টিউনিংয়ের জন্য লাইটজিবিএম শ্রেণীবিভাগের মডেল বেছে নিই। আমরা ml.m5.xlarge ইনস্ট্যান্স টাইপ ব্যবহার করি যার উপর মডেলটি চালানো হয়। তারপরে আমরা প্রশিক্ষণ ডকার কন্টেইনার, প্রশিক্ষণ অ্যালগরিদম উত্স এবং প্রাক-প্রশিক্ষিত মডেল পুনরুদ্ধার করি। নিম্নলিখিত কোড দেখুন:

training_instance_type = "ml.m5.xlarge" # Retrieve the docker image
train_image_uri = image_uris.retrieve(
    region=None,
    framework=None,
    model_id=train_model_id,
    model_version=train_model_version,
    image_scope=train_scope,
    instance_type=training_instance_type,
)
# Retrieve the training script
train_source_uri = script_uris.retrieve(
    model_id=train_model_id, model_version=train_model_version, script_scope=train_scope
)
# Retrieve the pre-trained model tarball to further fine-tune
train_model_uri = model_uris.retrieve(
    model_id=train_model_id, model_version=train_model_version, model_scope=train_scope
)

স্ট্যাটিক হাইপারপ্যারামিটার সেট করুন

আমরা এখন এই লাইটজিবিএম মডেলের জন্য ডিফল্ট হাইপারপ্যারামিটার পুনরুদ্ধার করি, যেমন জাম্পস্টার্ট দ্বারা প্রি-কনফিগার করা হয়েছে। আমরা ওভাররাইড num_boost_round একটি কাস্টম মান সহ হাইপারপ্যারামিটার।

# Retrieve the default hyper-parameters for fine-tuning the model
hyperparameters = hyperparameters.retrieve_default(
    model_id=train_model_id, model_version=train_model_version
)
# [Optional] Override default hyperparameters with custom values

টিউনযোগ্য হাইপারপ্যারামিটার ব্যাপ্তি সংজ্ঞায়িত করুন

পরবর্তীতে আমরা হাইপারপ্যারামিটার রেঞ্জগুলিকে সংজ্ঞায়িত করি স্বয়ংক্রিয় মডেল টিউনিং দ্বারা অপ্টিমাইজ করা. আমরা মডেল দ্বারা প্রত্যাশিত হিসাবে হাইপারপ্যারামিটার নামটি সংজ্ঞায়িত করি এবং তারপর এই হাইপারপ্যারামিটারের জন্য চেষ্টা করা মানগুলির পরিসরগুলি। স্বয়ংক্রিয় মডেল টিউনিং নমুনা আঁকে (এর সমান max_jobs প্যারামিটার) হাইপারপ্যারামিটারের স্থান থেকে, বায়েসিয়ান অনুসন্ধান নামক একটি কৌশল ব্যবহার করে। প্রতিটি টানা হাইপারপ্যারামিটার নমুনার জন্য, টিউনার সেই কনফিগারেশনের সাথে মডেলটির মূল্যায়ন করার জন্য একটি প্রশিক্ষণ কাজ তৈরি করে। নিম্নলিখিত কোড দেখুন:

hyperparameter_ranges = {
    "learning_rate": ContinuousParameter(1e-4, 1, scaling_type="Logarithmic"),
    "num_boost_round": IntegerParameter(2, 30),
    "early_stopping_rounds": IntegerParameter(2, 30),
    "num_leaves": IntegerParameter(10, 50),
    "feature_fraction": ContinuousParameter(0, 1),
    "bagging_fraction": ContinuousParameter(0, 1),
    "bagging_freq": IntegerParameter(1, 10),
    "max_depth": IntegerParameter(5, 30),
    "min_data_in_leaf": IntegerParameter(5, 50),
}

স্বয়ংক্রিয় মডেল টিউনিং শুরু করুন

আমরা একটি তৈরি করে শুরু করি মূল্নির্ধারক সমস্ত প্রয়োজনীয় সম্পদ সহ অবজেক্ট যা প্রশিক্ষণের কাজকে সংজ্ঞায়িত করে, যেমন প্রাক-প্রশিক্ষিত মডেল, প্রশিক্ষণ চিত্র এবং প্রশিক্ষণের স্ক্রিপ্ট। আমরা তারপর একটি সংজ্ঞায়িত হাইপারপ্যারামিটার টিউনার সেজমেকার হাইপারপ্যারামিটার টিউনিং API-এর সাথে ইন্টারঅ্যাক্ট করার জন্য অবজেক্ট।

সার্জারির HyperparameterTuner প্যারামিটার হিসাবে অনুমানকারী বস্তু গ্রহণ করে, লক্ষ্য মেট্রিক যার উপর ভিত্তি করে হাইপারপ্যারামিটারের সর্বোত্তম সেট নির্ধারণ করা হয়, প্রশিক্ষণ কাজের মোট সংখ্যা (max_jobs) হাইপারপ্যারামিটার টিউনিং কাজের জন্য শুরু করতে এবং চালানোর জন্য সর্বাধিক সমান্তরাল প্রশিক্ষণের কাজগুলি (max_parallel_jobs) প্রশিক্ষণের কাজগুলি লাইটজিবিএম অ্যালগরিদম এবং হাইপারপ্যারামিটার মানগুলির সাথে চালিত হয় যার ন্যূনতম mlogloss মেট্রিক নির্বাচন করা হয়। স্বয়ংক্রিয় মডেল টিউনিং কনফিগার করার বিষয়ে আরও তথ্যের জন্য, দেখুন হাইপারপ্যারামিটার টিউনিংয়ের জন্য সর্বোত্তম অনুশীলন.

# Create SageMaker Estimator instance
tabular_estimator = Estimator(
    role=aws_role,
    image_uri=train_image_uri,
    source_dir=train_source_uri,
    model_uri=train_model_uri,
    entry_point="transfer_learning.py",
    instance_count=1,
    instance_type=training_instance_type,
    max_run=360000,
    hyperparameters=hyperparameters,
    output_path=s3_output_location,
) tuner = HyperparameterTuner(
    estimator=tabular_estimator,
    objective_metric_name="multi_logloss",
    hyperparameter_ranges=hyperparameter_ranges,
    metric_definitions=[{"Name": "multi_logloss", "Regex": "multi_logloss: ([0-9\.]+)"}],
    strategy="Bayesian",
    max_jobs=10,
    max_parallel_jobs=2,
    objective_type="Minimize",
    base_tuning_job_name=training_job_name,
)

পূর্ববর্তী কোডে, আমরা টিউনারকে সর্বোচ্চ 10টি পরীক্ষা চালাতে বলি (max_jobs) এবং এক সময়ে মাত্র দুটি সমসাময়িক পরীক্ষা (max_parallel_jobs) এই উভয় পরামিতি আপনার খরচ এবং প্রশিক্ষণের সময় নিয়ন্ত্রণে রাখে।

টিউনিং কাজ চালান

সেজমেকার টিউনিং কাজ চালু করতে, আমরা হাইপারপ্যারামিটার টিউনার অবজেক্টের ফিট পদ্ধতিকে কল করি এবং পাস করি আমাজন সিম্পল স্টোরেজ সার্ভিস (Amazon S3) প্রশিক্ষণ ডেটার পথ:

tuner.fit({"training": training_dataset_s3_path}, logs=True)

স্বয়ংক্রিয় মডেল টিউনিং সর্বোত্তম হাইপারপ্যারামিটারের জন্য অনুসন্ধান করার সময়, আপনি সেজমেকার কনসোলে বা অন করে তাদের অগ্রগতি নিরীক্ষণ করতে পারেন অ্যামাজন ক্লাউডওয়াচ. প্রশিক্ষণ সম্পূর্ণ হলে, প্রশিক্ষণ কনফিগারেশনে নির্দিষ্ট করা Amazon S3 আউটপুট অবস্থানে সেরা মডেলের সূক্ষ্ম-সুরক্ষিত শিল্পকর্মগুলি আপলোড করা হয়।

একটি শেষ পয়েন্টে সেরা মডেল স্থাপন করুন

টিউনিং কাজ সম্পূর্ণ হলে, সেরা মডেল নির্বাচন করা হয়েছে এবং Amazon S3 এ সংরক্ষণ করা হয়েছে। আমরা এখন সেই মডেলটিকে ডিপ্লোয় মেথড কল করে স্থাপন করতে পারি HyperparameterTuner অবজেক্ট এবং প্রয়োজনীয় পরামিতিগুলি পাস করা, যেমন তৈরি করা শেষ পয়েন্টের জন্য ব্যবহার করা দৃষ্টান্তের সংখ্যা, তাদের ধরন, স্থাপন করা চিত্র এবং চালানোর জন্য স্ক্রিপ্ট:

tuner.deploy(
    initial_instance_count=1,
    instance_type=inference_instance_type,
    entry_point="inference.py",
    image_uri=deploy_image_uri,
    source_dir=deploy_source_uri,
    endpoint_name=endpoint_name,
    enable_network_isolation=True
)

আমরা এখন অনুমান অনুরোধ করে তৈরি শেষ পয়েন্ট পরীক্ষা করতে পারি। আপনি সহগামী প্রক্রিয়া বাকি অনুসরণ করতে পারেন নোটবই.

উপসংহার

SageMaker-এ স্বয়ংক্রিয় মডেল টিউনিংয়ের মাধ্যমে, আপনি সমর্থিত অ্যালগরিদমগুলির একটি সহ প্রদত্ত ডেটাসেটে প্রশিক্ষণের কাজ চালিয়ে আপনার মডেলের সেরা সংস্করণটি খুঁজে পেতে পারেন। স্বয়ংক্রিয় মডেল টিউনিং আপনাকে আপনার নির্দিষ্ট করা হাইপারপ্যারামিটার রেঞ্জের মধ্যে সেরা হাইপারপ্যারামিটার কনফিগারেশনের জন্য স্বয়ংক্রিয়ভাবে অনুসন্ধান করে একটি মডেল টিউন করার সময় কমাতে দেয়।

এই পোস্টে, আমরা SageMaker API ব্যবহার করে একটি জাম্পস্টার্ট প্রাক-প্রশিক্ষিত মডেলে স্বয়ংক্রিয় মডেল টিউনিং চালানোর মান দেখিয়েছি। আমরা LightGBM অ্যালগরিদম ব্যবহার করেছি এবং সর্বাধিক 10টি প্রশিক্ষণের কাজ সংজ্ঞায়িত করেছি। আমরা জাম্পস্টার্ট মডেল অপ্টিমাইজেশানকে সমর্থন করে এমন এমএল ফ্রেমওয়ার্কগুলি প্রদর্শন করে উদাহরণ নোটবুকের লিঙ্কও দিয়েছি।

স্বয়ংক্রিয় মডেল টিউনিং সহ একটি জাম্পস্টার্ট মডেলকে কীভাবে অপ্টিমাইজ করা যায় সে সম্পর্কে আরও বিশদ বিবরণের জন্য, আমাদের উদাহরণ পড়ুন নোটবই.


লেখক সম্পর্কে

Amazon SageMaker JumpStart PlatoBlockchain ডেটা ইন্টেলিজেন্সের সাথে স্বয়ংক্রিয় মডেল টিউনিং চালান। উল্লম্ব অনুসন্ধান. আ.ডগ এমবায়া ডেটা এবং বিশ্লেষণে ফোকাস সহ একজন সিনিয়র পার্টনার সলিউশন আর্কিটেক্ট। ডগ AWS অংশীদারদের সাথে ঘনিষ্ঠভাবে কাজ করে, তাদের ক্লাউডে ডেটা এবং বিশ্লেষণ সমাধান একীভূত করতে সাহায্য করে।

Amazon SageMaker JumpStart PlatoBlockchain ডেটা ইন্টেলিজেন্সের সাথে স্বয়ংক্রিয় মডেল টিউনিং চালান। উল্লম্ব অনুসন্ধান. আ.ক্রুথি জয়সিমহা রাও স্কেল-পিএসএ দলের একজন অংশীদার সলিউশন আর্কিটেক্ট। Kruthi অংশীদারদের জন্য প্রযুক্তিগত বৈধতা পরিচালনা করে যাতে তাদের অংশীদারি পথে অগ্রগতি হয়।

Amazon SageMaker JumpStart PlatoBlockchain ডেটা ইন্টেলিজেন্সের সাথে স্বয়ংক্রিয় মডেল টিউনিং চালান। উল্লম্ব অনুসন্ধান. আ.জিয়ানিস মিত্রোপোলস সেজমেকারের জন্য একজন সফটওয়্যার ডেভেলপমেন্ট ইঞ্জিনিয়ার স্বয়ংক্রিয় মডেল টিউনিং.

Amazon SageMaker JumpStart PlatoBlockchain ডেটা ইন্টেলিজেন্সের সাথে স্বয়ংক্রিয় মডেল টিউনিং চালান। উল্লম্ব অনুসন্ধান. আ.আশিস খেতান ড সঙ্গে একজন সিনিয়র ফলিত বিজ্ঞানী আমাজন সেজমেকার জাম্পস্টার্ট এবং Amazon SageMaker বিল্ট-ইন অ্যালগরিদম এবং মেশিন লার্নিং অ্যালগরিদম বিকাশে সাহায্য করে। তিনি মেশিন লার্নিং এবং পরিসংখ্যানগত অনুমানের একজন সক্রিয় গবেষক এবং নিউরিআইপিএস, আইসিএমএল, আইসিএলআর, জেএমএলআর এবং এসিএল সম্মেলনে অনেক গবেষণাপত্র প্রকাশ করেছেন।

সময় স্ট্যাম্প:

থেকে আরো এডাব্লুএস মেশিন লার্নিং

T-Mobile US, Inc. তাদের গ্রাহকদের পছন্দের ভাষায় ভয়েসমেল প্রদান করতে Amazon Transcribe এবং Amazon Translate এর মাধ্যমে কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে | আমাজন ওয়েব সার্ভিসেস

উত্স নোড: 1905364
সময় স্ট্যাম্প: অক্টোবর 24, 2023

স্বায়ত্তশাসিত ড্রাইভিং অ্যাপ্লিকেশনের জন্য ভিত্তিগত দৃষ্টি মডেল এবং ভিজ্যুয়াল প্রম্পট ইঞ্জিনিয়ারিং | আমাজন ওয়েব সার্ভিসেস

উত্স নোড: 1915113
সময় স্ট্যাম্প: নভেম্বর 15, 2023