অ্যামাজন সেজমেকার প্রশিক্ষণে পাইটর্চ লাইটনিং এবং নেটিভ পাইটর্চ ডিডিপি চালান, অ্যামাজন সার্চ প্লেটোব্লকচেন ডেটা ইন্টেলিজেন্স সমন্বিত। উল্লম্ব অনুসন্ধান. আ.

অ্যামাজন সেজমেকার প্রশিক্ষণে পাইটর্চ লাইটনিং এবং নেটিভ পাইটর্চ ডিডিপি চালান, অ্যামাজন অনুসন্ধান বৈশিষ্ট্যযুক্ত

এত ডেটা, এত কম সময়। মেশিন লার্নিং (এমএল) বিশেষজ্ঞ, ডেটা বিজ্ঞানী, প্রকৌশলী এবং উত্সাহীরা বিশ্বজুড়ে এই সমস্যার মুখোমুখি হয়েছেন। প্রাকৃতিক ভাষা প্রক্রিয়াকরণ থেকে কম্পিউটারের দৃষ্টিভঙ্গি, সারণী থেকে টাইম সিরিজ, এবং এর মধ্যে সবকিছু, আপনি যতগুলি জিপিইউ পেতে পারেন তার বিপরীতে ডেটা চালানোর সময় গতির জন্য অপ্টিমাইজ করার পুরনো সমস্যাটি অগণিত সমাধানকে অনুপ্রাণিত করেছে। আজ, আমরা পাইটর্চ বিকাশকারীদের জন্য নেটিভ ওপেন-সোর্স ফ্রেমওয়ার্ক ব্যবহার করে বৈশিষ্ট্যগুলি ঘোষণা করতে পেরে খুশি, যেমন পাইটর্চ লাইটনিং এবং পাইটর্চ ডিডিপি, যা মেঘে তাদের পথ প্রবাহিত করবে।

আমাজন সেজমেকার ML-এর জন্য একটি সম্পূর্ণ-পরিচালিত পরিষেবা, এবং SageMaker মডেল প্রশিক্ষণ স্কেলে উচ্চ-কর্মক্ষমতা প্রশিক্ষণের জন্য একটি অপ্টিমাইজ করা গণনা পরিবেশ। সেজমেকার মডেল ট্রেনিং উচ্চ কর্মক্ষমতা এবং কম খরচে এমএল মডেলগুলিকে সহজে প্রশিক্ষণ এবং পুনরুত্পাদন করার জন্য একটি নিরবিচ্ছিন্ন নিয়ন্ত্রণ বিমানের সাথে দূরবর্তী প্রশিক্ষণের অভিজ্ঞতা প্রদান করে। আমরা সেজমেকার প্রশিক্ষণ পোর্টফোলিওতে নতুন বৈশিষ্ট্যগুলি ঘোষণা করতে পেরে রোমাঞ্চিত যেগুলি স্কেলে PyTorch চালানোকে আরও সহজ এবং আরও অ্যাক্সেসযোগ্য করে তোলে:

  1. PyTorch লাইটনিং এখন একত্রিত করা যেতে পারে SageMaker এর বিতরণ করা ডেটা সমান্তরাল লাইব্রেরি কোড পরিবর্তনের শুধুমাত্র এক লাইনের সাথে।
  2. সেজমেকার মডেল প্রশিক্ষণ এখন NCCL ব্যাকএন্ডের সাথে স্থানীয় PyTorch ডিস্ট্রিবিউটেড ডেটা প্যারালালের জন্য সমর্থন রয়েছে, যা ডেভেলপারদের SageMaker-এ আগের চেয়ে সহজে স্থানান্তর করতে দেয়।

এই পোস্টে, আমরা এই নতুন বৈশিষ্ট্যগুলি নিয়ে আলোচনা করব, এবং এছাড়াও শিখব যে কীভাবে অ্যামাজন সার্চ মডেল প্রশিক্ষণের সময়কে গতি বাড়ানোর জন্য সেজমেকারে অপ্টিমাইজড ডিস্ট্রিবিউটেড ট্রেনিং ব্যাকএন্ড সহ PyTorch Lightning চালায়।

অ্যামাজন অনুসন্ধান কেস স্টাডিতে ডুব দেওয়ার আগে, যারা পরিচিত নন তাদের জন্য আমরা কিছু পটভূমি দিতে চাই SageMaker এর বিতরণ করা ডেটা সমান্তরাল লাইব্রেরি. 2020 সালে, আমরা স্কেলে বিতরণ করা গ্রেডিয়েন্ট ডিসেন্টের জন্য একটি কাস্টম ক্লাস্টার কনফিগারেশন তৈরি এবং চালু করেছি যা সামগ্রিক ক্লাস্টারের কার্যকারিতা বাড়ায়, যা Amazon Science-এ চালু করা হয়েছে হেরিং. উভয় প্যারামিটার সার্ভার এবং রিং-ভিত্তিক টপোলজির সেরা ব্যবহার করে, সেজমেকার ডিস্ট্রিবিউটেড ডেটা প্যারালাল (এসএমডিডিপি) এর জন্য অপ্টিমাইজ করা হয়েছে অ্যামাজন ইলাস্টিক কম্পিউট ক্লাউড (Amazon EC2) নেটওয়ার্ক টপোলজি সহ ইএফএ. বৃহত্তর ক্লাস্টার আকারের জন্য, SMDDP Horovod (TensorFlow) এবং PyTorch বিতরণকৃত ডেটা সমান্তরালে 20-40% থ্রুপুট উন্নতি করতে সক্ষম। ছোট ক্লাস্টার মাপ এবং সমর্থিত মডেলের জন্য, আমরা সুপারিশ করি সেজমেকার ট্রেনিং কম্পাইলার, যা সামগ্রিক কাজের সময় 50% পর্যন্ত কমাতে সক্ষম।

গ্রাহক স্পটলাইট: অ্যামাজন অনুসন্ধানের সাথে সেজমেকারের অপ্টিমাইজ করা ব্যাকএন্ডে পাইটর্চ লাইটনিং

অ্যামাজন অনুসন্ধান অনুসন্ধান এবং আবিষ্কার অভিজ্ঞতার জন্য দায়ী Amazon.com. এটি Amazon-এ কেনার জন্য পণ্য খুঁজছেন এমন গ্রাহকদের অনুসন্ধানের অভিজ্ঞতার ক্ষমতা দেয়৷ উচ্চ স্তরে, Amazon অনুসন্ধান Amazon.com-এ বিক্রি হওয়া সমস্ত পণ্যের জন্য একটি সূচক তৈরি করে। যখন একজন গ্রাহক একটি প্রশ্নে প্রবেশ করেন, তখন Amazon অনুসন্ধান গ্রাহকের প্রশ্নের সাথে প্রাসঙ্গিক এবং আকর্ষণীয় পণ্যগুলিকে মেলানোর জন্য গভীর শিক্ষার মডেল সহ বিভিন্ন ধরনের ML কৌশল ব্যবহার করে৷ তারপরে এটি গ্রাহককে ফলাফল দেখানোর আগে পণ্যগুলিকে র‌্যাঙ্ক করে।

অ্যামাজন অনুসন্ধান বিজ্ঞানীরা পাইটর্চ লাইটনিংকে ডিপ লার্নিং মডেলগুলিকে প্রশিক্ষণ দেওয়ার জন্য একটি প্রধান কাঠামো হিসাবে ব্যবহার করেছেন যা PyTorch-এর উপরে যুক্ত করা ব্যবহারযোগ্য বৈশিষ্ট্যগুলির কারণে অনুসন্ধান র‌্যাঙ্কিংকে শক্তিশালী করে। এই নতুন SageMaker লঞ্চের আগে PyTorch Lightning-এ লেখা গভীর শিক্ষার মডেলগুলির জন্য SMDDP সমর্থিত ছিল না। এটি অ্যামাজন অনুসন্ধান বিজ্ঞানীদের বাধা দেয় যারা PyTorch Lightning ব্যবহার করে ডেটা সমান্তরাল কৌশলগুলি ব্যবহার করে তাদের মডেল প্রশিক্ষণকে স্কেল করতে পছন্দ করে, তাদের প্রশিক্ষণের সময় উল্লেখযোগ্যভাবে কমিয়ে দেয় এবং তাদের নতুন পরীক্ষাগুলি পরীক্ষা করা থেকে বাধা দেয় যার জন্য আরও স্কেলযোগ্য প্রশিক্ষণের প্রয়োজন হয়।

দলের প্রাথমিক বেঞ্চমার্কিং ফলাফলগুলি একটি নমুনা মডেলের জন্য 7.3 গুণ দ্রুত প্রশিক্ষণের সময় দেখায় যখন একটি একক-নোড প্রশিক্ষণ বেসলাইনের তুলনায় আটটি নোডে প্রশিক্ষণ দেওয়া হয়। এই বেঞ্চমার্কিং-এ ব্যবহৃত বেসলাইন মডেল হল একটি মাল্টি-লেয়ার পারসেপ্ট্রন নিউরাল নেটওয়ার্ক যেখানে সাতটি ঘন সম্পূর্ণভাবে সংযুক্ত স্তর এবং 200 টিরও বেশি প্যারামিটার রয়েছে। নিম্নলিখিত সারণী ml.p3.16xlarge SageMaker প্রশিক্ষণ দৃষ্টান্তে বেঞ্চমার্কিং ফলাফলের সংক্ষিপ্ত বিবরণ দেয়।

দৃষ্টান্তের সংখ্যা প্রশিক্ষণের সময় (মিনিট) উন্নতি
1 99 বেসলাইন
2 55 1.8x
4 27 3.7x
8 13.5 7.3x

এরপরে, আমরা নতুন লঞ্চের বিশদ বিবরণে ডুব দিই। আপনি যদি চান, আপনি আমাদের সংশ্লিষ্ট মাধ্যমে পদক্ষেপ করতে পারেন উদাহরণ নোটবুক।

SageMaker বিতরণকৃত প্রশিক্ষণ লাইব্রেরির সাথে PyTorch Lightning চালান

আমরা ঘোষণা করতে পেরে আনন্দিত যে SageMaker ডেটা সমান্তরাল এখন SageMaker প্রশিক্ষণের মধ্যে PyTorch Lightning-এর সাথে নির্বিঘ্নে একত্রিত হয়েছে।

PyTorch Lightning হল একটি ওপেন সোর্স ফ্রেমওয়ার্ক যা PyTorch-এ কাস্টম মডেল লেখার জন্য একটি সরলীকরণ প্রদান করে। টেনসরফ্লো-এর জন্য কেরাস যা করেছে তার মতো কিছু উপায়ে, বা এমনকি যুক্তিযুক্তভাবে আলিঙ্গন ফেস, PyTorch Lightning একটি উচ্চ-স্তরের API প্রদান করে যার মধ্যে PyTorch-এর অনেক নিম্ন-স্তরের কার্যকারিতার জন্য বিমূর্ততা রয়েছে। এর মধ্যে রয়েছে মডেল সংজ্ঞায়িত করা, প্রোফাইলিং, মূল্যায়ন, ছাঁটাই, মডেল সমান্তরালতা, হাইপারপ্যারামিটার কনফিগারেশন, ট্রান্সফার লার্নিং এবং আরও অনেক কিছু।

পূর্বে, PyTorch Lightning ডেভেলপাররা কীভাবে তাদের প্রশিক্ষণ কোডকে উচ্চ-পারফরম্যান্স SageMaker GPU ক্লাস্টারে নির্বিঘ্নে স্থানান্তর করতে হয় সে সম্পর্কে অনিশ্চিত ছিল। উপরন্তু, SageMaker ডেটা সমান্তরাল দ্বারা প্রবর্তিত দক্ষতা লাভের সুবিধা নেওয়ার তাদের জন্য কোন উপায় ছিল না।

PyTorch Lightning-এর জন্য, সাধারণভাবে বলতে গেলে, SageMaker Training-এ এই APIগুলি চালানোর জন্য সামান্য-কোন-কোড পরিবর্তন করা উচিত নয়। উদাহরণে নোটবুক আমরা ব্যবহার করি ডিডিপি স্ট্র্যাটেজি এবং DDPP প্লাগইন পদ্ধতি।

একটি অপ্টিমাইজড ব্যাকএন্ড হিসাবে SageMaker ডেটা সমান্তরাল সহ PyTorch Lightning ব্যবহার করার জন্য তিনটি ধাপ রয়েছে:

  1. একটি সমর্থিত ব্যবহার করুন AWS ডিপ লার্নিং কন্টেইনার (DLC) আপনার বেস ইমেজ হিসাবে, অথবা ঐচ্ছিকভাবে আপনার নিজস্ব ধারক তৈরি করুন এবং সেজমেকার ডেটা প্যারালাল ব্যাকএন্ড নিজেই ইনস্টল করুন. নিশ্চিত করুন যে আপনার প্রয়োজনীয় প্যাকেজগুলিতে PyTorch Lightning অন্তর্ভুক্ত রয়েছে, যেমন a এর সাথে requirements.txt ফাইল.
  2. আপনার প্রশিক্ষণ স্ক্রিপ্টে কিছু ছোটখাটো কোড পরিবর্তন করুন যা অপ্টিমাইজ করা ব্যাকএন্ড সক্ষম করে। এর মধ্যে রয়েছে:
    1. এসএম ডিডিপি লাইব্রেরি আমদানি করুন:
      import smdistributed.dataparallel.torch.torch_smddp
      

    2. সেজমেকারের জন্য পাইটর্চ লাইটনিং পরিবেশ সেট আপ করুন:
      from pytorch_lightning.plugins.environments.lightning_environment 
        import LightningEnvironment
      
      env = LightningEnvironment()
      env.world_size = lambda: int(os.environ["WORLD_SIZE"])
      env.global_rank = lambda: int(os.environ["RANK"])

    3. আপনি যদি 1.5.10 এর থেকে পুরানো PyTorch Lightning-এর সংস্করণ ব্যবহার করেন তবে আপনাকে আরও কয়েকটি ধাপ যোগ করতে হবে।
      1. প্রথমে, পরিবেশ পরিবর্তনশীল যোগ করুন:
        os.environ["PL_TORCH_DISTRIBUTED_BACKEND"] = "smddp"

      2. দ্বিতীয়ত, আপনি ব্যবহার নিশ্চিত করুন DDPPlugin, বরং DDPStrategy. আপনি যদি আরও সাম্প্রতিক সংস্করণ ব্যবহার করেন, যা আপনি সহজেই স্থাপন করে সেট করতে পারেন requirements.txt মধ্যে source_dir আপনার কাজের জন্য, তাহলে এটির প্রয়োজন নেই। নিম্নলিখিত কোড দেখুন:
        ddp = DDPPlugin(parallel_devices=[torch.device("cuda", d) for d in range(num_gpus)], cluster_environment=env)

    4. ঐচ্ছিকভাবে, আপনার প্রক্রিয়া গ্রুপ ব্যাকএন্ড হিসাবে সংজ্ঞায়িত করুন "smddp" মধ্যে DDPSTrategy বস্তু যাইহোক, যদি আপনি PyTorch DDP ব্যাকএন্ডের সাথে PyTorch Lightning ব্যবহার করেন, যা সমর্থিত, তাহলে সহজভাবে এটি সরিয়ে ফেলুন `process_group_backend` পরামিতি। নিম্নলিখিত কোড দেখুন:
      ddp = DDPStrategy(
        cluster_environment=env, 
        process_group_backend="smddp", 
        accelerator="gpu")

  3. নিশ্চিত করুন যে আপনার একটি বন্টন পদ্ধতি অনুমানকারীতে উল্লেখ করা আছে, যেমন distribution={"smdistributed":{"dataparallel":{"enabled":True} আপনি যদি হেরিং ব্যাকএন্ড ব্যবহার করেন, বা distribution={"pytorchddp":{"enabled":True}.
  • উপযুক্ত পরামিতি একটি সম্পূর্ণ তালিকা জন্য distribution প্যারামিটার, আমাদের ডকুমেন্টেশন দেখুন এখানে.

এখন আপনি আপনার SageMaker প্রশিক্ষণ কাজ চালু করতে পারেন! আপনি পাইথন SDK, Boto3, SageMaker কনসোল, এর মাধ্যমে আপনার প্রশিক্ষণের কাজটি চালু করতে পারেন এডাব্লুএস কমান্ড লাইন ইন্টারফেস (AWS CLI), এবং অগণিত অন্যান্য পদ্ধতি। একটি AWS দৃষ্টিকোণ থেকে, এটি হয় একটি একক API কমান্ড: create-training-job. আপনি আপনার স্থানীয় টার্মিনাল থেকে এই কমান্ডটি চালু করেন কিনা, একটি এডাব্লুএস ল্যাম্বদা ফাংশন, একটি অ্যামাজন সেজমেকার স্টুডিও নোটবুক, একটি KubeFlow পাইপলাইন, বা অন্য কোনো গণনা পরিবেশ সম্পূর্ণরূপে আপনার উপর নির্ভর করে।

অনুগ্রহ করে মনে রাখবেন যে PyTorch Lightning এবং SageMaker Data Parallel-এর মধ্যে ইন্টিগ্রেশন বর্তমানে PyTorch-এর শুধুমাত্র নতুন সংস্করণগুলির জন্য সমর্থিত, 1.11 থেকে শুরু হয়৷ উপরন্তু, PyTorch 1.12 থেকে শুরু হওয়া SageMaker-এর জন্য এই রিলিজটি শুধুমাত্র AWS DLC-তে পাওয়া যায়। নিশ্চিত করুন যে আপনি এই ছবিটিকে আপনার ভিত্তি হিসাবে নির্দেশ করেছেন৷ ভিতরে us-east-1, এই ঠিকানাটি নিম্নরূপ:

ecr_image = '763104351884.dkr.ecr.us-east-1.amazonaws.com/pytorch-training:1.12.0-gpu-py38-cu113-ubuntu20.04-sagemaker'

তারপরে আপনি এটিকে আপনার বেস ইমেজ হিসাবে ব্যবহার করে আপনার ডকার কন্টেইনারকে প্রসারিত করতে পারেন, অথবা আপনি এটিকে পরিবর্তনশীল হিসাবে পাস করতে পারেন image_uri এর যুক্তি সেজমেকার প্রশিক্ষণ অনুমানকারী।

ফলস্বরূপ, আপনি AWS-এ উপলব্ধ সেরা পারফরম্যান্স সহ SageMaker Training-এর অপ্টিমাইজ করা GPU-তে আপনার PyTorch Lightning কোড চালাতে সক্ষম হবেন।

SageMaker-এ PyTorch বিতরণ করা ডেটা সমান্তরাল চালান

সবচেয়ে বড় সমস্যা PyTorch বিতরণ করা ডেটা সমান্তরাল (DDP) সমাধান প্রতারণামূলকভাবে সহজ: গতি। একটি ভাল বিতরণ করা প্রশিক্ষণ কাঠামো স্থিতিশীলতা, নির্ভরযোগ্যতা এবং সবচেয়ে গুরুত্বপূর্ণভাবে, স্কেলে চমৎকার কর্মক্ষমতা প্রদান করা উচিত। PyTorch DDP একক-নোড এবং মাল্টি-নোড উভয় সেটিংসে একাধিক GPU ডিভাইসে তাদের মডেলগুলিকে প্রতিলিপি করার জন্য API সহ টর্চ ডেভেলপারদের প্রদানের মাধ্যমে এটি সরবরাহ করে। ফ্রেমওয়ার্ক তারপর প্রশিক্ষণ ডেটাসেট থেকে প্রতিটি মডেলের অনুলিপিতে বিভিন্ন অবজেক্টের শার্ডিং পরিচালনা করে, প্রতিটি মডেল কপির প্রতিটি ধাপে সিঙ্ক্রোনাইজ করার জন্য গ্রেডিয়েন্টের গড় করে। এটি সম্পূর্ণ প্রশিক্ষণ রানের মোট সমাপ্তিতে একটি মডেল তৈরি করে। নিম্নলিখিত চিত্রটি এই প্রক্রিয়াটি চিত্রিত করে।

PyTorch DDP বড় ডেটাসেট ব্যবহার করে এমন প্রকল্পগুলিতে সাধারণ। প্রতিটি ডেটাসেটের সুনির্দিষ্ট আকার ব্যাপকভাবে পরিবর্তিত হবে, তবে একটি সাধারণ নির্দেশিকা হল ডেটাসেট, গণনার আকার এবং মডেলের আকার একই অনুপাতের স্কেল করা। বলা স্কেলিং আইন, এই তিনটির সর্বোত্তম সংমিশ্রণ বিতর্কের জন্য অনেক বেশি এবং অ্যাপ্লিকেশনের উপর ভিত্তি করে পরিবর্তিত হবে। AWS-এ, একাধিক গ্রাহকদের সাথে কাজ করার উপর ভিত্তি করে, আমরা ডেটা সমান্তরাল কৌশলগুলির সুবিধাগুলি স্পষ্টভাবে দেখতে পারি যখন একটি সামগ্রিক ডেটাসেটের আকার কমপক্ষে কয়েক দশ GBs হয়। যখন ডেটাসেটগুলি আরও বড় হয়, তখন সামগ্রিক পরীক্ষার গতি বাড়ানোর এবং আপনার সময়কে মান উন্নত করার জন্য কিছু ধরণের ডেটা সমান্তরাল কৌশল প্রয়োগ করা একটি গুরুত্বপূর্ণ কৌশল।

পূর্বে, যে সমস্ত গ্রাহকরা প্রাঙ্গনে বা অন্যান্য গণনা পরিবেশে বিতরণ করা প্রশিক্ষণের জন্য PyTorch DDP ব্যবহার করছিলেন তাদের একটি কাঠামোর অভাব ছিল যাতে তাদের প্রকল্পগুলিকে সহজে SageMaker প্রশিক্ষণে স্থানান্তরিত করা যায় যাতে একটি নিরবিচ্ছিন্ন নিয়ন্ত্রণ সমতলের সাথে উচ্চ-কার্যক্ষমতা সম্পন্ন GPU-এর সুবিধা নেওয়া যায়। বিশেষত, তাদের হয় তাদের ডেটা সমান্তরাল ফ্রেমওয়ার্ক এসএমডিডিপিতে স্থানান্তরিত করতে হবে, অথবা সেজমেকার প্রশিক্ষণে ম্যানুয়ালি পাইটর্চ ডিডিপি-এর ক্ষমতা বিকাশ ও পরীক্ষা করতে হবে। আজ, সেজমেকার ট্রেনিং তাদের PyTorch DDP কোডে অনবোর্ডিং গ্রাহকদের জন্য একটি নিরবচ্ছিন্ন অভিজ্ঞতা প্রদান করতে পেরে খুশি।

এটি কার্যকরভাবে ব্যবহার করার জন্য, আপনাকে আপনার প্রশিক্ষণ স্ক্রিপ্টগুলিতে কোন পরিবর্তন করতে হবে না।

আপনি নিম্নলিখিত কোডে এই নতুন প্যারামিটারটি দেখতে পারেন। মধ্যে distribution প্যারামিটার, সহজভাবে যোগ করুন pytorchddp এবং সেট সক্রিয় হিসাবে true.

estimator = PyTorch(
    base_job_name="pytorch-dataparallel-mnist",
    source_dir="code",
    entry_point = "my_model.py",
    ... 
    # Training using SMDataParallel Distributed Training Framework
    distribution = {"pytorchddp": {"enabled": "true"}}
)

এই নতুন কনফিগারেশনটি SageMaker Python SDK সংস্করণ 2.102.0 এবং PyTorch DLC এর 1.11 এ শুরু হয়।

PyTorch DDP বিকাশকারীদের জন্য যারা জনপ্রিয় সাথে পরিচিত টর্চরান ফ্রেমওয়ার্ক, এটি জেনে রাখা সহায়ক যে এটি সেজমেকার প্রশিক্ষণ পরিবেশে প্রয়োজনীয় নয়, যা ইতিমধ্যেই শক্তিশালী দোষ সহনশীলতা প্রদান করে। যাইহোক, কোড পুনঃলিখন কমাতে, আপনি অন্য লঞ্চার স্ক্রিপ্ট আনতে পারেন যা এই কমান্ডটি আপনার এন্ট্রি পয়েন্ট হিসাবে চালায়।

এখন PyTorch বিকাশকারীরা সহজেই তাদের স্ক্রিপ্টগুলিকে SageMaker-এ স্থানান্তর করতে পারে, নিশ্চিত করে যে তাদের স্ক্রিপ্ট এবং কন্টেনারগুলি একাধিক কম্পিউট পরিবেশে নির্বিঘ্নে চলতে পারে।

এটি তাদের ভবিষ্যতে সুবিধা নিতে প্রস্তুত করে সেজমেকারের বিতরণকৃত প্রশিক্ষণ লাইব্রেরি যেগুলি AWS-অপ্টিমাইজড ট্রেনিং টপোলজি প্রদান করে যাতে 40% পর্যন্ত স্পিডআপ এনহান্সমেন্ট প্রদান করা যায়। PyTorch বিকাশকারীদের জন্য, এটি কোডের একক লাইন! PyTorch DDP কোডের জন্য, আপনি সহজভাবে ব্যাকএন্ড সেট করতে পারেন smddp শুরুতে (দেখুন একটি PyTorch প্রশিক্ষণ স্ক্রিপ্ট পরিবর্তন করুন), নিম্নলিখিত কোডে দেখানো হয়েছে:

import smdistributed.dataparallel.torch.torch_smddp
import torch.distributed as dist
dist.init_process_group(backend='smddp')

আমরা উপরে দেখেছি, আপনি এর ব্যাকএন্ডও সেট করতে পারেন DDPStrategy থেকে smddp লাইটনিং ব্যবহার করার সময়। এই পর্যন্ত হতে পারে 40% সামগ্রিক গতি বড় ক্লাস্টার জন্য! সেজমেকারে বিতরণ করা প্রশিক্ষণ সম্পর্কে আরও জানতে দেখুন আমাদের অন-ডিমান্ড ওয়েবিনার, সমর্থন নোটবুক, প্রাসঙ্গিক ডকুমেন্টেশন, এবং কাগজপত্র.

উপসংহার

এই পোস্টে, আমরা সেজমেকার ট্রেনিং পরিবারের মধ্যে দুটি নতুন বৈশিষ্ট্য চালু করেছি। এটি PyTorch বিকাশকারীদের জন্য PyTorch DDP এবং PyTorch Lightning উভয় SageMaker-এ তাদের বিদ্যমান কোড ব্যবহার করা আরও সহজ করে তোলে।

আমরা আরও দেখিয়েছি যে কীভাবে Amazon অনুসন্ধান তাদের গভীর শিক্ষার মডেলগুলিকে প্রশিক্ষণের জন্য SageMaker প্রশিক্ষণ ব্যবহার করে, এবং বিশেষ করে PyTorch Lightning-এর সাথে SageMaker ডেটা সমান্তরাল অপ্টিমাইজ করা যৌথ লাইব্রেরি ব্যাকএন্ড হিসাবে। সামগ্রিকভাবে বিতরণ প্রশিক্ষণে চলে যাওয়া Amazon অনুসন্ধানকে 7.3x দ্রুত ট্রেনের সময় অর্জনে সহায়তা করেছে।


লেখক সম্পর্কে

অ্যামাজন সেজমেকার প্রশিক্ষণে পাইটর্চ লাইটনিং এবং নেটিভ পাইটর্চ ডিডিপি চালান, অ্যামাজন সার্চ প্লেটোব্লকচেন ডেটা ইন্টেলিজেন্স সমন্বিত। উল্লম্ব অনুসন্ধান. আ.এমিলি ওয়েবার SageMaker চালু হওয়ার ঠিক পরে AWS-এ যোগদান করেছে, এবং তখন থেকেই বিশ্বকে এটি সম্পর্কে জানানোর চেষ্টা করছে! গ্রাহকদের জন্য নতুন ML অভিজ্ঞতা তৈরির বাইরে, এমিলি তিব্বতি বৌদ্ধধর্মের ধ্যান ও অধ্যয়ন উপভোগ করেন।

অ্যামাজন সেজমেকার প্রশিক্ষণে পাইটর্চ লাইটনিং এবং নেটিভ পাইটর্চ ডিডিপি চালান, অ্যামাজন সার্চ প্লেটোব্লকচেন ডেটা ইন্টেলিজেন্স সমন্বিত। উল্লম্ব অনুসন্ধান. আ. করণ ধীমান কানাডার টরন্টোতে অবস্থিত AWS-এর একজন সফটওয়্যার ডেভেলপমেন্ট ইঞ্জিনিয়ার। তিনি মেশিন লার্নিং স্পেস এবং ডিস্ট্রিবিউটেড কম্পিউটিং ওয়ার্কলোড ত্বরান্বিত করার জন্য সমাধান তৈরির বিষয়ে অত্যন্ত উত্সাহী।

অ্যামাজন সেজমেকার প্রশিক্ষণে পাইটর্চ লাইটনিং এবং নেটিভ পাইটর্চ ডিডিপি চালান, অ্যামাজন সার্চ প্লেটোব্লকচেন ডেটা ইন্টেলিজেন্স সমন্বিত। উল্লম্ব অনুসন্ধান. আ.বিশ্ব কারিয়া AWS ডিপ ইঞ্জিনে একজন সফটওয়্যার ডেভেলপমেন্ট ইঞ্জিনিয়ার। মেশিন লার্নিং এবং ডিস্ট্রিবিউটেড সিস্টেমের সংযোগস্থলে তার আগ্রহ রয়েছে এবং তিনি প্রযুক্তি এবং এআইতে নারীদের ক্ষমতায়নের বিষয়েও আগ্রহী।

অ্যামাজন সেজমেকার প্রশিক্ষণে পাইটর্চ লাইটনিং এবং নেটিভ পাইটর্চ ডিডিপি চালান, অ্যামাজন সার্চ প্লেটোব্লকচেন ডেটা ইন্টেলিজেন্স সমন্বিত। উল্লম্ব অনুসন্ধান. আ.ইমান এলনাহরাউয়ী অ্যামাজন অনুসন্ধানের একজন প্রধান সফ্টওয়্যার ইঞ্জিনিয়ার হলেন মেশিন লার্নিং ত্বরণ, স্কেলিং এবং অটোমেশনের প্রচেষ্টার নেতৃত্ব দিচ্ছেন৷ তার দক্ষতা মেশিন লার্নিং, ডিস্ট্রিবিউটেড সিস্টেম এবং ব্যক্তিগতকরণ সহ একাধিক ক্ষেত্রে বিস্তৃত।

সময় স্ট্যাম্প:

থেকে আরো এডাব্লুএস মেশিন লার্নিং

অটো শাটডাউন লাইফসাইকেল কনফিগারেশন সহ সেজমেকার স্টুডিও সমর্থন করার জন্য শুধুমাত্র ভিপিসি মোডে Amazon SageMaker ডোমেন এবং Terraform এর সাথে SageMaker ক্যানভাস | আমাজন ওয়েব সার্ভিসেস

উত্স নোড: 1888314
সময় স্ট্যাম্প: সেপ্টেম্বর 11, 2023