PyTorch হল একটি মেশিন লার্নিং (ML) ফ্রেমওয়ার্ক যা AWS গ্রাহকরা বিভিন্ন ধরনের অ্যাপ্লিকেশন যেমন কম্পিউটার ভিশন, প্রাকৃতিক ভাষা প্রক্রিয়াকরণ, বিষয়বস্তু তৈরি এবং আরও অনেক কিছুর জন্য ব্যাপকভাবে ব্যবহার করেন। সাম্প্রতিক PyTorch 2.0 প্রকাশের সাথে, AWS গ্রাহকরা এখন PyTorch 1.x এর সাথে একই জিনিসগুলি করতে পারে তবে উন্নত প্রশিক্ষণের গতি, কম মেমরি ব্যবহার এবং উন্নত বিতরণ ক্ষমতা সহ দ্রুত এবং স্কেলে। torch.compile, TorchDynamo, AOTAutograd, PrimTorch, এবং TorchInductor সহ বেশ কিছু নতুন প্রযুক্তি PyTorch2.0 রিলিজে অন্তর্ভুক্ত করা হয়েছে। নির্দেশ করে PyTorch 2.0: আমাদের পরবর্তী প্রজন্মের রিলিজ যা আগের মতো দ্রুত, আরো পাইথনিক এবং গতিশীল বিস্তারিত জানার জন্য.
এই পোস্টটি AWS-এ PyTorch 2.0 ব্যবহার করে বৃহৎ-স্কেল, উচ্চ-পারফরম্যান্স ডিস্ট্রিবিউটেড ML মডেল প্রশিক্ষণ এবং স্থাপনার কার্যক্ষমতা এবং সহজতা প্রদর্শন করে। এই পোস্টটি ব্যবহার করে সেন্টিমেন্ট বিশ্লেষণের জন্য একটি RoBERTa (Robustly Optimized BERT Pretraining Approach) মডেল ফাইন-টিউনিংয়ের ধাপে ধাপে বাস্তবায়নের মধ্য দিয়ে চলে। AWS ডিপ লার্নিং AMIs (AWS DLAMI) এবং AWS ডিপ লার্নিং কন্টেইনার (DLCs) চালু আছে অ্যামাজন ইলাস্টিক কম্পিউট ক্লাউড (Amazon EC2 p4d.24xlarge) যখন PyTorch 42 torch.compile + bf2.0 + fused AdamW এর সাথে ব্যবহার করা হয় তখন 16% স্পিডআপ পরিলক্ষিত হয়। সূক্ষ্ম সুর করা মডেল তারপর স্থাপন করা হয় AWS Graviton-ভিত্তিক C7g EC2 ইনস্ট্যান্স অন আমাজন সেজমেকার PyTorch 10 এর তুলনায় একটি পর্যবেক্ষণ করা 1.13% গতির সাথে।
নিম্নলিখিত চিত্রটি AWS PyTorch 2 DLAMI + DLC এর সাথে Amazon EC4 p24d.2.0xlarge-এ একটি RoBERTA মডেলকে ফাইন-টিউনিং করার একটি পারফরম্যান্স বেঞ্চমার্ক দেখায়।
নির্দেশ করে AWS Graviton প্রসেসরের সাথে অপ্টিমাইজড PyTorch 2.0 অনুমান PyTorch 2.0-এর জন্য AWS Graviton-ভিত্তিক ইনস্ট্যান্স ইনফারেন্স পারফরম্যান্স বেঞ্চমার্কের বিশদ বিবরণের জন্য।
AWS-এ PyTorch 2.0-এর জন্য সমর্থন
PyTorch2.0 সমর্থন এই পোস্টে উদাহরণ ব্যবহারের ক্ষেত্রে দেখানো পরিষেবা এবং গণনার মধ্যে সীমাবদ্ধ নয়; এটি এডব্লিউএস-এ আরও অনেকের কাছে প্রসারিত, যা আমরা এই বিভাগে আলোচনা করেছি।
ব্যবসার চাহিদা
অনেক AWS গ্রাহক, বিভিন্ন শিল্পে, কৃত্রিম বুদ্ধিমত্তা (AI) ব্যবহার করে তাদের ব্যবসায় পরিবর্তন আনছেন, বিশেষ করে জেনারেটিভ AI এবং বৃহৎ ভাষা মডেলের (LLMs) ক্ষেত্রে যা মানুষের মতো পাঠ্য তৈরি করার জন্য ডিজাইন করা হয়েছে। এগুলি মূলত গভীর শিক্ষার কৌশলগুলির উপর ভিত্তি করে বড় মডেল যা শত শত বিলিয়ন প্যারামিটারের সাথে প্রশিক্ষিত। মডেলের আকারের বৃদ্ধি প্রশিক্ষণের সময়কে দিন থেকে সপ্তাহে, এমনকি কিছু ক্ষেত্রে মাস পর্যন্ত বাড়িয়ে দিচ্ছে। এটি প্রশিক্ষণ এবং অনুমান খরচে একটি সূচকীয় বৃদ্ধি ঘটাচ্ছে, যার জন্য প্রয়োজন আগের চেয়ে বেশি, একটি কাঠামো যেমন PyTorch 2.0 ত্বরিত মডেল প্রশিক্ষণের অন্তর্নির্মিত সমর্থন সহ এবং নির্দিষ্ট কাজের চাপ এবং কর্মক্ষমতা প্রয়োজনের জন্য তৈরি AWS-এর অপ্টিমাইজ করা অবকাঠামো।
গণনার পছন্দ
AWS শক্তিশালী কম্পিউট, উচ্চ-গতির নেটওয়ার্কিং, এবং স্কেলযোগ্য উচ্চ-পারফরম্যান্স স্টোরেজ বিকল্পগুলির বিস্তৃত পছন্দের উপর PyTorch 2.0 সমর্থন প্রদান করে যা আপনি যেকোনো ML প্রকল্প বা অ্যাপ্লিকেশনের জন্য ব্যবহার করতে পারেন এবং আপনার কর্মক্ষমতা এবং বাজেটের প্রয়োজনীয়তার সাথে মানানসই করে কাস্টমাইজ করতে পারেন। এটি পরবর্তী বিভাগে চিত্রটিতে প্রকাশিত হয়েছে; নীচের স্তরে, আমরা AWS Graviton, Nvidia, AMD, এবং Intel প্রসেসর দ্বারা চালিত গণনা দৃষ্টান্তগুলির একটি বিস্তৃত নির্বাচন প্রদান করি।
মডেল স্থাপনার জন্য, আপনি ARM-ভিত্তিক প্রসেসর ব্যবহার করতে পারেন যেমন সম্প্রতি ঘোষিত AWS Graviton-ভিত্তিক উদাহরণ যা PyTorch 2.0-এর জন্য পূর্ববর্তী PyTorch রিলিজের তুলনায় Resnet3.5-এর জন্য 50 গুণ গতির সাথে এবং 1.4 গুণ পর্যন্ত গতির অনুমান কার্যক্ষমতা প্রদান করে। BERT-এর জন্য গতি, AWS Graviton-ভিত্তিক দৃষ্টান্তগুলিকে CPU-ভিত্তিক মডেল অনুমান সমাধানের জন্য AWS-এ দ্রুততম কম্পিউট-অপ্টিমাইজ করা উদাহরণ তৈরি করে।
ML পরিষেবার পছন্দ
AWS কম্পিউট ব্যবহার করতে, আপনি ML ডেভেলপমেন্ট, কম্পিউট এবং ওয়ার্কফ্লো অর্কেস্ট্রেশনের জন্য গ্লোবাল ক্লাউড-ভিত্তিক পরিষেবাগুলির একটি বিস্তৃত সেট থেকে নির্বাচন করতে পারেন। এই পছন্দটি আপনাকে আপনার ব্যবসা এবং ক্লাউড কৌশলগুলির সাথে সারিবদ্ধ করতে এবং আপনার পছন্দের প্ল্যাটফর্মে PyTorch 2.0 কাজগুলি চালানোর অনুমতি দেয়। উদাহরণস্বরূপ, যদি আপনার অন-প্রিমিসেস সীমাবদ্ধতা থাকে বা ওপেন-সোর্স পণ্যগুলিতে বিদ্যমান বিনিয়োগ থাকে, আপনি Amazon EC2 ব্যবহার করতে পারেন, AWS সমান্তরাল ক্লাস্টার, বা AWS আল্ট্রাক্লাস্টার একটি স্ব-পরিচালিত পদ্ধতির উপর ভিত্তি করে বিতরণকৃত প্রশিক্ষণ কাজের চাপ চালানোর জন্য। আপনি খরচ-অনুকূলিত, সম্পূর্ণরূপে পরিচালিত, এবং উত্পাদন-স্কেল প্রশিক্ষণ পরিকাঠামোর জন্য সেজমেকারের মতো একটি সম্পূর্ণরূপে পরিচালিত পরিষেবা ব্যবহার করতে পারেন। SageMaker এছাড়াও বিভিন্ন MLOps টুলের সাথে একীভূত করে, যা আপনাকে আপনার মডেল স্থাপনা স্কেল করতে, অনুমান খরচ কমাতে, উৎপাদনে আরও কার্যকরভাবে মডেল পরিচালনা করতে এবং অপারেশনাল বোঝা কমাতে দেয়।
একইভাবে, আপনার যদি বিদ্যমান Kubernetes বিনিয়োগ থাকে, আপনিও ব্যবহার করতে পারেন অ্যামাজন ইলাস্টিক কুবারনেটস পরিষেবা (Amazon EKS) এবং AWS-এ কুবেফ্লো বিতরণ করা প্রশিক্ষণের জন্য একটি ML পাইপলাইন বাস্তবায়ন করতে বা AWS- নেটিভ কন্টেইনার অর্কেস্ট্রেশন পরিষেবা ব্যবহার করতে অ্যামাজন ইলাস্টিক কনটেইনার পরিষেবা মডেল প্রশিক্ষণ এবং স্থাপনার জন্য (Amazon ECS)। আপনার ML প্ল্যাটফর্ম তৈরি করার বিকল্পগুলি এই পরিষেবাগুলির মধ্যে সীমাবদ্ধ নয়; আপনি আপনার PyTorch 2.0 কাজের জন্য আপনার সাংগঠনিক প্রয়োজনীয়তার উপর নির্ভর করে বাছাই এবং চয়ন করতে পারেন।
AWS DLAMI এবং AWS DLC সহ PyTorch 2.0 সক্ষম করা হচ্ছে
AWS পরিষেবাগুলির উপরোক্ত স্ট্যাক এবং শক্তিশালী গণনা ব্যবহার করার জন্য, আপনাকে PyTorch2.0 ফ্রেমওয়ার্ক এবং এর প্রয়োজনীয় নির্ভরতাগুলির একটি অপ্টিমাইজ করা সংকলিত সংস্করণ ইনস্টল করতে হবে, যার মধ্যে অনেকগুলি স্বাধীন প্রকল্প, এবং সেগুলি শেষ থেকে শেষ পর্যন্ত পরীক্ষা করতে হবে। ত্বরিত গণিত রুটিনের জন্য আপনার CPU-নির্দিষ্ট লাইব্রেরি, ত্বরিত গণিত এবং আন্ত-GPU যোগাযোগের রুটিনের জন্য GPU-নির্দিষ্ট লাইব্রেরি এবং GPU লাইব্রেরিগুলি কম্পাইল করার জন্য ব্যবহৃত GPU কম্পাইলারের সাথে সারিবদ্ধ GPU ড্রাইভারগুলির প্রয়োজন হতে পারে। আপনার কাজের জন্য যদি বড় মাপের মাল্টি-নোড প্রশিক্ষণের প্রয়োজন হয়, তাহলে আপনার একটি অপ্টিমাইজ করা নেটওয়ার্ক প্রয়োজন যা সর্বনিম্ন বিলম্বিতা এবং সর্বোচ্চ থ্রুপুট প্রদান করতে পারে। আপনি আপনার স্ট্যাক তৈরি করার পরে, আপনাকে নিয়মিতভাবে স্ক্যান করতে হবে এবং নিরাপত্তা দুর্বলতার জন্য সেগুলিকে প্যাচ করতে হবে এবং প্রতিটি ফ্রেমওয়ার্ক সংস্করণ আপগ্রেড করার পরে স্ট্যাকটি পুনর্নির্মাণ এবং পুনরায় পরীক্ষা করতে হবে।
যদিও ক্লাউডে গভীর শিক্ষাকে ত্বরান্বিত করার জন্য AWS ফ্রেমওয়ার্ক, নির্ভরতা এবং সরঞ্জামগুলির একটি কিউরেটেড এবং সুরক্ষিত সেট অফার করে এই ভারী উত্তোলন কমাতে সহায়তা করে AWS DLAMIs এবং AWS DLCs. এই পূর্ব-নির্মিত এবং পরীক্ষিত মেশিন ইমেজ এবং কন্টেইনারগুলি EC2 এক্সিলারেটেড কম্পিউটিং ইন্সট্যান্স প্রকারের গভীর শিক্ষার জন্য অপ্টিমাইজ করা হয়েছে, যা আপনাকে আরও দক্ষতার সাথে এবং সহজে বিতরণ করা কাজের চাপের জন্য একাধিক নোডে স্কেল করার অনুমতি দেয়। এটি একটি প্রাক-নির্মিত অন্তর্ভুক্ত ইলাস্টিক ফ্যাব্রিক অ্যাডাপ্টার (EFA), Nvidia GPU স্ট্যাক, এবং অনেক ডিপ লার্নিং ফ্রেমওয়ার্ক (TensorFlow, MXNet, এবং PyTorch 2.0 এর সর্বশেষ রিলিজ সহ) ডিস্ট্রিবিউটেড ডিপ লার্নিং ট্রেনিং এর জন্য। ডিপ লার্নিং সফ্টওয়্যার এবং ড্রাইভার ইনস্টল এবং সমস্যা সমাধানে বা ML পরিকাঠামো তৈরি করতে আপনাকে সময় ব্যয় করতে হবে না, বা সুরক্ষা দুর্বলতার জন্য এই চিত্রগুলিকে প্যাচ করার জন্য বা প্রতিটি নতুন ফ্রেমওয়ার্ক সংস্করণ আপগ্রেড করার পরে চিত্রগুলিকে পুনরায় তৈরি করার জন্য আপনাকে পুনরাবৃত্তিমূলক খরচ বহন করতে হবে না। পরিবর্তে, আপনি স্বল্প সময়ের মধ্যে স্কেলে চাকরির প্রশিক্ষণের উচ্চ মূল্য-সংযোজন প্রচেষ্টার উপর ফোকাস করতে পারেন এবং আপনার এমএল মডেলগুলিতে দ্রুত পুনরাবৃত্তি করতে পারেন।
সমাধান ওভারভিউ
GPU-এর উপর প্রশিক্ষণ এবং CPU-তে অনুমান AWS গ্রাহকদের জন্য একটি জনপ্রিয় ব্যবহারের ক্ষেত্রে বিবেচনা করে, আমরা এই পোস্টের অংশ হিসাবে একটি হাইব্রিড আর্কিটেকচারের ধাপে ধাপে বাস্তবায়ন অন্তর্ভুক্ত করেছি (নিচের চিত্রে দেখানো হয়েছে)। আমরা আর্ট-অফ-দ্য-সম্ভাব্য অন্বেষণ করব এবং একটি RoBERTA অনুভূতি বিশ্লেষণ মডেলকে সূক্ষ্ম-টিউন করার জন্য NVIDIA ড্রাইভার, CUDA, NCCL, EFA স্ট্যাক, এবং PyTorch4 DLC সহ বেস GPU DLAMI সহ প্রাথমিক BF2 সমর্থন সহ P16 EC2.0 উদাহরণ ব্যবহার করব। যেটি আপনাকে যেকোনো ওপেন সোর্স বা মালিকানাধীন লাইব্রেরি ব্যবহার করার জন্য নিয়ন্ত্রণ এবং নমনীয়তা দেয়। তারপরে আমরা AWS Graviton3-ভিত্তিক আমাদের মডেল হোস্ট করতে সম্পূর্ণরূপে পরিচালিত মডেল হোস্টিং পরিকাঠামোর জন্য SageMaker ব্যবহার করি C7g উদাহরণ. আমরা সেজমেকারে C7g বেছে নিয়েছি কারণ এটি তুলনীয় EC50 দৃষ্টান্তের তুলনায় 2% পর্যন্ত অনুমান খরচ কমাতে প্রমাণিত বাস্তব সময়ের অনুমান সেজমেকারে। নিচের চিত্রটি এই স্থাপত্যকে তুলে ধরে।
এই ব্যবহারের ক্ষেত্রে মডেল প্রশিক্ষণ এবং হোস্টিং নিম্নলিখিত পদক্ষেপগুলি নিয়ে গঠিত:
- আপনার ভিপিসিতে একটি GPU DLAMI-ভিত্তিক EC2 উবুন্টু ইনস্ট্যান্স চালু করুন এবং SSH ব্যবহার করে আপনার ইন্সট্যান্সের সাথে সংযোগ করুন।
- আপনি আপনার EC2 ইনস্ট্যান্সে লগ ইন করার পরে, AWS PyTorch 2.0 DLC ডাউনলোড করুন।
- RoBERta মডেলটি সূক্ষ্ম-টিউন করতে একটি মডেল প্রশিক্ষণ স্ক্রিপ্ট সহ আপনার DLC কন্টেইনার চালান।
- মডেল প্রশিক্ষণ শেষ হওয়ার পরে, সংরক্ষিত মডেল, অনুমান স্ক্রিপ্ট এবং কয়েকটি মেটাডেটা ফাইল একটি টার ফাইলে প্যাকেজ করুন যা সেজমেকার অনুমান ব্যবহার করতে পারে এবং মডেল প্যাকেজটি আপলোড করতে পারে আমাজন সিম্পল স্টোরেজ সার্ভিস (অ্যামাজন এস 3) বালতি।
- SageMaker ব্যবহার করে মডেলটি স্থাপন করুন এবং একটি HTTPS অনুমান শেষ পয়েন্ট তৈরি করুন। সেজমেকার ইনফারেন্স এন্ডপয়েন্ট একটি লোড ব্যালেন্সার এবং বিভিন্ন উপলব্ধতা অঞ্চলে আপনার অনুমান কন্টেইনারের এক বা একাধিক উদাহরণ ধারণ করে। আপনি একই মডেলের একাধিক সংস্করণ বা এই একক শেষ পয়েন্টের পিছনে সম্পূর্ণ ভিন্ন মডেল স্থাপন করতে পারেন। এই উদাহরণে, আমরা একটি একক মডেল হোস্ট.
- পরীক্ষার ডেটা পাঠিয়ে আপনার মডেল এন্ডপয়েন্টকে আহ্বান করুন এবং অনুমান আউটপুট যাচাই করুন।
নিম্নলিখিত বিভাগগুলিতে, আমরা অনুভূতি বিশ্লেষণের জন্য একটি RoBERTA মডেলকে ফাইন-টিউনিং প্রদর্শন করি৷ RoBERTa Facebook AI দ্বারা তৈরি করা হয়েছে, কী হাইপারপ্যারামিটার পরিবর্তন করে এবং একটি বৃহত্তর কর্পাসে প্রাক-প্রশিক্ষণের মাধ্যমে জনপ্রিয় BERT মডেলে উন্নতি করে। এটি ভ্যানিলা BERT-এর তুলনায় উন্নত কর্মক্ষমতার দিকে নিয়ে যায়।
আমরা ব্যবহার করি ট্রান্সফরমার আনুমানিক 124 মিলিয়ন টুইটগুলিতে RoBERTA মডেলকে প্রাক-প্রশিক্ষিত করার জন্য Hugging Face দ্বারা লাইব্রেরি, এবং আমরা অনুভূতি বিশ্লেষণের জন্য টুইটার ডেটাসেটে এটিকে ফাইন-টিউন করি।
পূর্বশর্ত
নিশ্চিত করুন যে আপনি নিম্নলিখিত পূর্বশর্তগুলি পূরণ করেছেন:
- আপনার একটি আছে এডাব্লুএস অ্যাকাউন্ট.
- নিশ্চিত হয়ে নিন যে আপনি
us-west-2
এই উদাহরণ চালানোর জন্য অঞ্চল. (এই উদাহরণটি পরীক্ষা করা হয়েছেus-west-2
; যাইহোক, আপনি অন্য কোন অঞ্চলে চালাতে পারেন।) - একটি ভূমিকা তৈরি করুন নাম দিয়ে
sagemakerrole
. পরিচালিত নীতি যোগ করুনAmazonSageMakerFullAccess
এবংAmazonS3FullAccess
সেজমেকারকে S3 বালতিতে অ্যাক্সেস দিতে। - একটি EC2 ভূমিকা তৈরি করুন নাম দিয়ে
ec2_role
. নিম্নলিখিত অনুমতি নীতি ব্যবহার করুন:
1. আপনার উন্নয়ন উদাহরণ চালু করুন
আমরা একটি p4d.24x বড় উদাহরণ তৈরি করি যা 8টি NVIDIA A100 Tensor Core GPU-গুলি অফার করে us-west-2
:
AMI নির্বাচন করার সময়, অনুসরণ করুন অব্যাহতি পত্র ব্যবহার করে এই কমান্ড চালানোর জন্য এডাব্লুএস কমান্ড লাইন ইন্টারফেস (AWS CLI) ব্যবহার করার জন্য AMI আইডি খুঁজতে us-west-2
:
নিশ্চিত করুন যে gp3 রুট ভলিউমের আকার 200 GiB।
ডিফল্টরূপে EBS ভলিউম এনক্রিপশন সক্রিয় করা হয় না। এই সমাধানটি উৎপাদনে নিয়ে যাওয়ার সময় এটি পরিবর্তন করার কথা বিবেচনা করুন।
2. একটি ডিপ লার্নিং কন্টেইনার ডাউনলোড করুন
AWS DLCগুলি ডকার ইমেজ হিসাবে উপলব্ধ আমাজন ইলাস্টিক কন্টেইনার রেজিস্ট্রি পাবলিক, একটি পরিচালিত AWS কন্টেইনার ইমেজ রেজিস্ট্রি পরিষেবা যা সুরক্ষিত, মাপযোগ্য এবং নির্ভরযোগ্য। প্রতিটি ডকার ইমেজ সিপিইউ বা জিপিইউ সমর্থন সহ একটি নির্দিষ্ট ডিপ লার্নিং ফ্রেমওয়ার্ক সংস্করণ, পাইথন সংস্করণে প্রশিক্ষণ বা অনুমানের জন্য তৈরি করা হয়েছে। উপলব্ধ তালিকা থেকে PyTorch 2.0 ফ্রেমওয়ার্ক নির্বাচন করুন ডিপ লার্নিং কন্টেইনার ইমেজ.
আপনার DLC ডাউনলোড করতে নিম্নলিখিত পদক্ষেপগুলি সম্পূর্ণ করুন:
ক উদাহরণ থেকে SSH. ডিফল্টরূপে, EC2 এর সাথে ব্যবহৃত নিরাপত্তা গোষ্ঠী সকলের জন্য SSH পোর্ট খুলে দেয়। আপনি যদি এই সমাধানটি উত্পাদনে নিয়ে যাচ্ছেন তবে দয়া করে এটি বিবেচনা করুন:
ডিফল্টরূপে, Amazon EC2 এর সাথে ব্যবহৃত নিরাপত্তা গোষ্ঠী সকলের জন্য SSH পোর্ট খুলে দেয়। আপনি যদি এই সমাধানটি উত্পাদনে নিয়ে যাচ্ছেন তবে এটি পরিবর্তন করার কথা বিবেচনা করুন।
খ. এই বাস্তবায়নের অবশিষ্ট ধাপগুলি চালানোর জন্য প্রয়োজনীয় পরিবেশ ভেরিয়েবল সেট করুন:
Amazon ECR ব্যবহার করে সম্পদ-ভিত্তিক অনুমতি সহ পাবলিক ইমেজ রিপোজিটরি সমর্থন করে এডাব্লুএস আইডেন্টিটি এবং অ্যাক্সেস ম্যানেজমেন্ট (IAM) যাতে নির্দিষ্ট ব্যবহারকারী বা পরিষেবাগুলি ইমেজ অ্যাক্সেস করতে পারে।
গ. DLC রেজিস্ট্রিতে লগ ইন করুন:
d GPU সমর্থন সহ সর্বশেষ PyTorch 2.0 কন্টেইনারটি টানুন us-west-2
আপনি যদি "ডিভাইসটিতে কোনো স্থান অবশিষ্ট নেই" ত্রুটিটি পান তবে নিশ্চিত হয়ে নিন বৃদ্ধি EC2 EBS ভলিউম 200 GiB এবং তারপর প্রসারিত করা লিনাক্স ফাইল সিস্টেম।
3. PyTorch 2.0-এ অভিযোজিত সর্বশেষ স্ক্রিপ্ট ক্লোন করুন
নিম্নলিখিত কোড দিয়ে স্ক্রিপ্ট ক্লোন করুন:
যেহেতু আমরা সর্বশেষ সংস্করণ 4.28.1 সহ Hugging Face transformers API ব্যবহার করছি, এটি ইতিমধ্যে PyTorch 2.0 সমর্থন সক্ষম করেছে৷ আমরা প্রশিক্ষক API এ নিম্নলিখিত যুক্তি যোগ করেছি train_sentiment.py
নতুন PyTorch 2.0 বৈশিষ্ট্যগুলি সক্ষম করতে:
- টর্চ কম্পাইল - একক লাইন পরিবর্তনের সাথে Nvidia A43 GPU-তে গড় 100% গতির অভিজ্ঞতা নিন।
- BF16 ডেটাটাইপ - অ্যাম্পিয়ার বা নতুন GPU-এর জন্য নতুন ডেটা টাইপ সমর্থন (ব্রেন ফ্লোটিং পয়েন্ট)।
- ফিউজড অ্যাডামডাব্লু অপ্টিমাইজার - প্রশিক্ষণকে আরও গতি বাড়ানোর জন্য অ্যাডামডব্লিউ বাস্তবায়নকে সংযুক্ত করা হয়েছে। এই স্টোকাস্টিক অপ্টিমাইজেশান পদ্ধতিটি গ্রেডিয়েন্ট আপডেট থেকে ওজন ক্ষয়কে ডিকপলিং করে অ্যাডামের ওজন ক্ষয়ের সাধারণ বাস্তবায়নকে সংশোধন করে।
4. নির্ভরতা সহ একটি নতুন ডকার ইমেজ তৈরি করুন
আমরা হাগিং ফেস ট্রান্সফরমার এবং অন্যান্য লাইব্রেরি ইনস্টল করার জন্য পূর্ব-নির্মিত PyTorch 2.0 DLC ইমেজ প্রসারিত করি যা আমাদের মডেলকে সূক্ষ্ম-টিউন করতে হবে। এটি আপনাকে স্ক্র্যাচ থেকে একটি চিত্র তৈরি না করেই অন্তর্ভুক্ত পরীক্ষিত এবং অপ্টিমাইজ করা গভীর শিক্ষার লাইব্রেরি এবং সেটিংস ব্যবহার করতে দেয়। নিম্নলিখিত কোড দেখুন:
5. কন্টেইনার ব্যবহার করে প্রশিক্ষণ শুরু করুন
মডেলটিকে ফাইন-টিউনিং শুরু করতে নিম্নলিখিত ডকার কমান্ডটি চালান tweet_eval
সেন্টিমেন্ট ডেটাসেট। আমরা ডকার কন্টেইনার আর্গুমেন্ট ব্যবহার করছি (শেয়ারড মেমরি সাইজ, ম্যাক্স লক মেমরি এবং স্ট্যাক সাইজ) Nvidia দ্বারা সুপারিশ গভীর শিক্ষার কাজের চাপের জন্য।
আপনি নিম্নলিখিত আউটপুট আশা করা উচিত. স্ক্রিপ্টটি প্রথমে TweetEval ডেটাসেট ডাউনলোড করে, যা টুইটারে সাতটি ভিন্নধর্মী কাজ নিয়ে গঠিত, সবগুলোই মাল্টি-ক্লাস টুইট শ্রেণীবিভাগ হিসেবে তৈরি। কাজের মধ্যে রয়েছে বিদ্রুপ, ঘৃণা, আপত্তিকর, অবস্থান, ইমোজি, আবেগ এবং অনুভূতি।
তারপর স্ক্রিপ্ট বেস মডেল ডাউনলোড করে এবং ফাইন-টিউনিং প্রক্রিয়া শুরু করে। প্রতিটি যুগের শেষে প্রশিক্ষণ এবং মূল্যায়ন মেট্রিক্স রিপোর্ট করা হয়।
কর্মক্ষমতা পরিসংখ্যান
PyTorch 2.0 এবং সর্বশেষ Hugging Face ট্রান্সফরমার লাইব্রেরি 4.28.1 এর সাথে, আমরা 42 A4 24GB GPU সহ একটি একক p8d.100x বড় ইন্সট্যান্সে 40% স্পিডআপ লক্ষ্য করেছি। পারফরম্যান্সের উন্নতি torch.compile, BF16 ডেটা টাইপ এবং ফিউজ করা AdamW অপ্টিমাইজারের সংমিশ্রণ থেকে আসে। নিম্নলিখিত কোডটি নতুন বৈশিষ্ট্য সহ এবং ছাড়া দুটি প্রশিক্ষণের চূড়ান্ত ফলাফল:
6. সেজমেকার অনুমানের জন্য প্রস্তুত করার আগে স্থানীয়ভাবে প্রশিক্ষিত মডেলটি পরীক্ষা করুন
আপনি নীচের ফাইল খুঁজে পেতে পারেন $ml_working_dir/saved_model/
প্রশিক্ষণ শেষে:
SageMaker অনুমানের জন্য প্রস্তুত করার আগে আমরা স্থানীয়ভাবে অনুমান চালাতে পারি তা নিশ্চিত করুন। আমরা সংরক্ষিত মডেলটি লোড করতে পারি এবং ব্যবহার করে স্থানীয়ভাবে অনুমান চালাতে পারি test_trained_model.py
লিপি:
আপনি ইনপুট সহ নিম্নলিখিত আউটপুট আশা করা উচিত "কোভিড কেস দ্রুত বাড়ছে!":
7. SageMaker অনুমানের জন্য মডেল টারবল প্রস্তুত করুন
যে ডিরেক্টরির অধীনে মডেলটি অবস্থিত সেখানে একটি নতুন ডিরেক্টরি তৈরি করুন code
:
নতুন ডিরেক্টরিতে, ফাইলটি তৈরি করুন inference.py
এবং এটিতে নিম্নলিখিত যোগ করুন:
শেষ পর্যন্ত, আপনার নিম্নলিখিত ফোল্ডার কাঠামো থাকা উচিত:
SageMaker অনুমানের সাথে ব্যবহারের জন্য মডেলটি প্যাকেজ এবং Amazon S3 এ আপলোড করার জন্য প্রস্তুত:
8. SageMaker AWS Graviton উদাহরণে মডেলটি স্থাপন করুন
CPU-র নতুন প্রজন্মগুলি বিশেষায়িত অন্তর্নির্মিত নির্দেশাবলীর কারণে ML অনুমানে উল্লেখযোগ্য কর্মক্ষমতা উন্নতির প্রস্তাব দেয়। এই ব্যবহারের ক্ষেত্রে, আমরা AWS Graviton3-ভিত্তিক C7g উদাহরণ সহ SageMaker সম্পূর্ণরূপে পরিচালিত হোস্টিং পরিকাঠামো ব্যবহার করি। AWS টর্চ হাব ResNet50 জুড়ে AWS Graviton3-ভিত্তিক EC2 C7g দৃষ্টান্তগুলির সাথে PyTorch অনুমানের জন্য 50% পর্যন্ত খরচ সাশ্রয় করেছে, এবং তুলনীয় EC2 দৃষ্টান্তের তুলনায় একাধিক Hugging Face মডেল।
AWS Graviton দৃষ্টান্তগুলিতে মডেলগুলি স্থাপন করতে, আমরা AWS DLC ব্যবহার করি যা PyTorch 2.0 এবং TorchServe 0.8.0 এর জন্য সমর্থন প্রদান করে, অথবা আপনি করতে পারেন আপনার নিজের পাত্রে আনুন যেগুলি ARMv8.2 আর্কিটেকচারের সাথে সামঞ্জস্যপূর্ণ।
আমরা আগে প্রশিক্ষিত মডেল ব্যবহার করি: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. আপনি যদি আগে সেজমেকার ব্যবহার না করে থাকেন তবে পর্যালোচনা করুন অ্যামাজন সেজমেকার দিয়ে শুরু করুন.
শুরু করতে, নিশ্চিত করুন SageMaker প্যাকেজ আপ টু ডেট:
কারণ এটি একটি উদাহরণ, নামক একটি ফাইল তৈরি করুন start_endpoint.py
এবং নিম্নলিখিত কোড যোগ করুন। মোডের সাথে একটি সেজমেকার ইনফারেন্স এন্ডপয়েন্ট শুরু করার জন্য এটি পাইথন স্ক্রিপ্ট হবে:
আমরা উদাহরণের জন্য ml.c7g.4xlarge ব্যবহার করছি এবং একটি চিত্র সুযোগ সহ PT 2.0 পুনরুদ্ধার করছি inference_graviton
. এটি আমাদের AWS Graviton3 উদাহরণ।
এর পরে, আমরা একটি ফাইল তৈরি করি যা ভবিষ্যদ্বাণী চালায়। আমরা এগুলিকে আলাদা স্ক্রিপ্ট হিসাবে করি যাতে আমরা যতবার চাই ততবার ভবিষ্যদ্বাণী চালাতে পারি। সৃষ্টি predict.py
নিম্নলিখিত কোড সহ:
উত্পন্ন স্ক্রিপ্টগুলির সাথে, আমরা এখন একটি এন্ডপয়েন্ট শুরু করতে পারি, এন্ডপয়েন্টের বিরুদ্ধে ভবিষ্যদ্বাণী করতে পারি এবং আমাদের কাজ শেষ হয়ে গেলে পরিষ্কার করতে পারি:
9. পরিষ্কার করুন
পরিশেষে, আমরা এই উদাহরণ থেকে পরিষ্কার করতে চাই. cleanup.py তৈরি করুন এবং নিম্নলিখিত কোড যোগ করুন:
উপসংহার
AWS DLAMIs এবং DLCগুলি AWS-এ গণনা এবং ML পরিষেবাগুলির বিস্তৃত নির্বাচনের উপর গভীর শিক্ষার কাজের চাপ চালানোর জন্য গো-টু স্ট্যান্ডার্ড হয়ে উঠেছে। AWS ML পরিষেবাগুলিতে ফ্রেমওয়ার্ক-নির্দিষ্ট DLC ব্যবহার করার পাশাপাশি, আপনি Amazon EC2-এ একটি একক কাঠামোও ব্যবহার করতে পারেন, যা ডেভেলপারদের গভীর শিক্ষার অ্যাপ্লিকেশন তৈরি এবং বজায় রাখার জন্য প্রয়োজনীয় ভারী উত্তোলনকে সরিয়ে দেয়। নির্দেশ করে DLAMI-এর জন্য রিলিজ নোট এবং উপলব্ধ ডিপ লার্নিং কনটেইনার ইমেজ শুরু করতে.
এই পোস্টটি AWS-এ আপনার পরবর্তী মডেলকে প্রশিক্ষণ ও পরিবেশন করার অনেক সম্ভাবনার একটি দেখিয়েছে এবং আপনার ব্যবসার উদ্দেশ্য পূরণের জন্য আপনি গ্রহণ করতে পারেন এমন বেশ কয়েকটি ফর্ম্যাট নিয়ে আলোচনা করেছেন। এই উদাহরণটি ব্যবহার করে দেখুন বা আপনার ব্যবসার জন্য ডেটা উত্পাদনশীলতা প্রসারিত করতে আমাদের অন্যান্য AWS ML পরিষেবাগুলি ব্যবহার করুন৷ আমরা একটি সাধারণ অনুভূতি বিশ্লেষণ সমস্যা অন্তর্ভুক্ত করেছি যাতে ML-এ নতুন গ্রাহকরা বুঝতে পারেন যে AWS-এ PyTorch 2.0 এর সাথে শুরু করা কতটা সহজ। আমরা আসন্ন ব্লগ পোস্টগুলিতে আরও উন্নত ব্যবহারের কেস, মডেল এবং AWS প্রযুক্তিগুলি কভার করব৷
লেখক সম্পর্কে
কানওয়ালজিৎ খুরমি অ্যামাজন ওয়েব সার্ভিসেসের একজন প্রধান সমাধান স্থপতি। তিনি AWS গ্রাহকদের AWS ব্যবহার করার সময় তাদের সমাধানের মান উন্নত করতে সহায়তা করার জন্য নির্দেশিকা এবং প্রযুক্তিগত সহায়তা প্রদানের জন্য কাজ করেন। কানওয়ালজিৎ গ্রাহকদের কনটেইনারাইজড এবং মেশিন লার্নিং অ্যাপ্লিকেশানগুলির সাহায্যে বিশেষভাবে সহায়তা করে৷
মাইক স্নাইডার Phoenix AZ ভিত্তিক একটি সিস্টেম ডেভেলপার। তিনি ডিপ লার্নিং কন্টেইনারের সদস্য, বিভিন্ন ফ্রেমওয়ার্ক কন্টেইনার ইমেজকে সমর্থন করে, যাতে গ্রাভিটন ইনফারেন্স অন্তর্ভুক্ত থাকে। তিনি অবকাঠামো দক্ষতা এবং স্থিতিশীলতার জন্য নিবেদিত।
লাই ওয়েই অ্যামাজন ওয়েব সার্ভিসেসের একজন সিনিয়র সফটওয়্যার ইঞ্জিনিয়ার। তিনি বিতরণ করা মডেল প্রশিক্ষণকে ত্বরান্বিত করার জন্য ব্যবহারে সহজ, উচ্চ-কার্যক্ষমতা এবং মাপযোগ্য গভীর শিক্ষার কাঠামো তৈরিতে মনোনিবেশ করছেন। কাজের বাইরে, তিনি তার পরিবারের সাথে সময় কাটাতে, হাইকিং এবং স্কিইং উপভোগ করেন।
- এসইও চালিত বিষয়বস্তু এবং পিআর বিতরণ। আজই পরিবর্ধিত পান।
- প্লেটোএআইস্ট্রিম। Web3 ডেটা ইন্টেলিজেন্স। জ্ঞান প্রসারিত. এখানে প্রবেশ করুন.
- অ্যাড্রিয়েন অ্যাশলির সাথে ভবিষ্যত মিন্টিং। এখানে প্রবেশ করুন.
- PREIPO® এর সাথে PRE-IPO কোম্পানিতে শেয়ার কিনুন এবং বিক্রি করুন। এখানে প্রবেশ করুন.
- উত্স: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- : আছে
- : হয়
- :না
- :কোথায়
- $ ইউপি
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- দ্রুততর করা
- দ্রুততর
- ত্বরক
- সমর্থন দিন
- প্রবেশ
- দিয়ে
- কর্ম
- আদম
- যোগ
- যোগ
- পোষ্যপুত্র গ্রহণ করা
- অগ্রসর
- পর
- বিরুদ্ধে
- AI
- শ্রেণীবদ্ধ করা
- প্রান্তিককৃত
- সব
- অনুমতি
- অনুমতি
- অনুমতি
- বরাবর
- ইতিমধ্যে
- এছাড়াও
- মর্দানী স্ত্রীলোক
- আমাজন EC2
- অ্যামাজন ওয়েব সার্ভিসেস
- এএমডি
- পরিমাণ
- an
- বিশ্লেষণ
- বিশ্লেষণ করা
- এবং
- ঘোষিত
- অন্য
- কোন
- API
- আবেদন
- অ্যাপ্লিকেশন
- অভিগমন
- আন্দাজ
- স্থাপত্য
- রয়েছি
- এলাকায়
- যুক্তি
- আর্গুমেন্ট
- কৃত্রিম
- কৃত্রিম বুদ্ধিমত্তা
- কৃত্রিম বুদ্ধিমত্তা (এআই)
- AS
- সহায়তা
- At
- উপস্থিতি
- সহজলভ্য
- গড়
- ডেস্কটপ AWS
- ব্যালেন্সার
- ভিত্তি
- ভিত্তি
- মূলত
- BE
- কারণ
- পরিণত
- হয়েছে
- আগে
- শুরু করা
- পিছনে
- উচ্চতার চিহ্ন
- benchmarks
- বিশাল
- কোটি কোটি
- বিন
- ব্লগ
- ব্লগ এর লেখাগুলো
- শরীর
- পাদ
- মস্তিষ্ক
- প্রশস্ত
- বাজেট
- নির্মাণ করা
- ভবন
- নির্মিত
- বিল্ট-ইন
- বোঝা
- ব্যবসায়
- ব্যবসা
- কিন্তু
- by
- কল
- নামক
- কলিং
- CAN
- ক্ষমতা
- কেস
- মামলা
- CD
- পরিবর্তন
- পরিবর্তন
- পছন্দ
- বেছে নিন
- শ্রেণীবিন্যাস
- মক্কেল
- মেঘ
- কোড
- এর COM
- সমাহার
- আসে
- যোগাযোগ
- তুলনীয়
- তুলনা
- উপযুক্ত
- সম্পূর্ণ
- গনা
- কম্পিউটার
- কম্পিউটার ভিশন
- কম্পিউটিং
- সংযোগ করা
- বিবেচনা
- গঠিত
- কনসোল
- আধার
- কন্টেনারগুলি
- বিষয়বস্তু
- বিষয়বস্তু-সৃষ্টি
- নিয়ন্ত্রণ
- মূল
- মূল্য
- খরচ বাঁচানো
- খরচ
- পারা
- আচ্ছাদন
- সৃষ্টি
- নির্মিত
- সৃষ্টি
- পরিচয়পত্র
- প্লেলিস্টে যোগ করা
- বর্তমান
- গ্রাহকদের
- কাস্টমাইজ
- উপাত্ত
- তারিখ
- দিন
- নিবেদিত
- গভীর
- গভীর জ্ঞানার্জন
- ডিফল্ট
- প্রমান
- নির্ভর করে
- স্থাপন
- মোতায়েন
- বিস্তৃতি
- স্থাপনার
- পরিকল্পিত
- বিস্তারিত
- উন্নত
- বিকাশকারী
- ডেভেলপারদের
- উন্নয়ন
- বিভিন্ন
- পরিপাক করা
- আলোচনা করা
- আলোচনা
- বণ্টিত
- বিতরণ করা প্রশিক্ষণ
- বিচিত্র
- do
- ডকশ্রমিক
- সম্পন্ন
- Dont
- ডাউনলোড
- ডাউনলোড
- চালক
- ড্রাইভার
- পরিচালনা
- কারণে
- প্রগতিশীল
- প্রতি
- পূর্বে
- আরাম
- সহজে
- সহজ
- প্রভাব
- কার্যকরীভাবে
- দক্ষতা
- দক্ষতার
- প্রচেষ্টা
- পারেন
- সক্ষম করা
- সক্ষম করা
- এনক্রিপশন
- শেষ
- শেষপ্রান্ত
- প্রকৌশলী
- উন্নত
- সম্পূর্ণরূপে
- পরিবেশ
- কাল
- ভুল
- মূল্যায়ন
- মূল্যায়ন
- এমন কি
- কখনো
- প্রতি
- উদাহরণ
- বিদ্যমান
- বিস্তৃত করা
- আশা করা
- অভিজ্ঞতা
- অন্বেষণ করুণ
- ঘৃণ্য
- রপ্তানি
- প্রসারিত করা
- প্রসারিত
- ফ্যাব্রিক
- মুখ
- ফেসবুক
- পরিবার
- দ্রুত
- দ্রুততম
- বৈশিষ্ট্য
- কয়েক
- ব্যক্তিত্ব
- ফাইল
- নথি পত্র
- চূড়ান্ত
- আবিষ্কার
- প্রথম
- ফিট
- নমনীয়তা
- নির্দলীয়
- কেন্দ্রবিন্দু
- মনোযোগ
- অনুসরণ করা
- অনুসরণ
- জন্য
- ফ্রেমওয়ার্ক
- অবকাঠামো
- থেকে
- সম্পূর্ণরূপে
- অধিকতর
- উত্পাদন করা
- উত্পন্ন
- প্রজন্ম
- প্রজন্ম
- সৃজক
- জেনারেটিভ এআই
- পাওয়া
- git
- GitHub
- দাও
- দেয়
- বিশ্বব্যাপী
- জিপিইউ
- জিপিইউ
- গ্রুপ
- উন্নতি
- পথপ্রদর্শন
- আছে
- জমিদারি
- he
- ভারী
- ভারী উত্তোলন
- সাহায্য
- সাহায্য
- উচ্চ পারদর্শিতা
- ঊর্ধ্বতন
- সর্বোচ্চ
- তার
- ঝুলিতে
- নিমন্ত্রণকর্তা
- হোস্টিং
- কিভাবে
- যাহোক
- এইচটিএমএল
- HTTP
- HTTPS দ্বারা
- নাভি
- শত শত
- অকুলীন
- ID
- পরিচয়
- if
- প্রকাশ
- ভাবমূর্তি
- চিত্র
- বাস্তবায়ন
- বাস্তবায়ন
- আমদানি
- উন্নত করা
- উন্নত
- উন্নতি
- উন্নতি
- উন্নতি
- in
- অন্তর্ভুক্ত করা
- অন্তর্ভুক্ত
- অন্তর্ভুক্ত
- সুদ্ধ
- বৃদ্ধি
- ক্রমবর্ধমান
- স্বাধীন
- শিল্প
- পরিকাঠামো
- ইনপুট
- ইনস্টল
- ইনস্টল
- ইনস্টল করার
- উদাহরণ
- পরিবর্তে
- নির্দেশাবলী
- সংহত
- ইন্টেল
- বুদ্ধিমত্তা
- মধ্যে
- ইনভেস্টমেন্টস
- IP
- বিদ্রূপ
- IT
- এর
- জবস
- JPG
- JSON
- চাবি
- লেবেল
- ভাষা
- বড়
- বড় আকারের
- বৃহত্তর
- অদৃশ্যতা
- সর্বশেষ
- সর্বশেষ রিলিজ
- শুরু করা
- বিশালাকার
- শিক্ষা
- বাম
- লাইব্রেরি
- লাইব্রেরি
- উদ্ধরণ
- মত
- সীমিত
- লাইন
- লিনাক্স
- তালিকা
- বোঝা
- স্থানীয়ভাবে
- অবস্থিত
- লক
- লগ ইন করুন
- লগইন
- ক্ষতি
- নিম্ন
- অধম
- মেশিন
- মেশিন লার্নিং
- বজায় রাখা
- করা
- মেকিং
- পরিচালনা করা
- পরিচালিত
- অনেক
- গণিত
- সর্বোচ্চ
- মে..
- সম্মেলন
- সদস্য
- স্মৃতি
- মার্জ
- মেটাডাটা
- পদ্ধতি
- ছন্দোবিজ্ঞান
- মিলিয়ন
- ML
- এমএলওএস
- মোড
- মডেল
- মডেল
- মডিউল
- মাসের
- অধিক
- চলন্ত
- বহু
- নাম
- প্রাকৃতিক
- স্বাভাবিক ভাষা প্রক্রিয়াকরণ
- প্রয়োজনীয়
- প্রয়োজন
- প্রয়োজন
- চাহিদা
- নেতিবাচক
- নেটওয়ার্ক
- নেটওয়ার্কিং
- নিরপেক্ষ
- নতুন
- নতুন বৈশিষ্ট
- নতুন প্রযুক্তি
- পরবর্তী
- নোড
- নোট
- লক্ষ্য করুন..
- এখন
- এনভিডিয়া
- উদ্দেশ্য
- of
- আক্রমণাত্মক
- অর্পণ
- নৈবেদ্য
- অফার
- on
- ONE
- ওপেন সোর্স
- প্রর্দশিত
- কর্মক্ষম
- অপ্টিমাইজেশান
- অপ্টিমাইজ
- অপশন সমূহ
- or
- অর্কেস্ট্রারচনা
- সাংগঠনিক
- OS
- অন্যান্য
- অন্যরা
- আমাদের
- বাইরে
- আউটপুট
- বাহিরে
- নিজের
- প্যাকেজ
- গাঁটবন্দী
- পরামিতি
- অংশ
- তালি
- প্যাচিং
- কর্মক্ষমতা
- অনুমতি
- অনুমতি
- ফিনিক্স
- বাছাই
- অবচিত
- পাইপলাইন
- মাচা
- Plato
- প্লেটো ডেটা ইন্টেলিজেন্স
- প্লেটোডাটা
- দয়া করে
- বিন্দু
- নীতি
- নীতি
- জনপ্রিয়
- সম্ভাবনার
- পোস্ট
- পোস্ট
- চালিত
- ক্ষমতাশালী
- ভবিষ্যদ্বাণী করা
- ভবিষ্যদ্বাণী
- ভবিষ্যতবাণী
- প্রস্তুত করা
- প্রস্তুতি
- পূর্বশর্ত
- আগে
- অধ্যক্ষ
- সমস্যা
- প্রক্রিয়া
- প্রক্রিয়াজাতকরণ
- প্রসেসর
- উত্পাদনের
- প্রমোদ
- পণ্য
- প্রকল্প
- প্রকল্প
- মালিকানা
- প্রমাণিত
- প্রদান
- উপলব্ধ
- প্রকাশ্য
- করা
- পাইথন
- পাইটার্চ
- প্রস্তুত
- সাম্প্রতিক
- সম্প্রতি
- আবৃত্ত
- হ্রাস করা
- এলাকা
- রেজিস্ট্রি
- নিয়মিতভাবে
- উপর
- মুক্তি
- বিশ্বাসযোগ্য
- অবশিষ্ট
- রিপোর্ট
- প্রয়োজন
- প্রয়োজনীয়
- আবশ্যকতা
- প্রয়োজন
- সংস্থান
- প্রতিক্রিয়া
- সীমাবদ্ধতা
- ফল
- প্রত্যাবর্তন
- এখানে ক্লিক করুন
- ভূমিকা
- শিকড়
- চালান
- দৌড়
- ঋষি নির্মাতা
- সেজমেকার ইনফারেন্স
- একই
- জমা
- মাপযোগ্য
- স্কেল
- স্ক্যান
- scikit-শিখতে
- সুযোগ
- স্কোর
- আঁচড়ের দাগ
- স্ক্রিপ্ট
- অধ্যায়
- বিভাগে
- নিরাপদ
- নিরাপত্তা
- দেখ
- নির্বাচন
- নির্বাচন
- পাঠানোর
- জ্যেষ্ঠ
- অনুভূতি
- আলাদা
- পরিবেশন করা
- সেবা
- সেবা
- সেশন
- সেট
- সেটিংস
- সেটআপ
- সাত
- বিভিন্ন
- SHA256
- ভাগ
- উচিত
- গ্লাসকেস
- দেখিয়েছেন
- প্রদর্শিত
- শো
- গুরুত্বপূর্ণ
- সহজ
- একক
- আয়তন
- মাপ
- So
- সফটওয়্যার
- সফটওয়্যার ইঞ্জিনিয়ার
- সমাধান
- সলিউশন
- কিছু
- স্থান
- বিশেষজ্ঞ
- বিশেষ
- নির্দিষ্ট
- বিশেষভাবে
- স্পীড
- গতি
- ব্যয় করা
- খরচ
- স্থায়িত্ব
- গাদা
- মান
- শুরু
- শুরু
- শুরু
- বিবৃতি
- পরিসংখ্যান
- ধাপ
- প্রারম্ভিক ব্যবহারের নির্দেশাবলী
- স্টোরেজ
- স্টোরেজ বিকল্প
- কৌশল
- গঠন
- এমন
- সমর্থন
- সমর্থিত
- সমর্থক
- সমর্থন
- পদ্ধতি
- সিস্টেম
- উপযোগী
- কাজ
- কারিগরী
- প্রযুক্তি
- প্রযুক্তি
- tensorflow
- পরীক্ষা
- প্রমাণিত
- চেয়ে
- যে
- সার্জারির
- ক্ষেত্র
- তাদের
- তাহাদিগকে
- তারপর
- এইগুলো
- তারা
- কিছু
- এই
- যদিও?
- দ্বারা
- থ্রুপুট
- স্তর
- সময়
- বার
- থেকে
- সরঞ্জাম
- মশাল
- রেলগাড়ি
- প্রশিক্ষিত
- প্রশিক্ষণ
- ট্রান্সফরমার
- ট্রান্সফরমার
- রূপান্তর
- চেষ্টা
- কিচ্কিচ্
- টুইট
- টুইটার
- দুই
- আদর্শ
- ধরনের
- টিপিক্যাল
- উবুন্টু
- অধীনে
- বোঝা
- আসন্ন
- আপডেট
- আপডেট
- আপগ্রেড
- আপলোড করা
- ব্যবহার
- ব্যবহার
- ব্যবহার ক্ষেত্রে
- ব্যবহৃত
- ব্যবহারকারী
- ব্যবহার
- উপযোগ
- মূল্য
- বৈচিত্র্য
- বিভিন্ন
- যাচাই
- সংস্করণ
- দৃষ্টি
- আয়তন
- দুর্বলতা
- প্রয়োজন
- we
- ওয়েব
- ওয়েব সার্ভিস
- সপ্তাহ
- ওজন
- স্বাগত
- কখন
- যে
- ব্যাপকভাবে
- ইচ্ছা
- সঙ্গে
- ছাড়া
- হয়া যাই ?
- কর্মপ্রবাহ
- কাজ
- লেখা
- লেখা
- X
- আপনি
- আপনার
- zephyrnet
- এলাকার