এই পোস্টে, আমরা আপনাকে দেখাই কিভাবে পাঠ্য সংক্ষিপ্তকরণের জন্য ব্যবহৃত সবচেয়ে ডাউনলোড করা আলিঙ্গন মুখের প্রাক-প্রশিক্ষিত মডেলগুলির একটি বাস্তবায়ন করতে হয়, DistilBART-CNN-12-6, একটি জুপিটার নোটবুকের মধ্যে ব্যবহার করে আমাজন সেজমেকার এবং সেজমেকার হাগিং ফেস ইনফারেন্স টুলকিট. এই পোস্টে দেখানো ধাপের উপর ভিত্তি করে, আপনি থেকে টেক্সট সংক্ষিপ্ত করার চেষ্টা করতে পারেন WikiText-2 ডেটা সেটটি fast.ai দ্বারা পরিচালিত, এ উপলব্ধ AWS- এ ওপেন ডেটার রেজিস্ট্রি.
কোম্পানি এবং ভোক্তারা তাদের ডিজিটাল পণ্য এবং অনলাইন পরিষেবার ব্যবহার প্রসারিত করার কারণে গ্লোবাল ডেটা ভলিউম জেটাবাইট স্কেলে বাড়ছে। এই ক্রমবর্ধমান ডেটা আরও ভালভাবে বোঝার জন্য, পাঠ্য বিশ্লেষণের জন্য মেশিন লার্নিং (এমএল) প্রাকৃতিক ভাষা প্রক্রিয়াকরণ (এনএলপি) কৌশলগুলি পাঠ্যের সংক্ষিপ্তকরণ, সত্তার স্বীকৃতি, শ্রেণীবিভাগ, অনুবাদ এবং আরও অনেক কিছু জড়িত ব্যবহারের ক্ষেত্রে বিকশিত হয়েছে। AWS প্রাক-প্রশিক্ষিত অফার করে এডাব্লুএস এআই পরিষেবাগুলি যেগুলি API কলগুলি ব্যবহার করে অ্যাপ্লিকেশনগুলিতে একত্রিত করা যেতে পারে এবং কোনও ML অভিজ্ঞতার প্রয়োজন নেই৷ উদাহরণ স্বরূপ, অ্যামাজন সমঝোতা টেক্সট থেকে অন্তর্দৃষ্টি সংগ্রহ করতে কাস্টম সত্তা স্বীকৃতি, অনুভূতি বিশ্লেষণ, মূল বাক্যাংশ নিষ্কাশন, বিষয় মডেলিং এবং আরও অনেক কিছুর মতো NLP কাজগুলি সম্পাদন করতে পারে। এটা পারফর্ম করতে পারে বিভিন্ন ভাষার টেক্সট বিশ্লেষণ এর বিভিন্ন বৈশিষ্ট্যের জন্য।
পাঠ্য সংক্ষিপ্তকরণ হল বিপুল পরিমাণ পাঠ্য ডেটা বোঝার জন্য একটি সহায়ক কৌশল কারণ এটি উৎস নথি থেকে প্রাসঙ্গিকভাবে অর্থপূর্ণ তথ্যের একটি উপসেট তৈরি করে। আপনি এই এনএলপি কৌশলটি দীর্ঘ-ফর্মের পাঠ্য নথি এবং নিবন্ধগুলিতে প্রয়োগ করতে পারেন, দ্রুত খরচ এবং আরও কার্যকর নথির সূচীকরণ সক্ষম করে, উদাহরণস্বরূপ মিটিং থেকে কল নোটগুলিকে সংক্ষিপ্ত করতে।
আলিঙ্গন মুখ NLP-এর জন্য একটি জনপ্রিয় ওপেন-সোর্স লাইব্রেরি, যেখানে বিভিন্ন ফ্রেমওয়ার্কের জন্য সমর্থন সহ 49,000টিরও বেশি ভাষায় 185টির বেশি প্রাক-প্রশিক্ষিত মডেল রয়েছে। AWS এবং Hugging Face আছে a অংশীদারিত্ব যেটি PyTorch বা TensorFlow-এ প্রশিক্ষণ এবং অনুমানের জন্য AWS ডিপ লার্নিং কন্টেনার (DLCs) এর একটি সেট সহ SageMaker এর মাধ্যমে একটি নিরবচ্ছিন্ন একীকরণের অনুমতি দেয় এবং SageMaker Python SDK-এর জন্য হাগিং ফেস এস্টিমেটর এবং ভবিষ্যদ্বাণী করে৷ SageMaker-এর এই ক্ষমতাগুলি ডেভেলপার এবং ডেটা বিজ্ঞানীদের আরও সহজে AWS-এ NLP দিয়ে শুরু করতে সাহায্য করে। PyTorch-এর মতো গভীর শিক্ষার কাঠামোতে ট্রান্সফরমার সহ পাঠ্য প্রক্রিয়াকরণ সাধারণত ডেটা বিজ্ঞানীদের জন্য একটি জটিল এবং সময়সাপেক্ষ কাজ, যা NLP প্রকল্পগুলি তৈরি করার সময় প্রায়ই হতাশা এবং দক্ষতার অভাবের দিকে পরিচালিত করে। সেজমেকারের মতো ক্লাউডে ML পরিষেবার শক্তির সাথে মিলিত হয়ে Hugging Face-এর মতো AI সম্প্রদায়ের উত্থান, এই টেক্সট প্রসেসিং কাজগুলির বিকাশকে ত্বরান্বিত এবং সহজতর করে৷ SageMaker আপনাকে Hugging Face মডেলগুলি তৈরি, প্রশিক্ষণ, স্থাপন এবং পরিচালনা করতে সহায়তা করে৷
টেক্সট সারসংক্ষেপ ওভারভিউ
আপনি একটি নথির মধ্যে মূল বাক্য সনাক্ত করতে বা একাধিক নথি জুড়ে মূল বাক্য সনাক্ত করতে পাঠ্য সংক্ষিপ্তকরণ প্রয়োগ করতে পারেন। পাঠ্য সংক্ষিপ্তকরণ দুটি ধরণের সারাংশ তৈরি করতে পারে: নিষ্কাশনমূলক এবং বিমূর্ত। এক্সট্রাক্টিভ সারাংশে কোনো মেশিন-জেনারেটেড টেক্সট থাকে না এবং এটি ইনপুট ডকুমেন্ট থেকে নির্বাচিত গুরুত্বপূর্ণ বাক্যের সংগ্রহ। বিমূর্ত সারাংশে পাঠ্য সংক্ষিপ্তকরণ মডেল দ্বারা উত্পন্ন নতুন মানব-পাঠযোগ্য বাক্যাংশ এবং বাক্য থাকে। বেশিরভাগ পাঠ্য সংক্ষিপ্তকরণ সিস্টেম নিষ্কাশনমূলক সংক্ষিপ্তসারের উপর ভিত্তি করে কারণ সঠিক বিমূর্ত পাঠ্য সংক্ষিপ্তকরণ অর্জন করা কঠিন।
আলিঙ্গন মুখ 400 টিরও বেশি প্রাক-প্রশিক্ষিত অত্যাধুনিক পাঠ্য সংক্ষিপ্তকরণ মডেল উপলব্ধ, NLP কৌশলগুলির বিভিন্ন সমন্বয় বাস্তবায়ন করা। এই মডেলগুলিকে বিভিন্ন ডেটাসেটে প্রশিক্ষণ দেওয়া হয়, প্রযুক্তি কোম্পানিগুলি এবং আলিঙ্গন মুখ সম্প্রদায়ের সদস্যদের দ্বারা আপলোড করা এবং রক্ষণাবেক্ষণ করা হয়। আপনি সর্বাধিক ডাউনলোড করা বা সর্বাধিক পছন্দ অনুসারে মডেলগুলি ফিল্টার করতে পারেন এবং ব্যবহার করার সময় সরাসরি সেগুলি লোড করতে পারেন৷ সারাংশ পাইপলাইন আলিঙ্গন ফেস ট্রান্সফরমার API. আলিঙ্গন ফেস ট্রান্সফরমার এনএলপি বাস্তবায়ন প্রক্রিয়াকে সহজ করে তোলে যাতে উচ্চ-কার্যক্ষমতা সম্পন্ন এনএলপি মডেলগুলিকে টেক্সট সারাংশ সরবরাহ করার জন্য সূক্ষ্ম-টিউন করা যায়, বিস্তৃত এমএল অপারেশন জ্ঞানের প্রয়োজন ছাড়াই।
AWS-এ আলিঙ্গন করা ফেস টেক্সটের সারাংশ মডেল
SageMaker ব্যবসায়িক বিশ্লেষক, ডেটা বিজ্ঞানী এবং MLOps ইঞ্জিনিয়ারদের AWS-এ ML ওয়ার্কলোড ডিজাইন ও পরিচালনা করার জন্য টুলগুলির একটি পছন্দ অফার করে। এই সরঞ্জামগুলি আপনাকে আপনার সর্বোত্তম ফলাফল অর্জনের জন্য ML মডেলগুলির দ্রুত বাস্তবায়ন এবং পরীক্ষা প্রদান করে।
থেকে সেজমেকার হাগিং ফেস ইনফারেন্স টুলকিট, একটি ওপেন-সোর্স লাইব্রেরি, আমরা একটি Jupyter নোটবুক ব্যবহার করে Hugging Face টেক্সট সারমাইজেশন মডেল বাস্তবায়ন এবং হোস্ট করার তিনটি ভিন্ন উপায়ের রূপরেখা দিই:
- আলিঙ্গন মুখ সারাংশ পাইপলাইন - একটা তৈরি কর আলিঙ্গন মুখ সারাংশ পাইপলাইন ব্যবহার করে "
summarization
আপনার জুপিটার নোটবুকের মধ্যে অনুমানের জন্য একটি ডিফল্ট পাঠ্য সংক্ষিপ্তকরণ মডেল ব্যবহার করার জন্য টাস্ক শনাক্তকারী৷ এই পাইপলাইনগুলি জটিল কোডগুলিকে বিমূর্ত করে দেয়, নবাগত ML অনুশীলনকারীদের একটি অনুমান শেষ পয়েন্ট কনফিগার না করে দ্রুত পাঠ্য সংক্ষিপ্তকরণ বাস্তবায়নের জন্য একটি সহজ API অফার করে। পাইপলাইনটি এমএল অনুশীলনকারীকে একটি নির্দিষ্ট প্রাক-প্রশিক্ষিত মডেল এবং এর সাথে সম্পর্কিত টোকেনাইজার নির্বাচন করার অনুমতি দেয়। টোকেনাইজাররা টেক্সটকে শব্দ বা সাবওয়ার্ডে বিভক্ত করে মডেলের জন্য একটি ইনপুট হিসাবে প্রস্তুত করার জন্য পাঠ্য প্রস্তুত করে, যা পরে একটি লুকআপ টেবিলের মাধ্যমে আইডিতে রূপান্তরিত হয়। সরলতার জন্য, পাইপলাইন ব্যবহার করার সময় নিম্নলিখিত কোড স্নিপেট ডিফল্ট ক্ষেত্রে প্রদান করে। দ্য DistilBART-CNN-12-6 মডেল হল আলিঙ্গন মুখের সবচেয়ে ডাউনলোড করা সারাংশ মডেলগুলির মধ্যে একটি এবং হল সারাংশ পাইপলাইনের জন্য ডিফল্ট মডেল. শেষ লাইনটি প্রদত্ত দুটি আর্গুমেন্ট দিয়ে পাস করা পাঠ্যের জন্য একটি সারাংশ পেতে প্রাক-প্রশিক্ষিত মডেলকে কল করে। - প্রাক-প্রশিক্ষিত মডেল সহ সেজমেকার এন্ডপয়েন্ট - থেকে একটি প্রাক-প্রশিক্ষিত মডেল সহ একটি সেজমেকার এন্ডপয়েন্ট তৈরি করুন৷ হাগিং ফেস মডেল হাব এবং নিম্নলিখিত কোড স্নিপেটে ml.m5.xlarge ইনস্ট্যান্সের মতো একটি অনুমান এন্ডপয়েন্টে এটি স্থাপন করুন। এই পদ্ধতিটি অভিজ্ঞ এমএল অনুশীলনকারীদের দ্রুত নির্দিষ্ট ওপেন-সোর্স মডেলগুলি নির্বাচন করতে, সেগুলিকে সূক্ষ্ম সুর করতে এবং মডেলগুলিকে উচ্চ-সম্পাদক অনুমান উদাহরণগুলিতে স্থাপন করার অনুমতি দেয়।
- একটি প্রশিক্ষিত মডেল সহ সেজমেকার শেষ পয়েন্ট - একটি সঞ্চিত একটি প্রশিক্ষিত মডেল সহ একটি SageMaker মডেলের শেষ পয়েন্ট তৈরি করুন৷ আমাজন সিম্পল স্টোরেজ সার্ভিস (Amazon S3) বালতি এবং একটি অনুমান শেষ পয়েন্টে এটি স্থাপন করুন। এই পদ্ধতিটি অভিজ্ঞ ML অনুশীলনকারীদের দ্রুত Amazon S3 তে সঞ্চিত তাদের নিজস্ব মডেলগুলিকে উচ্চ-সম্পাদক অনুমান উদাহরণগুলিতে স্থাপন করার অনুমতি দেয়। মডেলটি নিজেই Hugging Face থেকে ডাউনলোড করা হয় এবং কম্প্রেস করা হয় এবং তারপর Amazon S3 এ আপলোড করা যায়। এই পদক্ষেপটি নিম্নলিখিত কোড স্নিপেটে প্রদর্শিত হয়:
আপনার এমএল ওয়ার্কলোডগুলি স্থাপনে আপনাকে সহায়তা করার জন্য AWS-এর কাছে বেশ কয়েকটি সংস্থান উপলব্ধ রয়েছে। দ্য মেশিন লার্নিং লেন্স এর AWS ওয়েল আর্কিটেক্টেড ফ্রেমওয়ার্ক সম্পদ অপ্টিমাইজ করা এবং খরচ কমানো সহ এমএল ওয়ার্কলোড সেরা অনুশীলনের সুপারিশ করে। এই প্রস্তাবিত নকশা নীতিগুলি নিশ্চিত করে যে AWS-এ ভালভাবে স্থাপিত এমএল ওয়ার্কলোডগুলি উত্পাদনে স্থাপন করা হয়েছে। আমাজন সেজমেকার ইনফারেন্স সুপারিশকারী সর্বোত্তম অনুমান কর্মক্ষমতা এবং খরচে আপনার এমএল মডেলগুলি স্থাপন করার জন্য আপনাকে সঠিক উদাহরণ নির্বাচন করতে সহায়তা করে। ইনফারেন্স রেকমেন্ডার মডেল স্থাপনের গতি বাড়ায় এবং লোড টেস্টিং স্বয়ংক্রিয় করে এবং ML দৃষ্টান্ত জুড়ে মডেল পারফরম্যান্স অপ্টিমাইজ করে বাজারের সময় কমায়।
পরবর্তী বিভাগগুলিতে, আমরা প্রদর্শন করব কিভাবে একটি S3 বালতি থেকে একটি প্রশিক্ষিত মডেল লোড করা যায় এবং এটি একটি উপযুক্ত অনুমানে স্থাপন করা যায়।
পূর্বশর্ত
এই ওয়াকথ্রুটির জন্য, আপনার নিম্নলিখিত পূর্বশর্তগুলি থাকা উচিত:
- An এডাব্লুএস অ্যাকাউন্ট.
- ভিতরে একটি জুপিটার নোটবুক অ্যামাজন সেজমেকার স্টুডিও অথবা সেজমেকার নোটবুকের উদাহরণ। এই পোস্টে, আমরা প্রদত্ত কোড স্নিপেট সহ "Python 3 (PyTorch 1.4 Python 3.6 CPU অপ্টিমাইজড)" ইমেজ ব্যবহার করি, কিন্তু আপনি অন্য কোন উচ্চতর সংস্করণের PyTorch ইমেজ ব্যবহার করতে পারেন উপলব্ধ SageMaker কার্নেল.
- আপনার S3 বালতিতে একটি ডেটাসেট, যেমন WikiText-2 থেকে ডেটাসেট AWS- এ ওপেন ডেটার রেজিস্ট্রি.
টেক্সট সারসংক্ষেপ অনুমানের জন্য SageMaker-এ Hugging Face মডেলটি লোড করুন
আলিঙ্গন মুখ প্রাক-প্রশিক্ষিত টেক্সট সারসংক্ষেপ মডেল ডাউনলোড করতে নিম্নলিখিত কোড ব্যবহার করুন DistilBART-CNN-12-6 এবং এর টোকেনাইজার, এবং সেজমেকারে স্থানীয়ভাবে আপনার জুপিটার নোটবুক ডিরেক্টরিতে সেভ করুন:
সংরক্ষিত পাঠ্য সংক্ষিপ্তকরণ মডেল এবং এর টোকেনাইজারকে tar.gz ফরম্যাটে সংকুচিত করুন এবং একটি S3 বালতিতে সংকুচিত মডেলের আর্টিফ্যাক্ট আপলোড করুন:
একটি নির্বাচন করুন ইনফারেন্স ডকার কন্টেইনার ইমেজ টেক্সট সংক্ষিপ্তকরণ অনুমান সম্পাদন করতে. লিনাক্স ওএস, পাইটর্চ ফ্রেমওয়ার্ক এবং হাগিং ফেস ট্রান্সফরমার সংস্করণ সংজ্ঞায়িত করুন এবং নির্দিষ্ট করুন অ্যামাজন ইলাস্টিক কম্পিউট ক্লাউড (Amazon EC2) ইনস্ট্যান্স টাইপ কনটেইনার চালানোর জন্য।
ডকার ইমেজ পাওয়া যায় অ্যামাজন ইলাস্টিক কনটেইনার রেজিস্ট্রি একই AWS অ্যাকাউন্টের (Amazon ECR), এবং সেই কন্টেইনার ছবির লিঙ্কটি URI হিসাবে ফেরত দেওয়া হয়।
নির্বাচিত কন্টেইনার ইমেজ পারফর্মিং ইনফারেন্স দ্বারা স্থাপন করা পাঠ্য সংক্ষিপ্তকরণ মডেল সংজ্ঞায়িত করুন. নিম্নলিখিত কোড স্নিপেটে, Amazon S3 এ আপলোড করা সংকুচিত মডেলটি স্থাপন করা হয়েছে:
একটি নমুনা ইনপুটে স্থাপন করা পাঠ্য সংক্ষিপ্তকরণ মডেল পরীক্ষা করুন:
অনুমান টাস্কের জন্য সর্বোত্তম EC2 উদাহরণ মূল্যায়ন করতে অনুমান সুপারিশকারী ব্যবহার করুন
এর পরে, JSON ফর্ম্যাটে ইনপুট পাঠ্যের একাধিক পেলোড নমুনা তৈরি করুন এবং সেগুলিকে একটি একক পেলোড ফাইলে সংকুচিত করুন৷ এই পেলোড নমুনাগুলি ইনফারেন্স সুপারিশকারী দ্বারা বিভিন্ন EC2 দৃষ্টান্ত প্রকারের মধ্যে অনুমান কার্যক্ষমতা তুলনা করার জন্য ব্যবহার করা হয়। প্রতিটি নমুনা পেলোড অবশ্যই আগে দেখানো JSON ফর্ম্যাটের সাথে মিলবে। আপনি থেকে উদাহরণ পেতে পারেন WikiText-2 ডেটা সেটটি fast.ai দ্বারা পরিচালিত, এ উপলব্ধ AWS- এ ওপেন ডেটার রেজিস্ট্রি.
সংকুচিত পাঠ্য সংক্ষিপ্তকরণ মডেল আর্টিফ্যাক্ট এবং সংকুচিত নমুনা পেলোড ফাইল S3 বালতিতে আপলোড করুন। আমরা আগের ধাপে মডেলটি আপলোড করেছি, কিন্তু স্পষ্টতার জন্য আমরা এটিকে আবার আপলোড করার জন্য কোডটি অন্তর্ভুক্ত করি:
SageMaker জুড়ে উপলব্ধ স্ট্যান্ডার্ড ML মডেলগুলির তালিকা পর্যালোচনা করুন৷ সাধারণ মডেল চিড়িয়াখানা, যেমন NLP এবং কম্পিউটার দৃষ্টি। পাঠ্য সংক্ষিপ্তকরণ অনুমান সম্পাদন করতে একটি NLP মডেল নির্বাচন করুন:
নিম্নলিখিত উদাহরণ ব্যবহার করে bert-base-cased
এনএলপি মডেল। টেক্সট সারসংক্ষেপ মডেল নিবন্ধন করুন সেজমেকার মডেল রেজিস্ট্রি আগের ধাপ থেকে সঠিকভাবে চিহ্নিত ডোমেন, ফ্রেমওয়ার্ক এবং টাস্ক সহ। এই উদাহরণের প্যারামিটারগুলি নিম্নলিখিত কোড স্নিপেটের শুরুতে দেখানো হয়েছে।
অনুমান সুপারিশকারীর অধীনে মূল্যায়ন করা EC2 দৃষ্টান্ত প্রকারের পরিসীমা নোট করুন SupportedRealtimeInferenceInstanceTypes
নিম্নলিখিত কোডে। নিশ্চিত করুন যে AWS অ্যাকাউন্টের জন্য পরিষেবা সীমা এই ধরনের অনুমান নোড স্থাপনের অনুমতি দিন।
ব্যবহার করে একটি ইনফারেন্স রেকমেন্ডার ডিফল্ট কাজ তৈরি করুন ModelPackageVersion
পূর্ববর্তী ধাপের ফলে। দ্য uuid
পাইথন লাইব্রেরি কাজের জন্য একটি অনন্য নাম তৈরি করতে ব্যবহৃত হয়।
আপনি নিম্নলিখিত কোডটি চালিয়ে ইনফারেন্স সুপারিশকারী কাজের স্থিতি পেতে পারেন:
যখন চাকরির অবস্থা হয় COMPLETED
, ইনফারেন্স রেকমেন্ডার ডিফল্ট কাজের দ্বারা মূল্যায়ন করা EC2 ইনস্ট্যান্স প্রকারের অনুমানের লেটেন্সি, রানটাইম এবং অন্যান্য মেট্রিক্সের তুলনা করুন। আপনার ব্যবহারের ক্ষেত্রে প্রয়োজনীয়তার উপর ভিত্তি করে উপযুক্ত নোডের ধরন নির্বাচন করুন।
উপসংহার
সেজমেকার হাগিং ফেস মডেলগুলি ব্যবহার করার একাধিক উপায় অফার করে; আরো উদাহরণের জন্য, দেখুন AWS নমুনা GitHub. ব্যবহারের ক্ষেত্রে জটিলতা এবং মডেলটি সূক্ষ্ম-টিউন করার প্রয়োজনীয়তার উপর নির্ভর করে, আপনি এই মডেলগুলি ব্যবহার করার সর্বোত্তম উপায় নির্বাচন করতে পারেন। আলিঙ্গন মুখ পাইপলাইন দ্রুত পরীক্ষা এবং উপযুক্ত মডেল নির্বাচন করার জন্য একটি ভাল সূচনা পয়েন্ট হতে পারে. যখন আপনাকে নির্বাচিত মডেলগুলি কাস্টমাইজ এবং প্যারামিটারাইজ করতে হবে, আপনি মডেলগুলি ডাউনলোড করতে পারেন এবং কাস্টমাইজড ইনফারেন্স এন্ডপয়েন্টগুলিতে স্থাপন করতে পারেন৷ একটি নির্দিষ্ট ব্যবহারের ক্ষেত্রে মডেলটিকে আরও সূক্ষ্ম-টিউন করতে, আপনাকে এটি ডাউনলোড করার পরে মডেলটিকে প্রশিক্ষণ দিতে হবে।
সাধারণভাবে NLP মডেল, টেক্সট সংক্ষিপ্তকরণ মডেল সহ, একটি ডেটাসেটে প্রশিক্ষিত হওয়ার পরে ভাল কার্য সম্পাদন করে যা ব্যবহারের ক্ষেত্রে নির্দিষ্ট। SageMaker-এর MLOPs এবং মডেল মনিটরিং বৈশিষ্ট্যগুলি নিশ্চিত করে যে মোতায়েন করা মডেলটি প্রত্যাশার মধ্যে কাজ চালিয়ে যাচ্ছে। এই পোস্টে, আমরা পাঠ্য সংক্ষিপ্তকরণ মডেল স্থাপনের জন্য সর্বোত্তম উপযুক্ত উদাহরণের ধরণ মূল্যায়ন করতে ইনফারেন্স সুপারিশকারী ব্যবহার করেছি। এই সুপারিশগুলি আপনার ML ব্যবহারের ক্ষেত্রে কর্মক্ষমতা এবং খরচ অপ্টিমাইজ করতে পারে।
লেখক সম্পর্কে
ডাঃ নিদাল আলবেইরুতি মেশিন লার্নিং সলিউশনের প্রতি অনুরাগ সহ অ্যামাজন ওয়েব সার্ভিসের একজন সিনিয়র সলিউশন আর্কিটেক্ট। নিদালের 25 বছরেরও বেশি অভিজ্ঞতা রয়েছে বিভিন্ন স্তরে এবং উল্লম্বভাবে বিভিন্ন বৈশ্বিক আইটি ভূমিকাতে কাজ করার। নিডাল অনেক AWS গ্রাহকদের তাদের ক্লাউড গ্রহণের যাত্রাকে সমর্থন ও ত্বরান্বিত করতে বিশ্বস্ত উপদেষ্টা হিসেবে কাজ করে।
ড্যারেন কো লন্ডনে অবস্থিত একজন সলিউশন আর্কিটেক্ট। তিনি ইউকে এবং আয়ারল্যান্ডের এসএমবি গ্রাহকদের ক্লাউডে পুনর্নির্মাণ এবং উদ্ভাবনের পরামর্শ দেন। ড্যারেন সার্ভারহীন আর্কিটেকচার দিয়ে তৈরি অ্যাপ্লিকেশনগুলিতে আগ্রহী এবং তিনি মেশিন লার্নিং দিয়ে টেকসই চ্যালেঞ্জগুলি সমাধান করার বিষয়ে উত্সাহী।
- '
- "
- 000
- 10
- 100
- 28
- a
- সম্পর্কে
- বিমূর্ত
- দ্রুততর করা
- হিসাব
- সঠিক
- অর্জন করা
- দিয়ে
- ঠিকানা
- গ্রহণ
- অধ্যাপক
- AI
- অনুমতি
- মর্দানী স্ত্রীলোক
- অ্যামাজন ওয়েব সার্ভিসেস
- পরিমাণে
- বিশ্লেষণ
- API
- আপেল
- অ্যাপ্লিকেশন
- প্রয়োগ করা
- আর্গুমেন্ট
- প্রবন্ধ
- যুক্ত
- স্বয়ংক্রিয়করণ
- সহজলভ্য
- দত্ত
- ডেস্কটপ AWS
- কারণ
- শুরু
- হচ্ছে
- সর্বোত্তম
- সেরা অভ্যাস
- মধ্যে
- নির্মাণ করা
- ব্যবসায়
- কল
- পেতে পারি
- ক্ষমতা
- কেস
- মামলা
- চ্যালেঞ্জ
- পছন্দ
- শ্রেণী
- শ্রেণীবিন্যাস
- মেঘ
- কোড
- সংগ্রহ
- সমন্বয়
- মিলিত
- সম্প্রদায়গুলি
- সম্প্রদায়
- কোম্পানি
- জটিল
- গনা
- কম্পিউটার
- কনফিগারেশন
- কনজিউমার্স
- খরচ
- আধার
- কন্টেনারগুলি
- চলতে
- সৃষ্টি
- সৃষ্টি
- প্রথা
- গ্রাহকদের
- কাস্টমাইজ
- উপাত্ত
- দিন
- গভীর
- বিলি
- প্রদর্শন
- প্রদর্শিত
- নির্ভর করে
- স্থাপন
- মোতায়েন
- মোতায়েন
- বিস্তৃতি
- নকশা
- ডেভেলপারদের
- উন্নয়নশীল
- উন্নয়ন
- বিভিন্ন
- কঠিন
- ডিজিটাল
- সরাসরি
- প্রদর্শন
- ডকশ্রমিক
- সম্পর্কিত প্রশংসাপত্র
- কাগজপত্র
- ডোমেইন
- ডোমেইনের
- ডাউনলোড
- প্রতি
- সহজে
- কার্যকর
- দক্ষতা
- সক্রিয়
- শেষপ্রান্ত
- প্রকৌশলী
- সত্তা
- পরিবেশ
- মূল্যায়ন
- উদাহরণ
- উদাহরণ
- বিস্তৃত করা
- প্রত্যাশা
- অভিজ্ঞতা
- অভিজ্ঞ
- পরীক্ষা
- ব্যাপক
- মুখ
- দ্রুত
- দ্রুত
- বৈশিষ্ট্য
- অনুসরণ
- বিন্যাস
- ফ্রেমওয়ার্ক
- অবকাঠামো
- থেকে
- সাধারণ
- উত্পাদন করা
- উত্পন্ন
- বিশ্বব্যাপী
- ভাল
- ক্রমবর্ধমান
- সাহায্য
- সহায়ক
- সাহায্য
- ঊর্ধ্বতন
- কিভাবে
- কিভাবে
- HTTPS দ্বারা
- নাভি
- মানব পাঠযোগ্য
- সনাক্ত করা
- ভাবমূর্তি
- বাস্তবায়ন
- বাস্তবায়ন
- বাস্তবায়ন
- গুরুত্বপূর্ণ
- অন্তর্ভুক্ত করা
- সুদ্ধ
- তথ্য
- উদ্ভাবনী
- ইনপুট
- অর্ন্তদৃষ্টি
- উদাহরণ
- সংহত
- ইন্টিগ্রেশন
- আগ্রহী
- আয়ারল্যাণ্ড
- IT
- নিজেই
- কাজ
- যাত্রা
- চাবি
- জ্ঞান
- ভাষা
- ভাষাসমূহ
- বড়
- নেতৃত্ব
- শিক্ষা
- মাত্রা
- লাইব্রেরি
- সীমা
- লাইন
- LINK
- লিনাক্স
- তালিকা
- বোঝা
- স্থানীয়ভাবে
- লণ্ডন
- খুঁজে দেখো
- মেশিন
- মেশিন লার্নিং
- করা
- বাজার
- ম্যাচ
- অর্থপূর্ণ
- সভা
- সদস্য
- ছন্দোবিজ্ঞান
- ML
- মডেল
- মডেল
- পর্যবেক্ষণ
- অধিক
- সেতু
- বহু
- প্রাকৃতিক
- পরবর্তী
- নোড
- নোটবই
- নোট
- নৈবেদ্য
- অফার
- অনলাইন
- খোলা
- পরিচালনা করা
- অপারেশন
- অপ্টিমিজ
- অপ্টিমাইজ
- সর্বোচ্চকরন
- অন্যান্য
- নিজের
- আবেগ
- কামুক
- কর্মক্ষমতা
- করণ
- বাক্যাংশ
- বিন্দু
- জনপ্রিয়
- ক্ষমতা
- প্রস্তুত করা
- আগে
- প্রক্রিয়া
- প্রক্রিয়াজাতকরণ
- উৎপাদন করা
- উত্পাদনের
- পণ্য
- প্রকল্প
- প্রদান
- প্রদত্ত
- উপলব্ধ
- দ্রুত
- পরিসর
- বিশেষ পরামর্শ দেওয়া হচ্ছে
- হ্রাস
- এলাকা
- খাতা
- অনুরোধ
- প্রয়োজন
- আবশ্যকতা
- Resources
- ফলে এবং
- ভূমিকা
- চালান
- দৌড়
- একই
- স্কেল
- বিজ্ঞানীরা
- SDK
- নির্বিঘ্ন
- নির্বাচিত
- অনুভূতি
- Serverless
- সেবা
- সেট
- বিভিন্ন
- প্রদর্শিত
- সহজ
- একক
- So
- সলিউশন
- নির্দিষ্ট
- গতি
- মান
- শুরু
- রাষ্ট্র-এর-শিল্প
- অবস্থা
- স্টোরেজ
- সমর্থন
- সাস্টেনিবিলিটি
- সিস্টেম
- কাজ
- প্রযুক্তি
- প্রযুক্তিঃ
- পরীক্ষামূলক
- সার্জারির
- তিন
- দ্বারা
- সময়
- সময় অপগিত হয় এমন
- সরঞ্জাম
- বিষয়
- প্রশিক্ষণ
- অনুবাদ
- বিশ্বস্ত
- ধরনের
- সাধারণত
- Uk
- অধীনে
- বোঝা
- বোধশক্তি
- অনন্য
- ব্যবহার
- বৈচিত্র্য
- বিভিন্ন
- সংস্করণ
- উল্লম্ব
- দৃষ্টি
- ভলিউম
- উপায়
- ওয়েব
- ওয়েব সার্ভিস
- মধ্যে
- ছাড়া
- শব্দ
- কাজ
- X
- বছর
- আপনার