ফ্যাশন শিল্প একটি অত্যন্ত লাভজনক ব্যবসা, 2.1 সালের মধ্যে আনুমানিক $2025 ট্রিলিয়ন মূল্যের সাথে, বিশ্বব্যাংকের রিপোর্ট অনুযায়ী। এই ক্ষেত্রটি পোশাক, জুতা এবং আনুষাঙ্গিক তৈরি, উত্পাদন, বিতরণ এবং বিক্রয়ের মতো বিভিন্ন বিভাগকে অন্তর্ভুক্ত করে। শিল্পটি পরিবর্তনের একটি ধ্রুবক অবস্থায় রয়েছে, নতুন শৈলী এবং প্রবণতাগুলি ঘন ঘন প্রদর্শিত হচ্ছে। অতএব, ফ্যাশন সংস্থাগুলিকে তাদের প্রাসঙ্গিকতা বজায় রাখতে এবং বাজারে সাফল্য অর্জনের জন্য নমনীয় এবং মানিয়ে নিতে সক্ষম হতে হবে।
জেনারেটিভ আর্টিফিশিয়াল ইন্টেলিজেন্স (AI) AI অ্যালগরিদমগুলিকে বোঝায় যা নতুন বিষয়বস্তু তৈরি করার জন্য ডিজাইন করা হয়েছে, যেমন চিত্র, পাঠ্য, অডিও বা ভিডিও, শেখা নিদর্শন এবং ডেটার সেটের উপর ভিত্তি করে। উন্নত ব্যক্তিগতকরণ এবং খরচ-কার্যকারিতা অফার করার সময় এটি নতুন এবং উদ্ভাবনী পোশাক ডিজাইন তৈরি করতে ব্যবহার করা যেতে পারে। AI-চালিত ডিজাইন টুল টেক্সট প্রম্পটের মাধ্যমে সম্ভাব্য গ্রাহকদের দ্বারা নির্দিষ্ট করা ইনপুট প্যারামিটার বা শৈলীর উপর ভিত্তি করে অনন্য পোশাক ডিজাইন তৈরি করতে পারে। উপরন্তু, গ্রাহকের পছন্দ অনুযায়ী ডিজাইন ব্যক্তিগতকৃত করতে AI ব্যবহার করা যেতে পারে। উদাহরণস্বরূপ, একজন গ্রাহক বিভিন্ন রঙ, নিদর্শন এবং শৈলী থেকে নির্বাচন করতে পারে এবং এআই মডেলগুলি সেই নির্বাচনগুলির উপর ভিত্তি করে এক-এক ধরনের ডিজাইন তৈরি করবে। ফ্যাশন শিল্পে AI গ্রহণ বর্তমানে বিভিন্ন প্রযুক্তিগত, সম্ভাব্যতা এবং খরচ চ্যালেঞ্জ দ্বারা বাধাগ্রস্ত। যাইহোক, এই বাধাগুলি এখন প্রাকৃতিক ভাষা-ভিত্তিক ইমেজ সিমেন্টিক সেগমেন্টেশন এবং ভার্চুয়াল স্টাইলিং এর জন্য বিস্তারের মতো উন্নত জেনারেটিভ এআই পদ্ধতি ব্যবহার করে প্রশমিত করা যেতে পারে।
এই ব্লগ পোস্টে টেক্সট প্রম্পট ব্যবহার করে জেনারেটিভ এআই-সহায়তা ফ্যাশন অনলাইন স্টাইলিং বাস্তবায়নের বিবরণ দেওয়া হয়েছে। মেশিন লার্নিং (এমএল) প্রকৌশলীরা প্রাক-প্রশিক্ষিত CLIPSeq এবং স্টেবল ডিফিউশন এর উপর ভিত্তি করে টেক্সট-টু-সিমেন্টিক-সেগমেন্টেশন এবং ইন-পেইন্টিং মডেলগুলিকে সূক্ষ্ম-সুর এবং স্থাপন করতে পারে। আমাজন সেজমেকার. এটি ফ্যাশন ডিজাইনার এবং ভোক্তাদের পাঠ্য প্রম্পটের উপর ভিত্তি করে ভার্চুয়াল মডেলিং চিত্র তৈরি করতে এবং তাদের পছন্দের শৈলী বেছে নিতে সক্ষম করে।
জেনারেটিভ এআই সলিউশন
সার্জারির CLIPSeg মডেল একটি অভিনব চিত্র শব্দার্থিক বিভাজন পদ্ধতি চালু করেছে যা আপনাকে সহজ পাঠ্য কমান্ড ব্যবহার করে ছবিতে ফ্যাশন আইটেমগুলিকে সহজেই সনাক্ত করতে দেয়। এটি একটি টেক্সট প্রম্পট বা একটি ইমেজ এনকোডার ব্যবহার করে একটি মাল্টিমোডাল এম্বেডিং স্পেসে পাঠ্য এবং ভিজ্যুয়াল তথ্য এনকোড করতে, প্রম্পটের উপর ভিত্তি করে লক্ষ্যবস্তুগুলির অত্যন্ত সঠিক বিভাজন সক্ষম করে। মডেলটিকে শূন্য-শট স্থানান্তর, প্রাকৃতিক ভাষা তত্ত্বাবধান, এবং মাল্টিমোডাল স্ব-তত্ত্বাবধানে দ্বন্দ্বমূলক শিক্ষার মতো কৌশলগুলির সাথে প্রচুর পরিমাণে ডেটার উপর প্রশিক্ষণ দেওয়া হয়েছে। এর মানে হল যে আপনি একটি প্রাক-প্রশিক্ষিত মডেল ব্যবহার করতে পারেন যা সর্বজনীনভাবে উপলব্ধ টিমো লুডেকে কাস্টমাইজেশনের প্রয়োজন ছাড়াই অন্যান্য।
CLIPSeg হল একটি মডেল যা একটি পাঠ্য এবং চিত্র এনকোডার ব্যবহার করে পাঠ্য এবং ভিজ্যুয়াল তথ্যকে একটি মাল্টিমোডাল এম্বেডিং স্পেসে এনকোড করার জন্য একটি টেক্সট প্রম্পটের উপর ভিত্তি করে শব্দার্থিক সেগমেন্টেশন করতে। CLIPSeg এর আর্কিটেকচারে দুটি প্রধান উপাদান রয়েছে: একটি পাঠ্য এনকোডার এবং একটি চিত্র এনকোডার৷ টেক্সট এনকোডার টেক্সট প্রম্পটে নেয় এবং এটিকে একটি টেক্সট এম্বেডিং এ রূপান্তর করে, যখন ইমেজ এনকোডার ইমেজটি নেয় এবং এটিকে ইমেজ এম্বেডিং এ রূপান্তর করে। উভয় এম্বেডিং তারপরে একত্রিত হয় এবং চূড়ান্ত বিভাজন মুখোশ তৈরি করতে একটি সম্পূর্ণ সংযুক্ত স্তরের মধ্য দিয়ে চলে যায়।
ডেটা প্রবাহের পরিপ্রেক্ষিতে, মডেলটিকে ইমেজ এবং সংশ্লিষ্ট পাঠ্য প্রম্পটগুলির একটি ডেটাসেটে প্রশিক্ষণ দেওয়া হয়, যেখানে পাঠ্য প্রম্পটগুলি বিভক্ত করা লক্ষ্যবস্তুকে বর্ণনা করে। প্রশিক্ষণ প্রক্রিয়া চলাকালীন, টেক্সট এনকোডার এবং ইমেজ এনকোডার চূড়ান্ত সেগমেন্টেশন মাস্ক তৈরি করতে টেক্সট প্রম্পট এবং ছবির মধ্যে ম্যাপিং শেখার জন্য অপ্টিমাইজ করা হয়। মডেলটি প্রশিক্ষিত হয়ে গেলে, এটি একটি নতুন পাঠ্য প্রম্পট এবং চিত্র গ্রহণ করতে পারে এবং প্রম্পটে বর্ণিত বস্তুর জন্য একটি বিভাজন মাস্ক তৈরি করতে পারে।
স্ট্যাবল ডিফিউশন হল এমন একটি কৌশল যা ফ্যাশন ডিজাইনারদের দীর্ঘ এবং ব্যয়বহুল কাস্টমাইজেশনের প্রয়োজন ছাড়াই সম্পূর্ণরূপে পাঠ্য বর্ণনার উপর ভিত্তি করে প্রচুর পরিমাণে অত্যন্ত বাস্তবসম্মত চিত্র তৈরি করতে দেয়। এটি ডিজাইনারদের জন্য উপকারী যারা দ্রুত প্রচলিত শৈলী তৈরি করতে চান এবং নির্মাতারা যারা কম খরচে ব্যক্তিগতকৃত পণ্য উত্পাদন করতে চান।
নিম্নলিখিত চিত্রটি স্থিতিশীল বিস্তার আর্কিটেকচার এবং ডেটা প্রবাহকে চিত্রিত করে।
ঐতিহ্যগত GAN-ভিত্তিক পদ্ধতির তুলনায়, স্থিতিশীল ডিফিউশন হল একটি জেনারেটিভ এআই যা আরও স্থিতিশীল এবং ফটো-বাস্তববাদী ছবি তৈরি করতে সক্ষম যা মূল ছবির বিতরণের সাথে মেলে। মডেলটিকে বিস্তৃত উদ্দেশ্যে শর্তযুক্ত করা যেতে পারে, যেমন টেক্সট-টু-ইমেজ জেনারেশনের জন্য টেক্সট, লেআউট-টু-ইমেজ জেনারেশনের জন্য বাউন্ডিং বক্স, ইন-পেইন্টিংয়ের জন্য মাস্ক করা ছবি এবং সুপার-রেজোলিউশনের জন্য নিম্ন-রেজোলিউশনের ছবি। ডিফিউশন মডেলগুলির ব্যবসায়িক অ্যাপ্লিকেশনগুলির একটি বিস্তৃত পরিসর রয়েছে এবং তাদের ব্যবহারিক ব্যবহারগুলি বিকশিত হতে থাকে। এই মডেলগুলি ফ্যাশন, খুচরা এবং ই-কমার্স, বিনোদন, সোশ্যাল মিডিয়া, মার্কেটিং এবং আরও অনেক কিছুর মতো বিভিন্ন শিল্পকে ব্যাপকভাবে উপকৃত করবে।
CLIPSeg ব্যবহার করে পাঠ্য প্রম্পট থেকে মুখোশ তৈরি করুন
ভোগ অনলাইন স্টাইলিং এমন একটি পরিষেবা যা গ্রাহকদের একটি অনলাইন প্ল্যাটফর্মের মাধ্যমে AI থেকে ফ্যাশন পরামর্শ এবং সুপারিশ পেতে সক্ষম করে। এটি এমন পোশাক এবং আনুষাঙ্গিক নির্বাচন করে যা গ্রাহকের চেহারাকে পরিপূরক করে, তাদের বাজেটের মধ্যে ফিট করে এবং তাদের ব্যক্তিগত পছন্দের সাথে মেলে। জেনারেটিভ এআই ব্যবহারের মাধ্যমে, কাজগুলি আরও সহজে সম্পন্ন করা যেতে পারে, যার ফলে গ্রাহকের সন্তুষ্টি বৃদ্ধি পায় এবং খরচ কম হয়।
সমাধান একটি উপর স্থাপন করা যেতে পারে আমাজন ইলাস্টিক কম্পিউট ক্লাউড (EC2) p3.2x বৃহৎ উদাহরণ, যার 100G মেমরি সহ একটি একক V16 GPU রয়েছে। কর্মক্ষমতা উন্নত করতে এবং GPU মেমরির ব্যবহার কমাতে বেশ কিছু কৌশল নিযুক্ত করা হয়েছিল, যার ফলে দ্রুত ইমেজ তৈরি হয়। এর মধ্যে রয়েছে fp16 ব্যবহার করা এবং মনোযোগ ব্লকে ব্যান্ডউইথ কমাতে মেমরি দক্ষ মনোযোগ সক্রিয় করা।
আমরা ব্যবহারকারীকে একটি ফ্যাশন ইমেজ আপলোড করার মাধ্যমে শুরু করেছি, তারপরে CLIPSeq থেকে প্রি-প্রশিক্ষিত মডেলটি ডাউনলোড এবং এক্সট্রাক্ট করে। চিত্রটি তারপর স্বাভাবিক করা হয় এবং আকারের সীমা মেনে চলার জন্য পুনরায় আকার দেওয়া হয়। স্টেবল ডিফিউশন V2 768×768 পর্যন্ত ইমেজ রেজোলিউশন সমর্থন করে যখন V1 512×512 পর্যন্ত সমর্থন করে। নিম্নলিখিত কোড দেখুন:
from models.clipseg import CLIPDensePredT # The original image
image = download_image(img_url).resize((768, 768)) # Download pre-trained CLIPSeq model and unzip the pkg
! wget https://owncloud.gwdg.de/index.php/s/ioHbRzFx6th32hn/download -O weights.zip
! unzip -d weights -j weights.zip # Load CLIP model. Available models = ['RN50', 'RN101', 'RN50x4', # 'RN50x16', 'RN50x64', 'ViT-B/32', 'ViT-B/16', 'ViT-L/14', 'ViT-L/14@336px']
model = CLIPDensePredT(version='ViT-B/16', reduce_dim=64)
model.eval() # non-strict, because we only stored decoder weights (not CLIP weights)
model.load_state_dict(torch.load('weights/rd64-uni.pth', map_location=torch.device('cuda')), strict=False) # Image normalization and resizing
transform = transforms.Compose([ transforms.ToTensor(), transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]), transforms.Resize((768, 768)),
])
img = transform(image).unsqueeze(0)
প্রাক-প্রশিক্ষিত CLIPSeq মডেল ব্যবহার করে, আমরা একটি টেক্সট প্রম্পট ব্যবহার করে একটি ইমেজ থেকে টার্গেট অবজেক্ট বের করতে সক্ষম। এটি টেক্সট এনকোডারে টেক্সট প্রম্পট ইনপুট করে করা হয়, যা এটিকে টেক্সট এম্বেডিং-এ রূপান্তর করে। তারপর ইমেজটিকে ইমেজ এনকোডারে ইনপুট করা হয়, যা এটিকে ইমেজ এম্বেডিং এ রূপান্তর করে। উভয় এম্বেডিং তারপরে একত্রিত হয় এবং চূড়ান্ত সেগমেন্টেশন মাস্ক তৈরি করতে একটি সম্পূর্ণ সংযুক্ত স্তরের মধ্য দিয়ে পাস করা হয়, যা পাঠ্য প্রম্পটে বর্ণিত লক্ষ্য বস্তুটিকে হাইলাইট করে। নিম্নলিখিত কোড দেখুন:
# Text prompt
prompt = 'Get the dress only.' # predict
mask_image_filename = 'the_mask_image.png'
with torch.no_grad(): preds = model(img.repeat(4,1,1,1), prompt)[0] # save the mask image after computing the area under the standard # Gaussian probability density function and calculates the cumulative # distribution function of the normal distribution with ndtr. plt.imsave(mask_image_filename,torch.special.ndtr(preds[0][0]))
শব্দার্থগত বিভাজন থেকে সঠিক মুখোশ চিত্রের সাথে, আমরা বিষয়বস্তু প্রতিস্থাপনের জন্য ইন-পেইন্টিং ব্যবহার করতে পারি। ইন-পেইন্টিং হল একটি চিত্রের অনুপস্থিত অংশগুলি পূরণ করতে একটি প্রশিক্ষিত জেনারেটিভ মডেল ব্যবহার করার প্রক্রিয়া। টার্গেট অবজেক্ট শনাক্ত করার জন্য মাস্ক ইমেজ ব্যবহার করে, আমরা ইন-পেইন্টিং কৌশল প্রয়োগ করতে পারি টার্গেট অবজেক্টকে অন্য কিছু দিয়ে প্রতিস্থাপন করতে, যেমন একটি ভিন্ন পোশাকের আইটেম বা আনুষঙ্গিক। স্টেবল ডিফিউশন V2 মডেলটি এই উদ্দেশ্যে ব্যবহার করা যেতে পারে, কারণ এটি উচ্চ-রেজোলিউশন, ফটো-বাস্তববাদী ছবি তৈরি করতে সক্ষম যা মূল ছবির বিতরণের সাথে মেলে।
ড্রিমবুথ ব্যবহার করে প্রাক-প্রশিক্ষিত মডেল থেকে ফাইন-টিউনিং
ফাইন-টিউনিং হল গভীর শিক্ষার একটি প্রক্রিয়া যেখানে একটি প্রাক-প্রশিক্ষিত মডেলকে অল্প পরিমাণে লেবেলযুক্ত ডেটা ব্যবহার করে একটি নতুন কাজের জন্য আরও প্রশিক্ষিত করা হয়। স্ক্র্যাচ থেকে প্রশিক্ষণের পরিবর্তে, ধারণাটি হল এমন একটি নেটওয়ার্ক নেওয়া যা ইতিমধ্যেই একটি বড় ডেটাসেটে অনুরূপ কাজের জন্য প্রশিক্ষিত হয়েছে এবং এটিকে সেই নির্দিষ্ট কাজের জন্য আরও বিশেষায়িত করার জন্য একটি নতুন ডেটাসেটে প্রশিক্ষণ দেওয়া।
ফ্যাশন ডিজাইনাররাও একটি বিষয়-চালিত, সূক্ষ্ম-টিউনযুক্ত স্টেবল ডিফিউশন ইন-পেইন্টিং মডেল ব্যবহার করতে পারেন একটি নির্দিষ্ট শ্রেণির শৈলী তৈরি করতে, যেমন মহিলাদের জন্য নৈমিত্তিক লম্বা স্কার্ট। এটি করার জন্য, প্রথম ধাপ হল লক্ষ্য ডোমেনে নমুনা চিত্রের একটি সেট প্রদান করা, মোটামুটি প্রায় 1 ডজন, সঠিক টেক্সট লেবেল যেমন নিচের মতো এবং সেগুলিকে একটি অনন্য শনাক্তকারীর সাথে আবদ্ধ করা যা ডিজাইন, শৈলী, রঙ এবং ফ্যাব্রিককে উল্লেখ করে। . সূক্ষ্ম সুর করা মডেলের ফলাফল নির্ধারণে পাঠ্যের লেবেল একটি গুরুত্বপূর্ণ ভূমিকা পালন করে। কার্যকরী মাধ্যমে সূক্ষ্ম টিউনিং উন্নত করার বিভিন্ন উপায় আছে প্রম্পট ইঞ্জিনিয়ারিং এবং এখানে কয়েকটি উদাহরণ রয়েছে।
Sample text prompts to descibe some of the most common design elements of casual long skirts for ladies: Design Style: A-line, wrap, maxi, mini, and pleated skirts are some of the most popular styles for casual wear. A-line skirts are fitted at the waist and flare out at the hem, creating a flattering silhouette. Wrap skirts have a wrap closure and can be tied at the waist for a customizable fit. Maxi skirts are long and flowy, while mini skirts are short and flirty. Pleated skirts have folds that add texture and movement to the garment.
Pattern: Casual skirts can feature a variety of patterns, including stripes, florals, polka dots, and solids. These patterns can range from bold and graphic to subtle and understated.
Colors: Casual skirts come in a range of colors, including neutral shades likeblack, white, and gray, as well as brighter hues like pink, red, and blue. Some skirts may also feature multiple colors in a single garment, such asa skirt with a bold pattern that incorporates several shades.
Fabrics: Common fabrics used in casual skirts include cotton, denim, linen, and rayon. These materials offer different levels of comfort and durability, making it easy to find a skirt that suits your personal style and needs.
স্টেবল ডিফিউশনকে সূক্ষ্ম-টিউন করতে ইমেজের একটি ছোট সেট ব্যবহার করলে মডেল ওভারফিটিং হতে পারে। DreamBooth[5] একটি শ্রেণী-নির্দিষ্ট পূর্ব-সংরক্ষণ ক্ষতি ব্যবহার করে এটির সমাধান করে। এটি দুটি ধাপে সেই নির্দিষ্ট বিষয়ের সাথে একটি অনন্য শনাক্তকারীকে আবদ্ধ করতে শেখে। প্রথমত, এটি একটি টেক্সট প্রম্পটের সাথে পেয়ার করা ইনপুট ইমেজগুলির সাথে কম-রেজোলিউশনের মডেলটিকে সূক্ষ্ম-টিউন করে যাতে একটি অনন্য শনাক্তকারী থাকে এবং বিষয়টি যে শ্রেণীর অন্তর্ভুক্ত, যেমন "স্কার্ট"। অনুশীলনে, এর মানে হল মডেলের সাথে মানানসই চিত্র এবং নন-ফাইন-টিউনড ক্লাসের ভিজ্যুয়াল পূর্ব থেকে নমুনা করা চিত্রগুলি একই সাথে। এই পূর্ব-সংরক্ষিত চিত্রগুলিকে "শ্রেণী বিশেষ্য" প্রম্পট ব্যবহার করে নমুনা এবং লেবেল করা হয়। দ্বিতীয়ত, এটি ইনপুট ইমেজ সেট থেকে কম-রেজোলিউশন এবং উচ্চ-রেজোলিউশন ছবিগুলিকে জোড়া দিয়ে সুপার-হাই-রেজোলিউশনের উপাদানগুলিকে সূক্ষ্ম-টিউন করবে, যা সূক্ষ্ম-টিউন করা মডেলের আউটপুটগুলিকে ছোট বিবরণের প্রতি বিশ্বস্ততা বজায় রাখতে দেয়।
রেজোলিউশন 512×512 ইমেজের জন্য UNet-এর সাথে একটি প্রাক-প্রশিক্ষিত ইন-পেইন্টিং টেক্সট এনকোডার ফাইন-টিউন করার জন্য 22×768 রেজোলিউশনের জন্য প্রায় 768GB VRAM বা তার বেশি প্রয়োজন। পারফরম্যান্সের অবনতি এড়াতে আউটপুট ইমেজ রেজোলিউশনের সাথে মেলে আদর্শভাবে সূক্ষ্ম সুরের নমুনার আকার পরিবর্তন করা উচিত। টেক্সট এনকোডার আরও সঠিক বিবরণ যেমন মডেল ফেস তৈরি করে। একটি বিকল্প হল একটি একক AWS EC2 g5.2x বৃহৎ উদাহরণে চালানো, যা এখন পাওয়া যায় আটটি অঞ্চল অথবা একটি বিতরণ করা কনফিগারেশন জুড়ে সূক্ষ্ম-টিউনড কোড চালানোর জন্য আলিঙ্গন ফেস এক্সিলারেট ব্যবহার করুন। অতিরিক্ত মেমরি সঞ্চয়ের জন্য, আপনি মনোযোগের একটি স্লাইসড সংস্করণ চয়ন করতে পারেন যা পাইপলাইন enable_attention_slicing() ফাংশন যোগ করতে DreamBooth-এর প্রশিক্ষণ স্ক্রিপ্ট train_dreambooth_inpaint.py পরিবর্তন করে একযোগে ধাপে ধাপে গণনা সম্পাদন করে।
Accelerate হল একটি লাইব্রেরি যা একটি সূক্ষ্ম টিউনিং কোডকে যেকোনো বিতরণ করা কনফিগারেশন জুড়ে চালানোর জন্য সক্ষম করে। আলিঙ্গন মুখ এবং আমাজন চালু আলিঙ্গন মুখ ডিপ লার্নিং কনটেইনার (DLCs) একাধিক GPU এবং নোড জুড়ে সূক্ষ্ম টিউনিং কাজগুলি স্কেল করতে। আপনি একটি একক CLI কমান্ড দিয়ে Amazon SageMaker-এর জন্য লঞ্চ কনফিগারেশন কনফিগার করতে পারেন।
# From your aws account, install the sagemaker sdk for Accelerate
pip install "accelerate[sagemaker]" --upgrade # Configure the launch configuration for Amazon SageMaker accelerate config # List and verify Accelerate configuration
accelerate env # Make necessary modification of the training script as the following to save # output on S3, if needed
# - torch.save('/opt/ml/model`)
# + accelerator.save('/opt/ml/model')
একটি সূক্ষ্ম-টিউন কাজ চালু করতে, ব্যবহার করে অ্যাক্সিলারেটের কনফিগারেশন যাচাই করুন CLI এবং প্রয়োজনীয় প্রশিক্ষণ আর্গুমেন্ট প্রদান করুন, তারপর নিম্নলিখিত শেল স্ক্রিপ্ট ব্যবহার করুন।
# Instance images — Custom images that represents the specific # concept for dreambooth training. You should collect # high #quality images based on your use cases.
# Class images — Regularization images for prior-preservation # loss to prevent overfitting. You should generate these # images directly from the base pre-trained model. # You can choose to generate them on your own or generate # them on the fly when running the training script.
# # You can access train_dreambooth_inpaint.py from huggingface/diffuser export MODEL_NAME="stabilityai/stable-diffusion-2-inpainting"
export INSTANCE_DIR="/data/fashion/gowns/highres/"
export CLASS_DIR="/opt/data/fashion/generated_gowns/imgs"
export OUTPUT_DIR="/opt/model/diffuser/outputs/inpainting/" accelerate launch train_dreambooth_inpaint.py --pretrained_model_name_or_path=$MODEL_NAME --train_text_encoder --instance_data_dir=$INSTANCE_DIR --class_data_dir=$CLASS_DIR --output_dir=$OUTPUT_DIR --with_prior_preservation --prior_loss_weight=1.0 --instance_prompt="A supermodel poses in long summer travel skirt, photorealistic" --class_prompt="A supermodel poses in skirt, photorealistic" --resolution=512 --train_batch_size=1 --use_8bit_adam --gradient_checkpointing --learning_rate=2e-6 --lr_scheduler="constant" --lr_warmup_steps=0 --num_class_images=200 --max_train_steps=800
সূক্ষ্ম-টিউন করা ইন-পেইন্টিং মডেলটি টেক্সট প্রম্পট দ্বারা বর্ণিত ফ্যাশন ক্লাসে আরও নির্দিষ্ট চিত্র তৈরি করার অনুমতি দেয়। যেহেতু এটি উচ্চ-রেজোলিউশনের চিত্র এবং পাঠ্য প্রম্পটগুলির একটি সেটের সাথে সূক্ষ্ম-টিউন করা হয়েছে, মডেলটি এমন চিত্র তৈরি করতে পারে যা ক্লাসের জন্য আরও উপযোগী, যেমন আনুষ্ঠানিক সন্ধ্যার গাউন। এটি লক্ষ করা গুরুত্বপূর্ণ যে ক্লাসটি যত বেশি নির্দিষ্ট এবং ফাইন-টিউনিংয়ের জন্য যত বেশি ডেটা ব্যবহার করা হবে, আউটপুট চিত্রগুলি তত বেশি নির্ভুল এবং বাস্তবসম্মত হবে।
%tree -d ./finetuned-stable-diffusion-v2-1-inpainting
finetuned-stable-diffusion-v2-1-inpainting
├── 512-inpainting-ema.ckpt
├── feature_extractor
├── code
│ └──inference.py
│ ├──requirements.txt
├── scheduler
├── text_encoder ├── tokenizer
├── unet
└── vae
অনুমানের জন্য SageMaker ব্যবহার করে একটি সূক্ষ্ম-টিউন করা ইন-পেইন্টিং মডেল স্থাপন করুন
Amazon SageMaker-এর সাথে, আপনি রিয়েল-টাইম ইনফারেন্সের জন্য সূক্ষ্ম-টিউন করা স্ট্যাবল ডিফিউশন মডেলগুলি স্থাপন করতে পারেন। মডেল আপলোড করতে আমাজন সিম্পল স্টোরেজ সার্ভিস (S3) স্থাপনার জন্য, একটি model.tar.gz আর্কাইভ টারবল তৈরি করতে হবে। নিশ্চিত করুন যে সংরক্ষণাগারে সরাসরি সমস্ত ফাইল রয়েছে, সেগুলি রয়েছে এমন ফোল্ডার নয়৷ ড্রিমবুথ ফাইন-টিউনিং আর্কাইভ ফোল্ডারটি বিরতিহীন চেকপয়েন্টগুলি মুছে ফেলার পরে নিম্নলিখিত হিসাবে উপস্থিত হওয়া উচিত:
আমাদের ইনফারেন্স হ্যান্ডলার তৈরির প্রাথমিক ধাপে inference.py ফাইল তৈরি করা জড়িত। এই ফাইলটি মডেল লোড করার এবং সমস্ত আগত অনুমান অনুরোধগুলি পরিচালনা করার জন্য কেন্দ্রীয় হাব হিসাবে কাজ করে। মডেলটি লোড হওয়ার পরে, model_fn() ফাংশনটি কার্যকর করা হয়। যখন অনুমান করার প্রয়োজন দেখা দেয়, তখন predict_fn() ফাংশন বলা হয়। অতিরিক্তভাবে, decode_base64() ফাংশনটি পেলোডের মধ্যে থাকা একটি JSON স্ট্রিংকে একটি পিআইএল ইমেজ ডেটা টাইপে রূপান্তর করতে ব্যবহার করা হয়।
%%writefile code/inference.py
import base64
import torch
from PIL import Image
from io import BytesIO
from diffusers import EulerDiscreteScheduler, StableDiffusionInpaintPipeline def decode_base64(base64_string): decoded_string = BytesIO(base64.b64decode(base64_string)) img = Image.open(decoded_string) return img def model_fn(model_dir): # Load stable diffusion and move it to the GPU scheduler = EulerDiscreteScheduler.from_pretrained(model_dir, subfolder="scheduler") pipe = StableDiffusionInpaintPipeline.from_pretrained(model_dir, scheduler=scheduler, revision="fp16", torch_dtype=torch.float16) pipe = pipe.to("cuda") pipe.enable_xformers_memory_efficient_attention() #pipe.enable_attention_slicing() return pipe def predict_fn(data, pipe): # get prompt & parameters prompt = data.pop("inputs", data) # Require json string input. Inference to convert imge to string. input_img = data.pop("input_img", data) mask_img = data.pop("mask_img", data) # set valid HP for stable diffusion num_inference_steps = data.pop("num_inference_steps", 25) guidance_scale = data.pop("guidance_scale", 6.5) num_images_per_prompt = data.pop("num_images_per_prompt", 2) image_length = data.pop("image_length", 512) # run generation with parameters generated_images = pipe( prompt, image = decode_base64(input_img), mask_image = decode_base64(mask_img), num_inference_steps=num_inference_steps, guidance_scale=guidance_scale, num_images_per_prompt=num_images_per_prompt, height=image_length, width=image_length, #)["images"] # for Stabel Diffusion v1.x ).images # create response encoded_images = [] for image in generated_images: buffered = BytesIO() image.save(buffered, format="JPEG") encoded_images.append(base64.b64encode(buffered.getvalue()).decode()) return {"generated_images": encoded_images}
একটি Amazon S3 বালতিতে মডেলটি আপলোড করতে, প্রথমে একটি model.tar.gz সংরক্ষণাগার তৈরি করতে হবে৷ এটি লক্ষ্য করা গুরুত্বপূর্ণ যে সংরক্ষণাগারে সরাসরি ফাইলগুলি থাকা উচিত এবং সেগুলিকে ধারণ করে এমন একটি ফোল্ডার নয়৷ উদাহরণস্বরূপ, ফাইলটি নিম্নরূপ প্রদর্শিত হবে:
import tarfile
import os # helper to create the model.tar.gz
def compress(tar_dir=None,output_file="model.tar.gz"): parent_dir=os.getcwd() os.chdir(tar_dir) with tarfile.open(os.path.join(parent_dir, output_file), "w:gz") as tar: for item in os.listdir('.'): print(item) tar.add(item, arcname=item) os.chdir(parent_dir) compress(str(model_tar)) # After we created the model.tar.gz archive we can upload it to Amazon S3. We will # use the sagemaker SDK to upload the model to our sagemaker session bucket.
from sagemaker.s3 import S3Uploader # upload model.tar.gz to s3
s3_model_uri=S3Uploader.upload(local_path="model.tar.gz", desired_s3_uri=f"s3://{sess.default_bucket()}/finetuned-stable-diffusion-v2-1-inpainting")
মডেল সংরক্ষণাগার আপলোড করার পরে, আমরা রিয়েল-টাইম অনুমানের জন্য HuggingfaceModel ব্যবহার করে Amazon SageMaker-এ এটি স্থাপন করতে পারি। আপনি একটি g4dn.xlarge উদাহরণ ব্যবহার করে শেষ পয়েন্ট হোস্ট করতে পারেন, যা 4GB VRAM সহ একটি একক NVIDIA Tesla T16 GPU দিয়ে সজ্জিত। বিভিন্ন ট্র্যাফিক চাহিদাগুলি পরিচালনা করতে অটোস্কেলিং সক্রিয় করা যেতে পারে। আপনার এন্ডপয়েন্টে অটোস্কেলিং অন্তর্ভুক্ত করার তথ্যের জন্য, দেখুন প্রোডাকশন চলছে: অ্যামাজন সেজমেকারের সাথে অটো-স্কেলিং হাগিং ফেস ট্রান্সফরমার.
from sagemaker.huggingface.model import HuggingFaceModel # create Hugging Face Model Class
huggingface_model = HuggingFaceModel( model_data=s3_model_uri, # path to your model and script role=role, # iam role with permissions to create an Endpoint transformers_version="4.17", # transformers version used pytorch_version="1.10", # pytorch version used py_version='py38', # python version used
) # deploy the endpoint endpoint
predictor = huggingface_model.deploy( initial_instance_count=1, instance_type="ml.g4dn.xlarge" )
huggingface_model.deploy() পদ্ধতি একটি HuggingFacePredictor অবজেক্ট প্রদান করে যা অনুমানের অনুরোধ করতে ব্যবহার করা যেতে পারে। এন্ডপয়েন্টের জন্য একটি ইনপুট কী সহ একটি JSON প্রয়োজন, যা একটি চিত্র তৈরি করার জন্য মডেলের ইনপুট প্রম্পটকে উপস্থাপন করে। আপনি num_inference_steps, guide_scale, এবং "num_images_per_prompt"-এর মতো পরামিতি দিয়ে প্রজন্মকে নিয়ন্ত্রণ করতে পারেন। predictor.predict() ফাংশন একটি "generated_images" কী সহ একটি JSON রিটার্ন করে, যা বেস64 এনকোডেড স্ট্রিং হিসাবে চারটি জেনারেট করা ছবি ধারণ করে। আমরা যথাক্রমে প্রতিক্রিয়া ডিকোড করতে এবং চিত্রগুলি প্রদর্শন করতে দুটি সহায়ক ফাংশন, decode_base64_to_image এবং display_images যোগ করেছি। পূর্ববর্তীটি base64 এনকোড করা স্ট্রিংকে ডিকোড করে এবং একটি PIL.Image অবজেক্ট প্রদান করে এবং পরবর্তীটি PIL.Image অবজেক্টের একটি তালিকা প্রদর্শন করে। নিম্নলিখিত কোড দেখুন:
import PIL
from io import BytesIO
from IPython.display import display
import base64
import matplotlib.pyplot as plt
import json # Encoder to convert an image to json string
def encode_base64(file_name): with open(file_name, "rb") as image: image_string = base64.b64encode(bytearray(image.read())).decode() return image_string # Decode to to convert a json str to an image def decode_base64_image(base64_string): decoded_string = BytesIO(base64.b64decode(base64_string)) img = PIL.Image.open(decoded_string) return img # display PIL images as grid
def display_images(images=None,columns=3, width=100, height=100): plt.figure(figsize=(width, height)) for i, image in enumerate(images): plt.subplot(int(len(images) / columns + 1), columns, i + 1) plt.axis('off') plt.imshow(image) # Display images in a row/col grid
def image_grid(imgs, rows, cols): assert len(imgs) == rows*cols w, h = imgs[0].size grid = PIL.Image.new('RGB', size=(cols*w, rows*h)) grid_w, grid_h = grid.size for i, img in enumerate(imgs): grid.paste(img, box=(i%cols*w, i//cols*h)) return grid
ইন-পেইন্টিং টাস্ক নিয়ে এগিয়ে যাই। পূর্বে আলোচনা করা টেক্সট প্রম্পটের সাথে CLIPSeg ব্যবহার করে ইনপুট ইমেজ এবং মাস্ক তৈরি করা হলে তিনটি ছবি তৈরি করতে প্রায় 15 সেকেন্ড সময় লাগবে বলে অনুমান করা হয়েছে। নিম্নলিখিত কোড দেখুন:
num_images_per_prompt = 3
prompt = "A female super-model poses in a casual long vacation skirt, with full body length, bright colors, photorealistic, high quality, highly detailed, elegant, sharp focus" # Convert image to string
input_image_filename = "./imgs/skirt-model-2.jpg"
encoded_input_image = encode_base64(input_image_filename)
encoded_mask_image = encode_base64("./imgs/skirt-model-2-mask.jpg") # Set in-painint parameters
guidance_scale = 6.7
num_inference_steps = 45 # run prediction
response = predictor.predict(data={ "inputs": prompt, "input_img": encoded_input_image, "mask_img": encoded_mask_image, "num_images_per_prompt" : num_images_per_prompt, "image_length": 768 }
) # decode images
decoded_images = [decode_base64_image(image) for image in response["generated_images"]] # visualize generation
display_images(decoded_images, columns=num_images_per_prompt, width=100, height=100) # insert initial image in the list so we can compare side by side
image = PIL.Image.open(input_image_filename).convert("RGB")
decoded_images.insert(0, image) # Display inpainting images in grid
image_grid(decoded_images, 1, num_images_per_prompt + 1)
ভিজ্যুয়াল তুলনার জন্য মূল চিত্রের সাথে ইন-পেইন্ট করা ছবিগুলি প্রদর্শিত হতে পারে। উপরন্তু, ইন-পেইন্টিং প্রক্রিয়া বিভিন্ন পরামিতি যেমন গাইডেন্স_স্কেল ব্যবহার করে সীমাবদ্ধ করা যেতে পারে, যা ইন-পেইন্টিং প্রক্রিয়া চলাকালীন নির্দেশিকা চিত্রের শক্তি নিয়ন্ত্রণ করে। এটি ব্যবহারকারীকে আউটপুট চিত্র সামঞ্জস্য করতে এবং পছন্দসই ফলাফল অর্জন করতে দেয়।
অ্যামাজন সেজমেকার জাম্পস্টার্ট টেক্সট-টু-ইমেজ এবং আপস্কেলিং সহ বিভিন্ন মডেলের জন্য স্থিতিশীল ডিফিউশন টেমপ্লেট অফার করে। আরও তথ্যের জন্য, অনুগ্রহ করে পড়ুন সেজমেকার জাম্পস্টার্ট এখন স্থিতিশীল ডিফিউশন এবং ব্লুম মডেল সরবরাহ করে. অতিরিক্ত জাম্পস্টার্ট টেমপ্লেট অদূর ভবিষ্যতে উপলব্ধ হবে।
সীমাবদ্ধতা
যদিও CLIPSeg সাধারণত সাধারণ বস্তুগুলিকে চিনতে ভাল পারফর্ম করে, এটি আরও বিমূর্ত বা পদ্ধতিগত কাজগুলিতে সংগ্রাম করে যেমন একটি ছবিতে বস্তুর সংখ্যা গণনা করা এবং আরও জটিল কাজ যেমন একটি ফটোতে নিকটতম বস্তুটি কতটা কাছাকাছি রয়েছে তা অনুমান করা। জিরো-শট ক্লিপসেক খুব সূক্ষ্ম শ্রেণীবিভাগে টাস্ক-নির্দিষ্ট মডেলের তুলনায় লড়াই করে, যেমন দুটি অস্পষ্ট ডিজাইন, পোশাকের বৈকল্পিক, বা শৈলী শ্রেণীবিভাগের মধ্যে পার্থক্য বলা। CLIPSeq এর প্রি-ট্রেনিং ডেটাসেটে অন্তর্ভুক্ত নয় এমন চিত্রগুলির জন্য এখনও দুর্বল সাধারণীকরণ রয়েছে। অবশেষে, এটা লক্ষ্য করা গেছে যে CLIP-এর জিরো-শট ক্লাসিফায়ারগুলি শব্দ বা বাক্যাংশের প্রতি সংবেদনশীল হতে পারে এবং কখনও কখনও ভাল কাজ করার জন্য ট্রায়াল এবং ত্রুটি "প্রম্পট ইঞ্জিনিয়ারিং" এর প্রয়োজন হয়। CLIPSeq এর মেরুদণ্ডের জন্য একটি ভিন্ন শব্দার্থিক সেগমেন্টেশন মডেলে স্যুইচ করা, যেমন BEiT, যা ADE62.8K ডেটাসেটে একটি 20% mIOU নিয়ে গর্ব করে, সম্ভাব্য ফলাফলগুলিকে উন্নত করতে পারে৷
স্ট্যাবল ডিফিউশন ব্যবহার করে তৈরি করা ফ্যাশন ডিজাইনগুলি পোশাকের এমন কিছু অংশের মধ্যে সীমাবদ্ধ বলে পাওয়া গেছে যা ফ্যাশন মডেলগুলির বিস্তৃত প্রেক্ষাপটে অন্তত অনুমান করা যায় এবং যেগুলি উচ্চ-স্তরের এম্বেডিংয়ের সাথে সামঞ্জস্যপূর্ণ যা আপনি যুক্তিসঙ্গতভাবে খুঁজে পাওয়ার আশা করতে পারেন। প্রাক-প্রশিক্ষিত মডেল প্রশিক্ষণের সময় ব্যবহৃত একটি হাইপারস্কেল ডেটাসেট। জেনারেটিভ এআই এর আসল সীমা হল যে মডেলটি শেষ পর্যন্ত সম্পূর্ণ কাল্পনিক এবং কম খাঁটি আউটপুট তৈরি করবে। অতএব, AI দ্বারা উত্পন্ন ফ্যাশন ডিজাইনগুলি মানুষের ডিজাইনারদের দ্বারা তৈরি করা মত বৈচিত্র্যময় বা অনন্য নাও হতে পারে।
উপসংহার
জেনারেটিভ এআই ফ্যাশন সেক্টরকে আরও ভাল ব্যবহারকারীর অভিজ্ঞতা এবং ব্যয়-দক্ষ ব্যবসায়িক কৌশলগুলির মাধ্যমে তাদের অনুশীলনগুলিকে রূপান্তর করার একটি সুযোগ প্রদান করে। এই পোস্টে, আমরা ভার্চুয়াল মডেলিং ব্যবহার করে ফ্যাশন ডিজাইনার এবং ভোক্তাদের ব্যক্তিগতকৃত ফ্যাশন শৈলী তৈরি করতে সক্ষম করার জন্য কীভাবে জেনারেটিভ এআই ব্যবহার করতে হয় তা প্রদর্শন করি। বিদ্যমান Amazon SageMaker Jumpstart টেমপ্লেটের সহায়তায় এবং যেগুলি আসছে, ব্যবহারকারীরা এই উন্নত কৌশলগুলিকে গভীরভাবে প্রযুক্তিগত দক্ষতার প্রয়োজন ছাড়াই দ্রুত গ্রহণ করতে পারে, সমস্তই বহুমুখিতা বজায় রেখে এবং খরচ কমিয়ে৷
এই উদ্ভাবনী প্রযুক্তি বিভিন্ন শিল্প জুড়ে সামগ্রী তৈরির সাথে জড়িত কোম্পানি এবং পেশাদারদের জন্য নতুন সুযোগ উপস্থাপন করে। জেনারেটিভ এআই কন্টেন্ট উন্নত এবং তৈরি করার জন্য যথেষ্ট ক্ষমতা প্রদান করে। আপনার জাম্পস্টার্ট টেমপ্লেটগুলিতে সাম্প্রতিক সংযোজনগুলি ব্যবহার করে দেখুন সেজমেকার স্টুডিও, যেমন ফাইন-টিউনিং টেক্সট-টু-ইমেজ এবং আপস্কেল ক্ষমতা।
আমরা Li Zhang, Karl Albertsen, Kristine Pearce, Nikhil Velpanur, Aaron Sengstacken, James Wu এবং Neelam Koshiya কে তাদের সমর্থন এবং মূল্যবান ইনপুটগুলির জন্য ধন্যবাদ জানাতে চাই যা এই কাজের উন্নতিতে সাহায্য করেছে৷
লেখক সম্পর্কে
আলফ্রেড শেন AWS-এর একজন সিনিয়র এআই/এমএল বিশেষজ্ঞ। তিনি সিলিকন ভ্যালিতে কাজ করেছেন, স্বাস্থ্যসেবা, অর্থ এবং উচ্চ-প্রযুক্তি সহ বিভিন্ন ক্ষেত্রে প্রযুক্তিগত এবং ব্যবস্থাপক পদে রয়েছেন। তিনি একজন নিবেদিতপ্রযুক্ত এআই/এমএল গবেষক, সিভি, এনএলপি এবং মাল্টিমোডালিটিতে মনোনিবেশ করেন। তার কাজ ইএমএনএলপি, আইসিএলআর এবং জনস্বাস্থ্যের মতো প্রকাশনায় প্রদর্শিত হয়েছে।
বিবেক মদন ড অ্যামাজন সেজমেকার জাম্পস্টার্ট দলের একজন ফলিত বিজ্ঞানী। তিনি আরবানা-চ্যাম্পেইনের ইলিনয় বিশ্ববিদ্যালয় থেকে তার পিএইচডি পেয়েছিলেন এবং জর্জিয়া টেকের পোস্ট ডক্টরাল গবেষক ছিলেন। তিনি মেশিন লার্নিং এবং অ্যালগরিদম ডিজাইনের একজন সক্রিয় গবেষক এবং EMNLP, ICLR, COLT, FOCS এবং SODA কনফারেন্সে গবেষণাপত্র প্রকাশ করেছেন
- এসইও চালিত বিষয়বস্তু এবং পিআর বিতরণ। আজই পরিবর্ধিত পান।
- প্লেটোব্লকচেন। Web3 মেটাভার্স ইন্টেলিজেন্স। জ্ঞান প্রসারিত. এখানে প্রবেশ করুন.
- উত্স: https://aws.amazon.com/blogs/machine-learning/virtual-fashion-styling-with-generative-ai-using-amazon-sagemaker/
- 1
- 10
- 100
- 7
- a
- হারুন
- সক্ষম
- সম্পর্কে
- বিমূর্ত
- দ্রুততর করা
- বেগবর্ধক ব্যক্তি
- প্রবেশ
- মালপত্র
- সম্পন্ন
- হিসাব
- সঠিক
- অর্জন করা
- দিয়ে
- সক্রিয়
- খাপ খাওয়ানো
- যোগ
- অতিরিক্ত
- উপরন্তু
- সংযোজন
- ঠিকানাগুলি
- গ্রহণ
- অগ্রসর
- পরামর্শ
- পর
- AI
- এআই / এমএল
- অ্যালগরিদম
- আলগোরিদিম
- সব
- অনুমতি
- অনুমতি
- ইতিমধ্যে
- মর্দানী স্ত্রীলোক
- আমাজন সেজমেকার
- আমাজন সেজমেকার জাম্পস্টার্ট
- পরিমাণ
- এবং
- পোশাক
- প্রদর্শিত
- অ্যাপ্লিকেশন
- ফলিত
- প্রয়োগ করা
- আন্দাজ
- স্থাপত্য
- সংরক্ষাণাগার
- এলাকায়
- আর্গুমেন্ট
- কৃত্রিম
- কৃত্রিম বুদ্ধিমত্তা
- হিসেবে
- সহায়তা
- মনোযোগ
- অডিও
- খাঁটি
- সহজলভ্য
- ডেস্কটপ AWS
- দাঁড়া
- ব্যান্ডউইথ
- ব্যাংক
- ভিত্তি
- ভিত্তি
- কারণ
- শুরু হয়
- উপকারী
- সুবিধা
- উত্তম
- মধ্যে
- বাঁধাই করা
- বাঁধাই
- বাধা
- ব্লগ
- পুষ্প
- নীল
- boasts
- শরীর
- সাহসী
- বক্স
- উজ্জ্বল
- উজ্জ্বল
- বাজেট
- ব্যবসায়
- ব্যবসা অ্যাপ্লিকেশন
- হিসাব করে
- নামক
- ক্ষমতা
- সক্ষম
- মামলা
- নৈমিত্তিক
- মধ্য
- চ্যালেঞ্জ
- মতভেদ
- পরিবর্তন
- বেছে নিন
- শ্রেণী
- শ্রেণীবিন্যাস
- ঘনিষ্ঠ
- অবসান
- বস্ত্র
- মেঘ
- কোড
- সংগ্রহ করা
- রঙ
- কলাম
- আসা
- সান্ত্বনা
- সাধারণ
- কোম্পানি
- তুলনা করা
- তুলনা
- তুলনা
- পূরক
- জটিল
- উপাদান
- গণনা
- গনা
- কম্পিউটিং
- ধারণা
- কনফিগারেশন
- সংযুক্ত
- ধ্রুব
- কনজিউমার্স
- কন্টেনারগুলি
- ধারণ
- বিষয়বস্তু
- কন্টেন্ট জেনারেশন
- প্রসঙ্গ
- অবিরত
- নিয়ন্ত্রণ
- নিয়ন্ত্রণগুলি
- রূপান্তর
- অনুরূপ
- মূল্য
- পারা
- আবৃত
- সৃষ্টি
- নির্মিত
- তৈরি করা হচ্ছে
- সৃষ্টি
- সংকটপূর্ণ
- কঠোর
- এখন
- প্রথা
- ক্রেতা
- গ্রাহক সন্তুষ্টি
- গ্রাহকদের
- স্বনির্ধারিত
- স্বনির্ধারণ
- উপাত্ত
- হ্রাস
- নিবেদিত
- গভীর
- গভীর জ্ঞানার্জন
- দাবি
- ডেনিম
- স্থাপন
- মোতায়েন
- বিস্তৃতি
- বর্ণনা করা
- বর্ণিত
- নকশা
- পরিকল্পিত
- ডিজাইনার
- ডিজাইন
- আকাঙ্ক্ষিত
- বিশদ
- বিস্তারিত
- নির্ণয়
- পার্থক্য
- বিভিন্ন
- আশ্লেষ
- সরাসরি
- আলোচনা
- প্রদর্শন
- প্রদর্শন
- বণ্টিত
- বিতরণ
- বিচিত্র
- ডোমেইন
- ডাউনলোড
- ডজন
- স্থায়িত্ব
- সময়
- ই-কমার্স
- সহজে
- কার্যকর
- দক্ষ
- উপাদান
- দূর
- আলিঙ্গন
- সক্ষম করা
- সম্ভব
- সক্রিয়
- পরিবেষ্টিত
- শেষপ্রান্ত
- প্রকৌশলী
- বর্ধনশীল
- নিশ্চিত করা
- বিনোদন
- সজ্জিত
- ভুল
- আনুমানিক
- সন্ধ্যা
- অবশেষে
- গজান
- উদাহরণ
- উদাহরণ
- বিদ্যমান
- আশা করা
- খরচ
- ব্যয়বহুল
- অভিজ্ঞতা
- ল্যাপারোস্কোপিক পদ্ধতি
- রপ্তানি
- নির্যাস
- ফ্যাব্রিক
- বস্ত্র
- মুখ
- মুখ
- ফ্যাশন
- দ্রুত
- বৈশিষ্ট্য
- মহিলা
- কয়েক
- বিশ্বস্ততা
- ক্ষেত্র
- ফাইল
- নথি পত্র
- পূরণ করা
- চূড়ান্ত
- পরিশেষে
- অর্থ
- আবিষ্কার
- জরিমানা
- প্রথম
- ফিট
- বিস্তারণ
- নমনীয়
- প্রবাহ
- কেন্দ্রবিন্দু
- অনুসৃত
- অনুসরণ
- অনুসরণ
- আনুষ্ঠানিকভাবে
- সাবেক
- অগ্রবর্তী
- পাওয়া
- ঘনঘন
- থেকে
- সম্পূর্ণ
- সম্পূর্ণরূপে
- ক্রিয়া
- ক্রিয়াকলাপ
- অধিকতর
- তদ্ব্যতীত
- ভবিষ্যৎ
- পোষাক
- উত্পাদন করা
- উত্পন্ন
- প্রজন্ম
- সৃজক
- জেনারেটিভ এআই
- জর্জিয়া
- পাওয়া
- প্রদত্ত
- জিপিইউ
- জিপিইউ
- গ্রাফিক
- ধূসর
- বৃহত্তর
- অতিশয়
- গ্রিড
- হাতল
- হ্যান্ডলিং
- সাজ
- জমিদারি
- স্বাস্থ্য
- স্বাস্থ্যসেবা
- উচ্চতা
- সাহায্য
- এখানে
- উচ্চ
- উচ্চস্তর
- উচ্চ রেজল্যুশন
- ঊর্ধ্বতন
- হাইলাইট
- অত্যন্ত
- অধিষ্ঠিত
- ঝুলিতে
- নিমন্ত্রণকর্তা
- কিভাবে
- কিভাবে
- যাহোক
- এইচটিএমএল
- HTTPS দ্বারা
- নাভি
- জড়িয়ে আছে
- মানবীয়
- ধারণা
- আইডেন্টিফায়ার
- সনাক্ত করা
- ইলিনয়
- ভাবমূর্তি
- চিত্র
- কল্পিত
- বাস্তবায়ন
- আমদানি
- গুরুত্বপূর্ণ
- উন্নত করা
- উন্নত
- in
- গভীর
- অন্তর্ভুক্ত করা
- অন্তর্ভুক্ত
- সুদ্ধ
- ইনকামিং
- একত্রিত
- বর্ধিত
- শিল্প
- শিল্প
- তথ্য
- প্রারম্ভিক
- উদ্ভাবনী
- ইনপুট
- ইনস্টল
- উদাহরণ
- পরিবর্তে
- বুদ্ধিমত্তা
- উপস্থাপিত
- জড়িত
- IT
- আইটেম
- কাজ
- JSON
- চাবি
- লেবেল
- লেবেলগুলি
- ভাষা
- বড়
- শুরু করা
- স্তর
- নেতৃত্ব
- শিখতে
- জ্ঞানী
- শিক্ষা
- লম্বা
- মাত্রা
- Li
- লাইব্রেরি
- LIMIT টি
- সীমিত
- তালিকা
- বোঝা
- বোঝাই
- দীর্ঘ
- ক্ষতি
- হ্রাসকরন
- লাভজনক
- মেশিন
- মেশিন লার্নিং
- প্রধান
- বজায় রাখা
- নিয়ন্ত্রণের
- করা
- মেকিং
- পরিচালনাসংক্রান্ত
- নির্মাতারা
- ম্যাপিং
- বাজার
- Marketing
- মাস্ক
- মুখোশ
- ম্যাচ
- উপকরণ
- matplotlib
- মানে
- মিডিয়া
- স্মৃতি
- পদ্ধতি
- পদ্ধতি
- অনুপস্থিত
- ML
- মডেল
- মডেল
- অধিক
- সেতু
- পদক্ষেপ
- আন্দোলন
- বহু
- নাম
- প্রাকৃতিক
- কাছাকাছি
- প্রয়োজনীয়
- প্রয়োজন
- প্রয়োজন
- চাহিদা
- নেটওয়ার্ক
- নিরপেক্ষ
- নতুন
- NLP
- নোড
- সাধারণ
- উপন্যাস
- সংখ্যা
- এনভিডিয়া
- লক্ষ্য
- বস্তু
- অবমুক্ত
- অর্পণ
- নৈবেদ্য
- অফার
- ONE
- এক-এক ধরনের
- অনলাইন
- সুযোগ
- অপ্টিমাইজ
- পছন্দ
- ক্রম
- মূল
- OS
- নিজের
- জোড়া
- পেয়ারিং
- কাগজপত্র
- পরামিতি
- বিশেষ
- যন্ত্রাংশ
- গৃহীত
- পথ
- প্যাটার্ন
- নিদর্শন
- পিডিএফ
- সম্পাদন করা
- কর্মক্ষমতা
- সঞ্চালিত
- অনুমতি
- ব্যক্তিগত
- ব্যক্তিগতকরণ
- ব্যক্তিগতকৃত
- ব্যক্তিগতকৃত
- ফটোরিয়ালিস্টিক
- ছবি
- নল
- পাইপলাইন
- মাচা
- Plato
- প্লেটো ডেটা ইন্টেলিজেন্স
- প্লেটোডাটা
- দয়া করে
- দরিদ্র
- জনপ্রিয়
- ভঙ্গি
- অবস্থানের
- পোস্ট
- সম্ভাব্য
- সম্ভাব্য
- ব্যবহারিক
- অনুশীলন
- চর্চা
- ভবিষ্যদ্বাণী করা
- পূর্বাভাসের
- ভবিষ্যদ্বাণী
- Predictor
- পছন্দগুলি
- পছন্দের
- উপস্থাপন
- প্রতিরোধ
- পূর্বে
- পূর্বে
- প্রক্রিয়া
- উৎপাদন করা
- উত্পাদনের
- পণ্য
- পেশাদার
- সঠিক
- প্রদান
- উপলব্ধ
- প্রকাশ্য
- জনস্বাস্থ্য
- প্রকাশনা
- প্রকাশ্যে
- প্রকাশিত
- বিশুদ্ধরূপে
- উদ্দেশ্য
- উদ্দেশ্য
- পাইথন
- পাইটার্চ
- গুণ
- দ্রুত
- পরিসর
- বাস্তব
- প্রকৃত সময়
- বাস্তবানুগ
- গ্রহণ করা
- সাম্প্রতিক
- সুপারিশ
- লাল
- হ্রাস করা
- হ্রাসপ্রাপ্ত
- রেফারেন্স
- বোঝায়
- প্রাসঙ্গিকতা
- রিপোর্ট
- প্রতিনিধিত্ব করে
- অনুরোধ
- অনুরোধ
- প্রয়োজন
- প্রয়োজন
- গবেষক
- সমাধান
- প্রতিক্রিয়া
- ফল
- ফলে এবং
- ফলাফল
- খুচরা
- প্রত্যাবর্তন
- আয়
- আরজিবি
- ভূমিকা
- মোটামুটিভাবে
- চালান
- দৌড়
- ঋষি নির্মাতা
- বিক্রয়
- সন্তোষ
- সংরক্ষণ করুন
- জমা
- স্কেল
- বিজ্ঞানী
- SDK
- দ্বিতীয়
- সেকেন্ড
- সেক্টর
- সেক্টর
- সেগমেন্টেশন
- অংশ
- নির্বাচন
- জ্যেষ্ঠ
- সংবেদনশীল
- স্থল
- সেবা
- সেশন
- সেট
- বিভিন্ন
- তীব্র
- খোল
- সংক্ষিপ্ত
- উচিত
- গ্লাসকেস
- পাশ
- সিলিকোন
- সিলিকন ভ্যালি
- অনুরূপ
- সহজ
- কেবল
- এককালে
- একক
- আয়তন
- ছোট
- So
- সামাজিক
- সামাজিক মাধ্যম
- সমাধান
- কিছু
- কিছু
- স্থান
- প্রশিক্ষণ
- বিশেষজ্ঞ
- বিশেষজ্ঞ
- নির্দিষ্ট
- নিদিষ্ট
- স্থিতিশীল
- মান
- রাষ্ট্র
- ধাপ
- প্রারম্ভিক ব্যবহারের নির্দেশাবলী
- এখনো
- স্টোরেজ
- সঞ্চিত
- কৌশল
- শক্তি
- ফিতে
- সংগ্রামের
- শৈলী
- বিষয়
- সাফল্য
- এমন
- গ্রীষ্ম
- সুপারমডেলের
- ভুল
- সমর্থন
- উপযোগী
- গ্রহণ করা
- লাগে
- লক্ষ্য
- কার্য
- কাজ
- টীম
- প্রযুক্তি
- কারিগরী
- প্রযুক্তি
- প্রযুক্তিঃ
- টেমপ্লেট
- শর্তাবলী
- টেসলা
- সার্জারির
- ক্ষেত্র
- বিশ্ব
- তাদের
- অতএব
- তিন
- দ্বারা
- বাঁধা
- থেকে
- সরঞ্জাম
- মশাল
- সম্পূর্ণ
- ঐতিহ্যগত
- ট্রাফিক
- রেলগাড়ি
- প্রশিক্ষিত
- প্রশিক্ষণ
- হস্তান্তর
- রুপান্তর
- ট্রান্সফরমার
- ভ্রমণ
- প্রবণতা
- পরীক্ষা
- দশ সহস্রের ত্রিঘাত
- অধীনে
- অনন্য
- বিশ্ববিদ্যালয়
- আপলোড করা
- ব্যবহার
- ব্যবহার
- ব্যবহারকারী
- ব্যবহারকারী
- সাধারণত
- সদ্ব্যবহার করা
- ব্যবহার
- ব্যবহার
- ব্যবহার
- অবকাশ
- উপত্যকা
- দামি
- মূল্য
- বৈচিত্র্য
- বিভিন্ন
- সুবিশাল
- যাচাই
- সংস্করণ
- ভিডিও
- ভার্চুয়াল
- W
- উপায়
- যে
- যখন
- সাদা
- হু
- ব্যাপক
- প্রশস্ত পরিসর
- ব্যাপকতর
- প্রস্থ
- ইচ্ছা
- মধ্যে
- ছাড়া
- বাক্যে কথন
- হয়া যাই ?
- কাজ করছে
- বিশ্ব
- বিশ্ব ব্যাংক
- would
- মোড়ানো
- wu
- X
- আপনি
- আপনার
- zephyrnet
- ফ্যাস্ শব্দ