อุตสาหกรรมแฟชั่นคือก ธุรกิจที่มีกำไรสูงโดยมีมูลค่าประมาณ 2.1 ล้านล้านดอลลาร์ภายในปี 2025 ตามรายงานของธนาคารโลก ฟิลด์นี้ครอบคลุมส่วนต่างๆ ที่หลากหลาย เช่น การสร้างสรรค์ การผลิต การจัดจำหน่าย และการขายเสื้อผ้า รองเท้า และเครื่องประดับ อุตสาหกรรมนี้มีการเปลี่ยนแปลงอยู่ตลอดเวลา โดยมีรูปแบบและเทรนด์ใหม่ๆ เกิดขึ้นบ่อยครั้ง ดังนั้นบริษัทแฟชั่นจึงต้องมีความยืดหยุ่นและสามารถปรับตัวได้เพื่อรักษาความเกี่ยวข้องและประสบความสำเร็จในตลาด
ปัญญาประดิษฐ์เชิงกำเนิด (AI) หมายถึงอัลกอริธึม AI ที่ออกแบบมาเพื่อสร้างเนื้อหาใหม่ เช่น รูปภาพ ข้อความ เสียง หรือวิดีโอ โดยอิงตามชุดของรูปแบบและข้อมูลที่เรียนรู้ สามารถใช้เพื่อสร้างการออกแบบเครื่องแต่งกายใหม่และเป็นนวัตกรรมใหม่ในขณะที่ให้การปรับแต่งส่วนบุคคลที่ดีขึ้นและความคุ้มค่า เครื่องมือออกแบบที่ขับเคลื่อนด้วย AI สามารถสร้างการออกแบบเครื่องแต่งกายที่ไม่เหมือนใครตามพารามิเตอร์อินพุตหรือสไตล์ที่ระบุโดยผู้มีโอกาสเป็นลูกค้าผ่านข้อความแจ้ง นอกจากนี้ยังสามารถใช้ AI เพื่อปรับแต่งการออกแบบตามความต้องการของลูกค้า ตัวอย่างเช่น ลูกค้าสามารถเลือกจากสี ลวดลาย และสไตล์ที่หลากหลาย และโมเดล AI จะสร้างการออกแบบที่ไม่เหมือนใครตามการเลือกเหล่านั้น ปัจจุบันการนำ AI มาใช้ในอุตสาหกรรมแฟชั่นถูกขัดขวางด้วยความท้าทายด้านเทคนิค ความเป็นไปได้ และต้นทุน อย่างไรก็ตาม อุปสรรคเหล่านี้สามารถบรรเทาลงได้โดยใช้วิธีการสร้าง AI ขั้นสูง เช่น การแบ่งส่วนความหมายของภาพตามภาษาธรรมชาติ และการแพร่กระจายสำหรับการจัดรูปแบบเสมือนจริง
บล็อกโพสต์นี้ให้รายละเอียดเกี่ยวกับการนำสไตล์แฟชั่นออนไลน์ที่มี AI มาช่วยสร้างโดยใช้ข้อความแจ้ง วิศวกรแมชชีนเลิร์นนิง (ML) สามารถปรับแต่งและปรับใช้การแบ่งส่วนข้อความเป็นความหมายและโมเดลในการวาดภาพตาม CLIPSeq และ Stable Diffusion ที่ผ่านการฝึกอบรมล่วงหน้าด้วย อเมซอน SageMaker. สิ่งนี้ทำให้นักออกแบบแฟชั่นและผู้บริโภคสามารถสร้างแบบจำลองเสมือนจริงตามข้อความแจ้งและเลือกสไตล์ที่ต้องการได้
โซลูชัน AI เจเนอเรทีฟ
พื้นที่ คลิป นางแบบได้แนะนำวิธีการแบ่งส่วนความหมายของรูปภาพแบบใหม่ ช่วยให้คุณระบุสินค้าแฟชั่นในรูปภาพได้อย่างง่ายดายโดยใช้คำสั่งข้อความง่ายๆ ใช้พรอมต์ข้อความหรืออิมเมจเอนโค้ดเดอร์เพื่อเข้ารหัสข้อมูลที่เป็นข้อความและภาพลงในพื้นที่การฝังหลายรูปแบบ ทำให้สามารถแบ่งส่วนวัตถุเป้าหมายได้อย่างแม่นยำสูงตามพรอมต์ แบบจำลองนี้ได้รับการฝึกอบรมเกี่ยวกับข้อมูลจำนวนมหาศาลด้วยเทคนิคต่างๆ เช่น การถ่ายโอนแบบไม่มีช็อต การกำกับด้วยภาษาธรรมชาติ และการเรียนรู้แบบคอนทราสต์ที่ดูแลตนเองหลายรูปแบบ ซึ่งหมายความว่าคุณสามารถใช้โมเดลที่ได้รับการฝึกอบรมล่วงหน้าซึ่งเผยแพร่ต่อสาธารณะโดย ติโม ลุดเด็คเก้ และอื่น ๆ โดยไม่จำเป็นต้องปรับแต่ง
CLIPSeg เป็นโมเดลที่ใช้ตัวเข้ารหัสข้อความและรูปภาพเพื่อเข้ารหัสข้อมูลที่เป็นข้อความและภาพลงในพื้นที่ฝังหลายรูปแบบเพื่อทำการแบ่งส่วนความหมายตามข้อความแจ้ง สถาปัตยกรรมของ CLIPSeg ประกอบด้วยสององค์ประกอบหลัก: ตัวเข้ารหัสข้อความและตัวเข้ารหัสรูปภาพ ตัวเข้ารหัสข้อความรับพรอมต์ข้อความและแปลงเป็นการฝังข้อความ ในขณะที่ตัวเข้ารหัสรูปภาพรับภาพและแปลงเป็นการฝังรูปภาพ จากนั้นการฝังทั้งสองจะถูกต่อเข้าด้วยกันและผ่านเลเยอร์ที่เชื่อมต่ออย่างสมบูรณ์เพื่อสร้างมาสก์การแบ่งส่วนขั้นสุดท้าย
ในแง่ของโฟลว์ข้อมูล แบบจำลองได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลของรูปภาพและข้อความแจ้งที่เกี่ยวข้อง โดยที่ข้อความแจ้งจะอธิบายวัตถุเป้าหมายที่จะแบ่งส่วน ในระหว่างกระบวนการฝึกอบรม ตัวเข้ารหัสข้อความและตัวเข้ารหัสรูปภาพได้รับการปรับให้เหมาะสมเพื่อเรียนรู้การแมประหว่างข้อความแจ้งและรูปภาพเพื่อสร้างมาสก์การแบ่งส่วนขั้นสุดท้าย เมื่อโมเดลได้รับการฝึกอบรมแล้ว โมเดลจะสามารถรับข้อความและรูปภาพใหม่และสร้างมาสก์การแบ่งส่วนสำหรับวัตถุที่อธิบายไว้ในพรอมต์
Stable Diffusion เป็นเทคนิคที่ช่วยให้นักออกแบบแฟชั่นสร้างภาพที่เหมือนจริงสูงในปริมาณมากโดยอ้างอิงจากคำอธิบายข้อความเท่านั้น โดยไม่จำเป็นต้องปรับแต่งให้ยาวและมีราคาแพง สิ่งนี้เป็นประโยชน์สำหรับนักออกแบบที่ต้องการสร้างสไตล์ที่ทันสมัยอย่างรวดเร็ว และผู้ผลิตที่ต้องการผลิตสินค้าเฉพาะบุคคลด้วยต้นทุนที่ต่ำลง
ไดอะแกรมต่อไปนี้แสดงสถาปัตยกรรม Stable Diffusion และการไหลของข้อมูล
เมื่อเปรียบเทียบกับวิธีที่ใช้ GAN แบบดั้งเดิมแล้ว Stable Diffusion คือ AI เชิงกำเนิดที่สามารถสร้างภาพที่มีเสถียรภาพมากขึ้นและมีความสมจริงเหมือนภาพถ่ายซึ่งตรงกับการกระจายของภาพต้นฉบับ แบบจำลองสามารถปรับเงื่อนไขได้ตามวัตถุประสงค์ที่หลากหลาย เช่น ข้อความสำหรับการสร้างข้อความเป็นรูปภาพ กล่องขอบสำหรับการสร้างเค้าโครงเป็นรูปภาพ ภาพที่ปิดบังสำหรับการลงสี และรูปภาพที่มีความละเอียดต่ำสำหรับความละเอียดสูงสุด แบบจำลองการแพร่กระจายมีแอปพลิเคชันทางธุรกิจที่หลากหลาย และการใช้งานจริงยังคงพัฒนาต่อไป โมเดลเหล่านี้จะเป็นประโยชน์อย่างยิ่งต่ออุตสาหกรรมต่างๆ เช่น แฟชั่น การค้าปลีกและอีคอมเมิร์ซ ความบันเทิง โซเชียลมีเดีย การตลาด และอื่นๆ
สร้างมาสก์จากข้อความแจ้งโดยใช้ CLIPSeg
Vogue online style เป็นบริการที่ช่วยให้ลูกค้าได้รับคำแนะนำและคำแนะนำด้านแฟชั่นจาก AI ผ่านแพลตฟอร์มออนไลน์ โดยการเลือกเสื้อผ้าและเครื่องประดับที่เข้ากับรูปลักษณ์ของลูกค้า เหมาะสมกับงบประมาณ และตรงกับความชอบส่วนตัวของลูกค้า ด้วยการใช้เจเนอเรทีฟ AI งานจะสำเร็จได้ง่ายขึ้น ส่งผลให้ลูกค้ามีความพึงพอใจเพิ่มขึ้นและลดค่าใช้จ่าย
โซลูชันนี้สามารถนำไปใช้กับ Amazon Elastic Compute Cloud (EC2) อินสแตนซ์ p3.2xlarge ซึ่งมี V100 GPU หนึ่งตัวพร้อมหน่วยความจำ 16G มีการใช้เทคนิคหลายอย่างเพื่อปรับปรุงประสิทธิภาพและลดการใช้หน่วยความจำ GPU ทำให้สร้างภาพได้เร็วขึ้น ซึ่งรวมถึงการใช้ fp16 และการเปิดใช้งานหน่วยความจำอย่างมีประสิทธิภาพเพื่อลดแบนด์วิดท์ในบล็อกความสนใจ
เราเริ่มด้วยการให้ผู้ใช้อัปโหลดภาพแฟชั่น ตามด้วยการดาวน์โหลดและแยกโมเดลที่ฝึกไว้ล่วงหน้าจาก CLIPSeq รูปภาพจะถูกทำให้เป็นมาตรฐานและปรับขนาดเพื่อให้สอดคล้องกับขนาดที่จำกัด Stable Diffusion V2 รองรับความละเอียดของภาพสูงสุด 768×768 ในขณะที่ V1 รองรับสูงสุด 512×512 ดูรหัสต่อไปนี้:
from models.clipseg import CLIPDensePredT # The original image
image = download_image(img_url).resize((768, 768)) # Download pre-trained CLIPSeq model and unzip the pkg
! wget https://owncloud.gwdg.de/index.php/s/ioHbRzFx6th32hn/download -O weights.zip
! unzip -d weights -j weights.zip # Load CLIP model. Available models = ['RN50', 'RN101', 'RN50x4', # 'RN50x16', 'RN50x64', 'ViT-B/32', 'ViT-B/16', 'ViT-L/14', 'ViT-L/14@336px']
model = CLIPDensePredT(version='ViT-B/16', reduce_dim=64)
model.eval() # non-strict, because we only stored decoder weights (not CLIP weights)
model.load_state_dict(torch.load('weights/rd64-uni.pth', map_location=torch.device('cuda')), strict=False) # Image normalization and resizing
transform = transforms.Compose([ transforms.ToTensor(), transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]), transforms.Resize((768, 768)),
])
img = transform(image).unsqueeze(0)
ด้วยการใช้โมเดล CLIPSeq ที่ฝึกไว้ล่วงหน้า เราจึงสามารถแยกวัตถุเป้าหมายออกจากรูปภาพโดยใช้ข้อความแจ้ง สิ่งนี้ทำได้โดยการป้อนข้อความแจ้งลงในตัวเข้ารหัสข้อความ ซึ่งจะแปลงเป็นการฝังข้อความ จากนั้นภาพจะถูกป้อนเข้าในโปรแกรมเข้ารหัสภาพ ซึ่งจะแปลงเป็นภาพฝัง จากนั้นการฝังทั้งสองจะเชื่อมกันและส่งผ่านเลเยอร์ที่เชื่อมต่ออย่างสมบูรณ์เพื่อสร้างมาสก์การแบ่งส่วนขั้นสุดท้าย ซึ่งเน้นวัตถุเป้าหมายที่อธิบายไว้ในข้อความแจ้ง ดูรหัสต่อไปนี้:
# Text prompt
prompt = 'Get the dress only.' # predict
mask_image_filename = 'the_mask_image.png'
with torch.no_grad(): preds = model(img.repeat(4,1,1,1), prompt)[0] # save the mask image after computing the area under the standard # Gaussian probability density function and calculates the cumulative # distribution function of the normal distribution with ndtr. plt.imsave(mask_image_filename,torch.special.ndtr(preds[0][0]))
ด้วยภาพมาสก์ที่ถูกต้องจากการแบ่งส่วนความหมาย เราสามารถใช้การลงสีแทนเนื้อหาได้ การลงสีเป็นกระบวนการของการใช้แบบจำลองเชิงกำเนิดที่ผ่านการฝึกอบรมเพื่อเติมเต็มส่วนที่ขาดหายไปของภาพ ด้วยการใช้ภาพมาสก์เพื่อระบุวัตถุเป้าหมาย เราสามารถใช้เทคนิคการลงสีเพื่อแทนที่วัตถุเป้าหมายด้วยสิ่งอื่น เช่น เสื้อผ้าหรือเครื่องประดับอื่นๆ สามารถใช้รุ่น Stable Diffusion V2 เพื่อจุดประสงค์นี้ได้ เนื่องจากสามารถสร้างภาพที่มีความละเอียดสูง ภาพที่เหมือนจริงซึ่งตรงกับการกระจายของภาพต้นฉบับ
การปรับแต่งอย่างละเอียดจากโมเดลที่ผ่านการฝึกอบรมล่วงหน้าโดยใช้ DreamBooth
การปรับแต่งอย่างละเอียดเป็นกระบวนการในการเรียนรู้เชิงลึกซึ่งโมเดลที่ได้รับการฝึกอบรมล่วงหน้าจะได้รับการฝึกอบรมเพิ่มเติมเกี่ยวกับงานใหม่โดยใช้ข้อมูลป้ายชื่อจำนวนเล็กน้อย แทนที่จะฝึกฝนตั้งแต่เริ่มต้น แนวคิดคือการใช้เครือข่ายที่ได้รับการฝึกอบรมในชุดข้อมูลขนาดใหญ่สำหรับงานที่คล้ายคลึงกันแล้ว และฝึกอบรมเพิ่มเติมบนชุดข้อมูลใหม่เพื่อให้มีความเฉพาะเจาะจงมากขึ้นสำหรับงานนั้นๆ
นักออกแบบแฟชั่นยังสามารถใช้โมเดลการพ่นสี Stable Diffusion ที่ปรับแต่งอย่างละเอียดตามวัตถุเพื่อสร้างสไตล์เฉพาะ เช่น กระโปรงยาวลำลองสำหรับสุภาพสตรี ในการทำเช่นนี้ ขั้นตอนแรกคือการจัดเตรียมชุดรูปภาพตัวอย่างในโดเมนเป้าหมาย ประมาณ 1 โหล พร้อมป้ายข้อความที่เหมาะสม เช่น ต่อไปนี้ และผูกเข้ากับตัวระบุเฉพาะที่อ้างอิงการออกแบบ สไตล์ สี และเนื้อผ้า . ฉลากบนข้อความมีบทบาทสำคัญในการกำหนดผลลัพธ์ของโมเดลที่ปรับแต่งอย่างละเอียด มีหลายวิธีในการปรับปรุงการปรับแต่งให้มีประสิทธิภาพ วิศวกรรมพรอมต์ และนี่คือตัวอย่างบางส่วน
Sample text prompts to descibe some of the most common design elements of casual long skirts for ladies: Design Style: A-line, wrap, maxi, mini, and pleated skirts are some of the most popular styles for casual wear. A-line skirts are fitted at the waist and flare out at the hem, creating a flattering silhouette. Wrap skirts have a wrap closure and can be tied at the waist for a customizable fit. Maxi skirts are long and flowy, while mini skirts are short and flirty. Pleated skirts have folds that add texture and movement to the garment.
Pattern: Casual skirts can feature a variety of patterns, including stripes, florals, polka dots, and solids. These patterns can range from bold and graphic to subtle and understated.
Colors: Casual skirts come in a range of colors, including neutral shades likeblack, white, and gray, as well as brighter hues like pink, red, and blue. Some skirts may also feature multiple colors in a single garment, such asa skirt with a bold pattern that incorporates several shades.
Fabrics: Common fabrics used in casual skirts include cotton, denim, linen, and rayon. These materials offer different levels of comfort and durability, making it easy to find a skirt that suits your personal style and needs.
การใช้ภาพชุดเล็กๆ เพื่อปรับแต่ง Stable Diffusion อย่างละเอียดอาจส่งผลให้โมเดลเกินพอดี DreamBooth[5] แก้ไขปัญหานี้โดยใช้การสูญเสียการเก็บรักษาก่อนการเก็บรักษาเฉพาะระดับ เรียนรู้ที่จะผูกตัวระบุเฉพาะกับเรื่องเฉพาะนั้นในสองขั้นตอน ขั้นแรก ปรับโมเดลความละเอียดต่ำอย่างละเอียดด้วยภาพที่ป้อนเข้าคู่กับข้อความแจ้งที่มีตัวระบุเฉพาะและชื่อของคลาสที่เป็นของเรื่อง เช่น "กระโปรง" ในทางปฏิบัติ นี่หมายถึงการให้โมเดลพอดีกับภาพและภาพที่สุ่มตัวอย่างจากวิชวลก่อนหน้าของคลาสที่ไม่ได้ปรับละเอียดพร้อมกัน รูปภาพที่เก็บรักษาไว้ก่อนหน้านี้จะถูกสุ่มตัวอย่างและติดป้ายกำกับโดยใช้พรอมต์ "คำนามคลาส" ประการที่สอง จะปรับแต่งองค์ประกอบความละเอียดสูงพิเศษโดยการจับคู่ภาพความละเอียดต่ำและความละเอียดสูงจากชุดภาพอินพุต ซึ่งช่วยให้เอาต์พุตของโมเดลที่ปรับแต่งอย่างละเอียดสามารถรักษาความเที่ยงตรงของรายละเอียดเล็กๆ น้อยๆ ได้
การปรับแต่งตัวเข้ารหัสข้อความในการวาดภาพที่ได้รับการฝึกล่วงหน้าอย่างละเอียดด้วย UNet สำหรับภาพที่มีความละเอียด 512×512 ต้องใช้ VRAM ประมาณ 22GB หรือสูงกว่าสำหรับความละเอียด 768×768 ตัวอย่างที่ดีเลิศควรปรับขนาดให้ตรงกับความละเอียดของภาพที่ต้องการเพื่อหลีกเลี่ยงการลดประสิทธิภาพ ตัวเข้ารหัสข้อความให้รายละเอียดที่แม่นยำยิ่งขึ้น เช่น ใบหน้าของนางแบบ ทางเลือกหนึ่งคือการเรียกใช้บนอินสแตนซ์ AWS EC2 g5.2xlarge เดียว ซึ่งขณะนี้มีให้ใช้งานใน แปดภูมิภาค หรือใช้ Hugging Face Accelerate เพื่อเรียกใช้โค้ดที่ปรับแต่งอย่างละเอียดในการกำหนดค่าแบบกระจาย สำหรับการประหยัดหน่วยความจำเพิ่มเติม คุณสามารถเลือกความสนใจแบบแบ่งส่วนซึ่งทำการคำนวณเป็นขั้นตอนแทนที่จะทำทั้งหมดในคราวเดียวโดยแก้ไขสคริปต์การฝึกอบรมของ DreamBooth train_dreambooth_inpaint.py เพื่อเพิ่มฟังก์ชันไปป์ไลน์ enable_attention_slicing()
Accelerate เป็นไลบรารีที่ช่วยให้สามารถเรียกใช้โค้ดการปรับแต่งแบบละเอียดหนึ่งโค้ดในการกำหนดค่าแบบกระจาย เปิดตัว Hugging Face และ Amazon คอนเทนเนอร์การเรียนรู้เชิงลึกของใบหน้ากอด (DLC) เพื่อปรับขนาดงานปรับแต่งใน GPU และโหนดต่างๆ คุณสามารถกำหนดการกำหนดค่าการเปิดใช้สำหรับ Amazon SageMaker ด้วยคำสั่ง CLI เดียว
# From your aws account, install the sagemaker sdk for Accelerate
pip install "accelerate[sagemaker]" --upgrade # Configure the launch configuration for Amazon SageMaker accelerate config # List and verify Accelerate configuration
accelerate env # Make necessary modification of the training script as the following to save # output on S3, if needed
# - torch.save('/opt/ml/model`)
# + accelerator.save('/opt/ml/model')
หากต้องการเริ่มงานปรับแต่ง ให้ตรวจสอบการกำหนดค่าของ Accelerate โดยใช้ CLI และให้อาร์กิวเมนต์การฝึกอบรมที่จำเป็น จากนั้นใช้เชลล์สคริปต์ต่อไปนี้
# Instance images — Custom images that represents the specific # concept for dreambooth training. You should collect # high #quality images based on your use cases.
# Class images — Regularization images for prior-preservation # loss to prevent overfitting. You should generate these # images directly from the base pre-trained model. # You can choose to generate them on your own or generate # them on the fly when running the training script.
# # You can access train_dreambooth_inpaint.py from huggingface/diffuser export MODEL_NAME="stabilityai/stable-diffusion-2-inpainting"
export INSTANCE_DIR="/data/fashion/gowns/highres/"
export CLASS_DIR="/opt/data/fashion/generated_gowns/imgs"
export OUTPUT_DIR="/opt/model/diffuser/outputs/inpainting/" accelerate launch train_dreambooth_inpaint.py --pretrained_model_name_or_path=$MODEL_NAME --train_text_encoder --instance_data_dir=$INSTANCE_DIR --class_data_dir=$CLASS_DIR --output_dir=$OUTPUT_DIR --with_prior_preservation --prior_loss_weight=1.0 --instance_prompt="A supermodel poses in long summer travel skirt, photorealistic" --class_prompt="A supermodel poses in skirt, photorealistic" --resolution=512 --train_batch_size=1 --use_8bit_adam --gradient_checkpointing --learning_rate=2e-6 --lr_scheduler="constant" --lr_warmup_steps=0 --num_class_images=200 --max_train_steps=800
แบบจำลองการวาดภาพที่ปรับแต่งอย่างละเอียดช่วยให้สามารถสร้างภาพที่เฉพาะเจาะจงมากขึ้นสำหรับคลาสแฟชั่นที่อธิบายโดยข้อความแจ้ง เนื่องจากได้รับการปรับแต่งอย่างละเอียดด้วยชุดภาพความละเอียดสูงและข้อความแจ้ง นางแบบสามารถสร้างภาพที่เหมาะกับชั้นเรียนมากขึ้น เช่น ชุดราตรีที่เป็นทางการ สิ่งสำคัญคือต้องสังเกตว่ายิ่งคลาสมีความเฉพาะเจาะจงมากขึ้นและยิ่งใช้ข้อมูลสำหรับการปรับละเอียดมากเท่าใด ภาพที่ส่งออกจะมีความแม่นยำและสมจริงมากขึ้นเท่านั้น
%tree -d ./finetuned-stable-diffusion-v2-1-inpainting
finetuned-stable-diffusion-v2-1-inpainting
├── 512-inpainting-ema.ckpt
├── feature_extractor
├── code
│ └──inference.py
│ ├──requirements.txt
├── scheduler
├── text_encoder ├── tokenizer
├── unet
└── vae
ปรับใช้โมเดลในการวาดภาพที่ปรับแต่งอย่างละเอียดโดยใช้ SageMaker สำหรับการอนุมาน
ด้วย Amazon SageMaker คุณสามารถปรับใช้โมเดล Stable Diffusion ที่ปรับแต่งอย่างละเอียดสำหรับการอนุมานแบบเรียลไทม์ ในการอัพโหลดโมเดลไปที่ บริการ Amazon Simple Storage (S3) สำหรับการปรับใช้ จะต้องสร้างไฟล์เก็บถาวร model.tar.gz tarball ตรวจสอบให้แน่ใจว่าไฟล์เก็บถาวรรวมไฟล์ทั้งหมดโดยตรง ไม่ใช่โฟลเดอร์ที่มีไฟล์เหล่านั้น โฟลเดอร์เก็บถาวรการปรับแต่ง DreamBooth ควรปรากฏดังต่อไปนี้หลังจากกำจัดจุดตรวจสอบเป็นระยะ:
ขั้นตอนเริ่มต้นในการสร้างตัวจัดการการอนุมานเกี่ยวข้องกับการสร้างไฟล์ inference.py ไฟล์นี้ทำหน้าที่เป็นศูนย์กลางสำหรับการโหลดโมเดลและจัดการคำขอการอนุมานทั้งหมดที่เข้ามา หลังจากโหลดโมเดลแล้ว ฟังก์ชัน model_fn() จะถูกดำเนินการ เมื่อจำเป็นต้องทำการอนุมาน ฟังก์ชัน Predict_fn() จะถูกเรียกใช้ นอกจากนี้ ฟังก์ชัน decode_base64() ยังใช้เพื่อแปลงสตริง JSON ที่มีอยู่ในเพย์โหลดเป็นประเภทข้อมูลภาพ PIL
%%writefile code/inference.py
import base64
import torch
from PIL import Image
from io import BytesIO
from diffusers import EulerDiscreteScheduler, StableDiffusionInpaintPipeline def decode_base64(base64_string): decoded_string = BytesIO(base64.b64decode(base64_string)) img = Image.open(decoded_string) return img def model_fn(model_dir): # Load stable diffusion and move it to the GPU scheduler = EulerDiscreteScheduler.from_pretrained(model_dir, subfolder="scheduler") pipe = StableDiffusionInpaintPipeline.from_pretrained(model_dir, scheduler=scheduler, revision="fp16", torch_dtype=torch.float16) pipe = pipe.to("cuda") pipe.enable_xformers_memory_efficient_attention() #pipe.enable_attention_slicing() return pipe def predict_fn(data, pipe): # get prompt & parameters prompt = data.pop("inputs", data) # Require json string input. Inference to convert imge to string. input_img = data.pop("input_img", data) mask_img = data.pop("mask_img", data) # set valid HP for stable diffusion num_inference_steps = data.pop("num_inference_steps", 25) guidance_scale = data.pop("guidance_scale", 6.5) num_images_per_prompt = data.pop("num_images_per_prompt", 2) image_length = data.pop("image_length", 512) # run generation with parameters generated_images = pipe( prompt, image = decode_base64(input_img), mask_image = decode_base64(mask_img), num_inference_steps=num_inference_steps, guidance_scale=guidance_scale, num_images_per_prompt=num_images_per_prompt, height=image_length, width=image_length, #)["images"] # for Stabel Diffusion v1.x ).images # create response encoded_images = [] for image in generated_images: buffered = BytesIO() image.save(buffered, format="JPEG") encoded_images.append(base64.b64encode(buffered.getvalue()).decode()) return {"generated_images": encoded_images}
หากต้องการอัปโหลดโมเดลไปยังบัคเก็ต Amazon S3 จำเป็นต้องสร้างไฟล์เก็บถาวร model.tar.gz ก่อน สิ่งสำคัญคือต้องทราบว่าไฟล์เก็บถาวรควรประกอบด้วยไฟล์โดยตรง ไม่ใช่โฟลเดอร์ที่เก็บไฟล์เหล่านั้น ตัวอย่างเช่น ไฟล์ควรปรากฏดังนี้:
import tarfile
import os # helper to create the model.tar.gz
def compress(tar_dir=None,output_file="model.tar.gz"): parent_dir=os.getcwd() os.chdir(tar_dir) with tarfile.open(os.path.join(parent_dir, output_file), "w:gz") as tar: for item in os.listdir('.'): print(item) tar.add(item, arcname=item) os.chdir(parent_dir) compress(str(model_tar)) # After we created the model.tar.gz archive we can upload it to Amazon S3. We will # use the sagemaker SDK to upload the model to our sagemaker session bucket.
from sagemaker.s3 import S3Uploader # upload model.tar.gz to s3
s3_model_uri=S3Uploader.upload(local_path="model.tar.gz", desired_s3_uri=f"s3://{sess.default_bucket()}/finetuned-stable-diffusion-v2-1-inpainting")
หลังจากอัปโหลดที่เก็บถาวรของโมเดลแล้ว เราสามารถปรับใช้บน Amazon SageMaker โดยใช้ HuggingfaceModel สำหรับการอนุมานแบบเรียลไทม์ คุณสามารถโฮสต์ปลายทางได้โดยใช้อินสแตนซ์ g4dn.xlarge ซึ่งติดตั้ง GPU NVIDIA Tesla T4 หนึ่งตัวพร้อม VRAM ขนาด 16GB สามารถเปิดใช้งานการปรับขนาดอัตโนมัติเพื่อรองรับความต้องการการรับส่งข้อมูลที่แตกต่างกัน สำหรับข้อมูลเกี่ยวกับการรวมการปรับขนาดอัตโนมัติในจุดสิ้นสุดของคุณ โปรดดูที่ กำลังดำเนินการผลิต: Hugging Face Transformers ที่ปรับขนาดอัตโนมัติด้วย Amazon SageMaker.
from sagemaker.huggingface.model import HuggingFaceModel # create Hugging Face Model Class
huggingface_model = HuggingFaceModel( model_data=s3_model_uri, # path to your model and script role=role, # iam role with permissions to create an Endpoint transformers_version="4.17", # transformers version used pytorch_version="1.10", # pytorch version used py_version='py38', # python version used
) # deploy the endpoint endpoint
predictor = huggingface_model.deploy( initial_instance_count=1, instance_type="ml.g4dn.xlarge" )
วิธีการ Huggingface_model.deploy() จะส่งคืนวัตถุ HuggingFacePredictor ที่สามารถใช้เพื่อร้องขอการอนุมาน จุดสิ้นสุดต้องการ JSON พร้อมคีย์อินพุต ซึ่งแสดงถึงอินพุตพร้อมท์สำหรับโมเดลเพื่อสร้างอิมเมจ คุณยังสามารถควบคุมการสร้างด้วยพารามิเตอร์ เช่น num_inference_steps, Guidance_scale และ “num_images_per_prompt” ฟังก์ชัน Predictor.predict() ส่งคืน JSON ด้วยคีย์ “generated_images” ซึ่งเก็บรูปภาพที่สร้างขึ้นสี่รูปเป็นสตริงที่เข้ารหัส base64 เราได้เพิ่มฟังก์ชันตัวช่วยสองฟังก์ชัน ได้แก่ decode_base64_to_image และ display_images เพื่อถอดรหัสการตอบสนองและแสดงรูปภาพตามลำดับ ตัวแรกจะถอดรหัสสตริงที่เข้ารหัส base64 และส่งคืนวัตถุ PIL.Image และตัวหลังจะแสดงรายการของวัตถุ PIL.Image ดูรหัสต่อไปนี้:
import PIL
from io import BytesIO
from IPython.display import display
import base64
import matplotlib.pyplot as plt
import json # Encoder to convert an image to json string
def encode_base64(file_name): with open(file_name, "rb") as image: image_string = base64.b64encode(bytearray(image.read())).decode() return image_string # Decode to to convert a json str to an image def decode_base64_image(base64_string): decoded_string = BytesIO(base64.b64decode(base64_string)) img = PIL.Image.open(decoded_string) return img # display PIL images as grid
def display_images(images=None,columns=3, width=100, height=100): plt.figure(figsize=(width, height)) for i, image in enumerate(images): plt.subplot(int(len(images) / columns + 1), columns, i + 1) plt.axis('off') plt.imshow(image) # Display images in a row/col grid
def image_grid(imgs, rows, cols): assert len(imgs) == rows*cols w, h = imgs[0].size grid = PIL.Image.new('RGB', size=(cols*w, rows*h)) grid_w, grid_h = grid.size for i, img in enumerate(imgs): grid.paste(img, box=(i%cols*w, i//cols*h)) return grid
ก้าวต่อไปกับงานทาสี มีการประเมินว่าจะใช้เวลาประมาณ 15 วินาทีในการสร้างภาพสามภาพ โดยพิจารณาจากภาพอินพุตและมาสก์ที่สร้างโดยใช้ CLIPSeg พร้อมข้อความแจ้งที่กล่าวถึงก่อนหน้านี้ ดูรหัสต่อไปนี้:
num_images_per_prompt = 3
prompt = "A female super-model poses in a casual long vacation skirt, with full body length, bright colors, photorealistic, high quality, highly detailed, elegant, sharp focus" # Convert image to string
input_image_filename = "./imgs/skirt-model-2.jpg"
encoded_input_image = encode_base64(input_image_filename)
encoded_mask_image = encode_base64("./imgs/skirt-model-2-mask.jpg") # Set in-painint parameters
guidance_scale = 6.7
num_inference_steps = 45 # run prediction
response = predictor.predict(data={ "inputs": prompt, "input_img": encoded_input_image, "mask_img": encoded_mask_image, "num_images_per_prompt" : num_images_per_prompt, "image_length": 768 }
) # decode images
decoded_images = [decode_base64_image(image) for image in response["generated_images"]] # visualize generation
display_images(decoded_images, columns=num_images_per_prompt, width=100, height=100) # insert initial image in the list so we can compare side by side
image = PIL.Image.open(input_image_filename).convert("RGB")
decoded_images.insert(0, image) # Display inpainting images in grid
image_grid(decoded_images, 1, num_images_per_prompt + 1)
ภาพที่วาดสามารถแสดงพร้อมกับภาพต้นฉบับเพื่อเปรียบเทียบได้ นอกจากนี้ กระบวนการลงสีสามารถถูกจำกัดได้โดยใช้พารามิเตอร์ต่างๆ เช่น Guidance_scale ซึ่งควบคุมความแรงของภาพแนะนำในระหว่างกระบวนการลงสี สิ่งนี้ทำให้ผู้ใช้สามารถปรับภาพที่ส่งออกและบรรลุผลลัพธ์ที่ต้องการ
Amazon SageMaker เริ่มต้นอย่างรวดเร็ว นำเสนอเทมเพลตการแพร่กระจายที่เสถียรสำหรับโมเดลต่างๆ รวมถึงข้อความเป็นรูปภาพและการลดขนาด สำหรับข้อมูลเพิ่มเติม โปรดดูที่ ตอนนี้ SageMaker JumpStart มีโมเดล Stable Diffusion และ Bloom. เทมเพลต Jumpstart เพิ่มเติมจะพร้อมใช้งานในอนาคตอันใกล้นี้
ข้อ จำกัด
แม้ว่า CLIPSeg มักจะทำงานได้ดีในการจดจำวัตถุทั่วไป แต่ก็มีปัญหากับงานที่เป็นนามธรรมหรือเป็นระบบ เช่น การนับจำนวนวัตถุในภาพ และงานที่ซับซ้อนมากขึ้น เช่น การทำนายว่าวัตถุที่อยู่ใกล้ที่สุด เช่น กระเป๋าถือ อยู่ใกล้แค่ไหนในภาพถ่าย CLIPSeq แบบ Zero-shot ยังประสบปัญหาเมื่อเปรียบเทียบกับรุ่นเฉพาะงานในการจัดประเภทที่ละเอียดมาก เช่น การบอกความแตกต่างระหว่างการออกแบบที่คลุมเครือสองแบบ ความแตกต่างของชุด หรือการจัดประเภทสไตล์ CLIPSeq ยังคงมีภาพรวมที่ไม่ดีสำหรับรูปภาพที่ไม่ครอบคลุมในชุดข้อมูลก่อนการฝึกอบรม ประการสุดท้าย มีการสังเกตพบว่าตัวแยกประเภทแบบ Zero-shot ของ CLIP สามารถไวต่อการใช้ถ้อยคำหรือการใช้ถ้อยคำ และบางครั้งต้องมีการลองผิดลองถูก "วิศวกรรมพร้อมรับคำ" เพื่อให้ทำงานได้ดี การเปลี่ยนไปใช้โมเดลการแบ่งเซ็กเมนต์เชิงความหมายที่แตกต่างกันสำหรับแกนหลักของ CLIPSeq เช่น พ.ศซึ่งมี mIOU 62.8% ในชุดข้อมูล ADE20K อาจปรับปรุงผลลัพธ์ได้
การออกแบบแฟชั่นที่สร้างขึ้นโดยใช้การแพร่กระจายที่เสถียรพบว่าถูกจำกัดไว้เฉพาะชิ้นส่วนของเสื้อผ้าที่อย่างน้อยก็คาดการณ์ได้ในบริบทที่กว้างขึ้นของโมเดลแฟชั่น และสอดคล้องกับการฝังระดับสูงที่คุณคาดหวังได้อย่างสมเหตุสมผลว่าจะพบใน ชุดข้อมูลไฮเปอร์สเกลที่ใช้ระหว่างการฝึกแบบจำลองที่ผ่านการฝึกอบรมล่วงหน้า ขีดจำกัดที่แท้จริงของ AI เชิงกำเนิดคือ ในที่สุด โมเดลจะสร้างผลลัพธ์ในจินตนาการทั้งหมดและผลลัพธ์ที่แท้จริงน้อยลง ดังนั้นการออกแบบแฟชั่นที่เกิดจาก AI อาจไม่หลากหลายหรือมีเอกลักษณ์เท่ากับการออกแบบโดยนักออกแบบที่เป็นมนุษย์
สรุป
Generative AI เปิดโอกาสให้ภาคส่วนแฟชั่นในการเปลี่ยนแปลงแนวทางปฏิบัติผ่านประสบการณ์ผู้ใช้ที่ดีขึ้นและกลยุทธ์ทางธุรกิจที่ประหยัดต้นทุน ในโพสต์นี้ เราจะแสดงวิธีควบคุม AI กำเนิด เพื่อให้นักออกแบบแฟชั่นและผู้บริโภคสามารถสร้างสไตล์แฟชั่นที่เป็นส่วนตัวได้โดยใช้การสร้างแบบจำลองเสมือนจริง ด้วยความช่วยเหลือของเทมเพลต Amazon SageMaker Jumpstart ที่มีอยู่และเทมเพลตที่จะตามมา ผู้ใช้สามารถใช้เทคนิคขั้นสูงเหล่านี้ได้อย่างรวดเร็วโดยไม่ต้องใช้ความเชี่ยวชาญด้านเทคนิคเชิงลึก ทั้งหมดนี้ยังคงความอเนกประสงค์และลดค่าใช้จ่าย
เทคโนโลยีที่เป็นนวัตกรรมนี้นำเสนอโอกาสใหม่สำหรับบริษัทและผู้เชี่ยวชาญที่เกี่ยวข้องกับการสร้างเนื้อหาในอุตสาหกรรมต่างๆ AI เจเนอเรทีฟให้ความสามารถที่เพียงพอสำหรับการปรับปรุงและสร้างเนื้อหา ลองใช้ส่วนเพิ่มเติมล่าสุดของเทมเพลต Jumpstart ในของคุณ SageMaker สตูดิโอเช่น การปรับแต่งข้อความเป็นรูปภาพแบบละเอียดและการเพิ่มสเกล
เราขอขอบคุณ Li Zhang, Karl Albertsen, Kristine Pearce, Nikhil Velpanur, Aaron Sengstacken, James Wu และ Neelam Koshiya สำหรับการสนับสนุนและข้อมูลอันมีค่าที่ช่วยปรับปรุงงานนี้
เกี่ยวกับผู้เขียน
อัลเฟรด เชน เป็นผู้เชี่ยวชาญด้าน AI/ML อาวุโสที่ AWS เขาทำงานในซิลิคอนแวลลีย์ โดยดำรงตำแหน่งด้านเทคนิคและการจัดการในภาคส่วนต่าง ๆ รวมถึงการดูแลสุขภาพ การเงิน และเทคโนโลยีขั้นสูง เขาเป็นนักวิจัยประยุกต์ AI/ML โดยเฉพาะ โดยมุ่งเน้นที่ CV, NLP และการทำงานหลายรูปแบบ ผลงานของเขาได้รับการจัดแสดงในสื่อสิ่งพิมพ์ เช่น EMNLP, ICLR และ Public Health
ดร.วิเวก มะดัน เป็นนักวิทยาศาสตร์ประยุกต์กับทีม Amazon SageMaker JumpStart เขาได้รับปริญญาเอกจากมหาวิทยาลัยอิลลินอยส์ที่ Urbana-Champaign และเป็นนักวิจัยหลังปริญญาเอกที่ Georgia Tech เขาเป็นนักวิจัยที่กระตือรือร้นในด้านแมชชีนเลิร์นนิงและการออกแบบอัลกอริทึม และได้เผยแพร่เอกสารในการประชุม EMNLP, ICLR, COLT, FOCS และ SODA
- เนื้อหาที่ขับเคลื่อนด้วย SEO และการเผยแพร่ประชาสัมพันธ์ รับการขยายวันนี้
- เพลโตบล็อคเชน Web3 Metaverse ข่าวกรอง ขยายความรู้. เข้าถึงได้ที่นี่.
- ที่มา: https://aws.amazon.com/blogs/machine-learning/virtual-fashion-styling-with-generative-ai-using-amazon-sagemaker/
- 1
- 10
- 100
- 7
- a
- แอรอน
- สามารถ
- เกี่ยวกับเรา
- บทคัดย่อ
- เร่งความเร็ว
- คันเร่ง
- เข้า
- อุปกรณ์
- คล่องแคล่ว
- ลงชื่อเข้าใช้
- ถูกต้อง
- บรรลุ
- ข้าม
- คล่องแคล่ว
- ปรับ
- ที่เพิ่ม
- เพิ่มเติม
- นอกจากนี้
- เพิ่มเติม
- ที่อยู่
- การนำมาใช้
- สูง
- คำแนะนำ
- หลังจาก
- AI
- AI / ML
- ขั้นตอนวิธี
- อัลกอริทึม
- ทั้งหมด
- การอนุญาต
- ช่วยให้
- แล้ว
- อเมซอน
- อเมซอน SageMaker
- Amazon SageMaker JumpStart
- จำนวน
- และ
- เครื่องแต่งกาย
- ปรากฏ
- การใช้งาน
- ประยุกต์
- ใช้
- ประมาณ
- สถาปัตยกรรม
- เอกสารเก่า
- AREA
- ข้อโต้แย้ง
- เทียม
- ปัญญาประดิษฐ์
- เอเอสเอ
- ความช่วยเหลือ
- ความสนใจ
- เสียง
- จริง
- ใช้ได้
- AWS
- กระดูกสันหลัง
- แบนด์วิดธ์
- ธนาคาร
- ฐาน
- ตาม
- เพราะ
- เริ่ม
- เป็นประโยชน์
- ประโยชน์
- ดีกว่า
- ระหว่าง
- ผูก
- ผูกพัน
- ปิดกั้น
- บล็อก
- บานสะพรั่ง
- สีน้ำเงิน
- ภูมิใจ
- ร่างกาย
- กล้า
- ในกล่องสี่เหลี่ยม
- สดใส
- สว่าง
- งบ
- ธุรกิจ
- การประยุกต์ทางธุรกิจ
- คำนวณ
- ที่เรียกว่า
- ความสามารถในการ
- สามารถ
- กรณี
- ไม่เป็นทางการ
- ส่วนกลาง
- ความท้าทาย
- โอกาส
- เปลี่ยนแปลง
- Choose
- ชั้น
- การจัดหมวดหมู่
- ปิดหน้านี้
- การปิด
- เสื้อผ้า
- เมฆ
- รหัส
- รวบรวม
- สี
- คอลัมน์
- อย่างไร
- ความสะดวกสบาย
- ร่วมกัน
- บริษัท
- เปรียบเทียบ
- เมื่อเทียบกับ
- การเปรียบเทียบ
- ส่วนประกอบ
- ซับซ้อน
- ส่วนประกอบ
- การคำนวณ
- คำนวณ
- การคำนวณ
- แนวคิด
- องค์ประกอบ
- งานที่เชื่อมต่อ
- คงที่
- ผู้บริโภค
- ภาชนะบรรจุ
- มี
- เนื้อหา
- การสร้างเนื้อหา
- สิ่งแวดล้อม
- ต่อ
- ควบคุม
- การควบคุม
- แปลง
- ตรงกัน
- ราคา
- ได้
- ปกคลุม
- สร้าง
- ที่สร้างขึ้น
- การสร้าง
- การสร้าง
- วิกฤติ
- สำคัญมาก
- ขณะนี้
- ประเพณี
- ลูกค้า
- ความพึงพอใจของลูกค้า
- ลูกค้า
- ปรับแต่งได้
- การปรับแต่ง
- ข้อมูล
- ลดลง
- ทุ่มเท
- ลึก
- การเรียนรู้ลึก ๆ
- ความต้องการ
- กางเกงยีนส์
- ปรับใช้
- นำไปใช้
- การใช้งาน
- บรรยาย
- อธิบาย
- ออกแบบ
- ได้รับการออกแบบ
- นักออกแบบ
- การออกแบบ
- ที่ต้องการ
- รายละเอียด
- รายละเอียด
- การกำหนด
- ความแตกต่าง
- ต่าง
- การจัดจำหน่าย
- โดยตรง
- กล่าวถึง
- แสดง
- แสดง
- กระจาย
- การกระจาย
- หลาย
- โดเมน
- ดาวน์โหลด
- หลายสิบ
- ความทนทาน
- ในระหว่าง
- E-commerce
- อย่างง่ายดาย
- มีประสิทธิภาพ
- ที่มีประสิทธิภาพ
- องค์ประกอบ
- การกำจัด
- โอบกอด
- ทำให้สามารถ
- ช่วยให้
- การเปิดใช้งาน
- ครอบคลุม
- ปลายทาง
- วิศวกร
- การเสริมสร้าง
- ทำให้มั่นใจ
- ความบันเทิง
- พร้อม
- ความผิดพลาด
- ประมาณ
- ตอนเย็น
- ในที่สุด
- คาย
- ตัวอย่าง
- ตัวอย่าง
- ที่มีอยู่
- คาดหวัง
- รายจ่าย
- แพง
- ประสบการณ์
- ความชำนาญ
- ส่งออก
- สารสกัด
- ผ้า
- ผ้า
- ใบหน้า
- ใบหน้า
- แฟชั่น
- เร็วขึ้น
- ลักษณะ
- หญิง
- สองสาม
- ความจงรักภักดี
- สนาม
- เนื้อไม่มีมัน
- ไฟล์
- ใส่
- สุดท้าย
- ในที่สุด
- เงินทุน
- หา
- ปลาย
- ชื่อจริง
- พอดี
- เปลวไฟ
- มีความยืดหยุ่น
- ไหล
- โฟกัส
- ตาม
- ดังต่อไปนี้
- ดังต่อไปนี้
- เป็นทางการ
- อดีต
- ข้างหน้า
- พบ
- มัก
- ราคาเริ่มต้นที่
- เต็ม
- อย่างเต็มที่
- ฟังก์ชัน
- ฟังก์ชั่น
- ต่อไป
- นอกจากนี้
- อนาคต
- เสื้อผ้า
- สร้าง
- สร้าง
- รุ่น
- กำเนิด
- กำเนิด AI
- จอร์เจีย
- ได้รับ
- กำหนด
- GPU
- GPUs
- กราฟฟิค
- สีเทา
- มากขึ้น
- อย่างมาก
- ตะแกรง
- จัดการ
- การจัดการ
- เทียม
- มี
- สุขภาพ
- การดูแลสุขภาพ
- ความสูง
- ช่วย
- โปรดคลิกที่นี่เพื่ออ่านรายละเอียดเพิ่มเติม
- จุดสูง
- ระดับสูง
- ความละเอียดสูง
- สูงกว่า
- ไฮไลท์
- อย่างสูง
- โฮลดิ้ง
- ถือ
- เจ้าภาพ
- สรุป ความน่าเชื่อถือของ Olymp Trade?
- ทำอย่างไร
- อย่างไรก็ตาม
- HTML
- HTTPS
- Hub
- กอดใบหน้า
- เป็นมนุษย์
- ความคิด
- ระบุ
- แยกแยะ
- อิลลินอยส์
- ภาพ
- ภาพ
- สมมุติขึ้น
- การดำเนินงาน
- นำเข้า
- สำคัญ
- ปรับปรุง
- การปรับปรุง
- in
- ลึกซึ้ง
- ประกอบด้วย
- รวมถึง
- รวมทั้ง
- ขาเข้า
- ผสมผสาน
- เพิ่มขึ้น
- อุตสาหกรรม
- อุตสาหกรรม
- ข้อมูล
- แรกเริ่ม
- นวัตกรรม
- อินพุต
- ติดตั้ง
- ตัวอย่าง
- แทน
- Intelligence
- แนะนำ
- ร่วมมือ
- IT
- รายการ
- การสัมภาษณ์
- JSON
- คีย์
- ฉลาก
- ป้ายกำกับ
- ภาษา
- ใหญ่
- เปิดตัว
- ชั้น
- ชั้นนำ
- เรียนรู้
- ได้เรียนรู้
- การเรียนรู้
- ความยาว
- ระดับ
- Li
- ห้องสมุด
- LIMIT
- ถูก จำกัด
- รายการ
- โหลด
- โหลด
- นาน
- ปิด
- ลด
- ร่ำรวย
- เครื่อง
- เรียนรู้เครื่อง
- หลัก
- เก็บรักษา
- การบำรุงรักษา
- ทำ
- การทำ
- การบริหารจัดการ
- ผู้ผลิตยา
- การทำแผนที่
- ตลาด
- การตลาด
- หน้ากาก
- มาสก์
- การจับคู่
- วัสดุ
- matplotlib
- วิธี
- ภาพบรรยากาศ
- หน่วยความจำ
- วิธี
- วิธีการ
- หายไป
- ML
- แบบ
- โมเดล
- ข้อมูลเพิ่มเติม
- มากที่สุด
- ย้าย
- การเคลื่อนไหว
- หลาย
- ชื่อ
- โดยธรรมชาติ
- ใกล้
- จำเป็น
- จำเป็นต้อง
- ต้อง
- ความต้องการ
- เครือข่าย
- เป็นกลาง
- ใหม่
- NLP
- โหนด
- ปกติ
- นวนิยาย
- จำนวน
- Nvidia
- วัตถุ
- วัตถุ
- อุปสรรค
- เสนอ
- การเสนอ
- เสนอ
- ONE
- ไม่ซ้ำใคร
- ออนไลน์
- โอกาส
- การปรับให้เหมาะสม
- ตัวเลือกเสริม (Option)
- ใบสั่ง
- เป็นต้นฉบับ
- OS
- ของตนเอง
- จับคู่
- การจับคู่
- เอกสาร
- พารามิเตอร์
- ในสิ่งที่สนใจ
- ส่วน
- ผ่าน
- เส้นทาง
- แบบแผน
- รูปแบบ
- รูปแบบไฟล์ PDF
- ดำเนินการ
- การปฏิบัติ
- ดำเนินการ
- สิทธิ์
- ส่วนบุคคล
- ส่วนบุคคล
- ปรับแต่ง
- ส่วนบุคคล
- ภาพเสมือนจริง
- ภาพ
- ท่อ
- ท่อ
- เวที
- เพลโต
- เพลโตดาต้าอินเทลลิเจนซ์
- เพลโตดาต้า
- กรุณา
- น่าสงสาร
- ยอดนิยม
- โพสท่า
- ตำแหน่ง
- โพสต์
- ที่มีศักยภาพ
- ที่อาจเกิดขึ้น
- ประยุกต์
- การปฏิบัติ
- การปฏิบัติ
- คาดการณ์
- ทำนาย
- คำทำนาย
- Predictor
- การตั้งค่า
- ที่ต้องการ
- นำเสนอ
- ป้องกัน
- ก่อนหน้านี้
- ก่อน
- กระบวนการ
- ก่อ
- การผลิต
- ผลิตภัณฑ์
- มืออาชีพ
- เหมาะสม
- ให้
- ให้
- สาธารณะ
- สาธารณสุข
- สิ่งพิมพ์
- สาธารณชน
- การตีพิมพ์
- หมดจด
- วัตถุประสงค์
- วัตถุประสงค์
- หลาม
- ไฟฉาย
- คุณภาพ
- อย่างรวดเร็ว
- พิสัย
- จริง
- เรียลไทม์
- เหมือนจริง
- รับ
- เมื่อเร็ว ๆ นี้
- แนะนำ
- สีแดง
- ลด
- ลดลง
- การอ้างอิง
- หมายถึง
- ความสัมพันธ์กัน
- รายงาน
- แสดงให้เห็นถึง
- ขอ
- การร้องขอ
- ต้องการ
- ต้อง
- นักวิจัย
- ความละเอียด
- คำตอบ
- ผล
- ส่งผลให้
- ผลสอบ
- ค้าปลีก
- กลับ
- รับคืน
- RGB
- บทบาท
- ลวก
- วิ่ง
- วิ่ง
- sagemaker
- ขาย
- ความพอใจ
- ลด
- เงินออม
- ขนาด
- นักวิทยาศาสตร์
- SDK
- ที่สอง
- วินาที
- ภาค
- ภาค
- การแบ่งส่วน
- กลุ่ม
- การเลือก
- ระดับอาวุโส
- มีความละเอียดอ่อน
- ให้บริการอาหาร
- บริการ
- เซสชั่น
- ชุด
- หลาย
- คม
- เปลือก
- สั้น
- น่า
- แสดง
- ด้าน
- ซิลิคอน
- หุบเขาซิลิคอน
- คล้ายคลึงกัน
- ง่าย
- ง่ายดาย
- พร้อมกัน
- เดียว
- ขนาด
- เล็ก
- So
- สังคม
- โซเชียลมีเดีย
- ทางออก
- บาง
- บางสิ่งบางอย่าง
- ช่องว่าง
- พิเศษ
- ผู้เชี่ยวชาญ
- เฉพาะ
- โดยเฉพาะ
- ที่ระบุไว้
- มั่นคง
- มาตรฐาน
- สถานะ
- ขั้นตอน
- ขั้นตอน
- ยังคง
- การเก็บรักษา
- เก็บไว้
- กลยุทธ์
- ความแข็งแรง
- ลายเส้น
- การต่อสู้
- สไตล์
- หรือ
- ความสำเร็จ
- อย่างเช่น
- ฤดูร้อน
- Supermodel
- การดูแล
- รองรับ
- ปรับปรุง
- เอา
- ใช้เวลา
- เป้า
- งาน
- งาน
- ทีม
- เทคโนโลยี
- วิชาการ
- เทคนิค
- เทคโนโลยี
- แม่แบบ
- เงื่อนไขการใช้บริการ
- เทสลา
- พื้นที่
- พื้นที่
- โลก
- ของพวกเขา
- ดังนั้น
- สาม
- ตลอด
- ผูก
- ไปยัง
- เครื่องมือ
- ไฟฉาย
- โดยสิ้นเชิง
- แบบดั้งเดิม
- การจราจร
- รถไฟ
- ผ่านการฝึกอบรม
- การฝึกอบรม
- โอน
- แปลง
- หม้อแปลง
- การเดินทาง
- แนวโน้ม
- การทดลอง
- ล้านล้าน
- ภายใต้
- เป็นเอกลักษณ์
- มหาวิทยาลัย
- อัปโหลด
- การใช้
- ใช้
- ผู้ใช้งาน
- ผู้ใช้
- มักจะ
- นำไปใช้
- ใช้
- ใช้ประโยชน์
- การใช้ประโยชน์
- วันหยุด
- หุบเขา
- มีคุณค่า
- ความคุ้มค่า
- ความหลากหลาย
- ต่างๆ
- กว้างใหญ่
- ตรวจสอบ
- รุ่น
- วีดีโอ
- เสมือน
- W
- วิธี
- ที่
- ในขณะที่
- ขาว
- WHO
- กว้าง
- ช่วงกว้าง
- กว้าง
- ความกว้าง
- จะ
- ภายใน
- ไม่มี
- การใช้ถ้อยคำ
- งาน
- ทำงาน
- โลก
- ธนาคารโลก
- จะ
- ห่อ
- wu
- X
- คุณ
- ของคุณ
- ลมทะเล
- รหัสไปรษณีย์