ในยุคของข้อมูลขนาดใหญ่และ AI บริษัทต่างๆ ต่างแสวงหาวิธีการใช้เทคโนโลยีเหล่านี้อย่างต่อเนื่องเพื่อสร้างความได้เปรียบทางการแข่งขัน หนึ่งในประเด็นที่ร้อนแรงที่สุดใน AI ในขณะนี้คือ AI เชิงสร้างสรรค์ และด้วยเหตุผลที่ดี Generative AI นำเสนอโซลูชันอันทรงพลังที่ก้าวข้ามขอบเขตของสิ่งที่เป็นไปได้ในแง่ของความคิดสร้างสรรค์และนวัตกรรม หัวใจสำคัญของโซลูชันที่ล้ำสมัยเหล่านี้อยู่ที่โมเดลพื้นฐาน (FM) ซึ่งเป็นโมเดลการเรียนรู้ของเครื่องขั้นสูงที่ได้รับการฝึกอบรมล่วงหน้ากับข้อมูลจำนวนมหาศาล โมเดลพื้นฐานหลายตัวได้แสดงให้เห็นถึงความสามารถที่โดดเด่นในการทำความเข้าใจและสร้างข้อความที่เหมือนมนุษย์ ทำให้กลายเป็นเครื่องมืออันทรงคุณค่าสำหรับการใช้งานที่หลากหลาย ตั้งแต่การสร้างเนื้อหาไปจนถึงระบบอัตโนมัติในการสนับสนุนลูกค้า
อย่างไรก็ตาม โมเดลเหล่านี้ไม่ได้ปราศจากความท้าทาย มีขนาดใหญ่เป็นพิเศษและต้องการข้อมูลและทรัพยากรการคำนวณจำนวนมากเพื่อฝึกอบรม นอกจากนี้ การเพิ่มประสิทธิภาพกระบวนการฝึกอบรมและการสอบเทียบพารามิเตอร์อาจเป็นกระบวนการที่ซับซ้อนและทำซ้ำได้ ซึ่งต้องใช้ความเชี่ยวชาญและการทดลองอย่างรอบคอบ สิ่งเหล่านี้อาจเป็นอุปสรรคสำหรับหลายองค์กรที่ต้องการสร้างโมเดลพื้นฐานของตนเอง เพื่อเอาชนะความท้าทายนี้ ลูกค้าจำนวนมากกำลังพิจารณาที่จะปรับแต่งโมเดลฐานรากที่มีอยู่ นี่เป็นเทคนิคยอดนิยมในการปรับพารามิเตอร์โมเดลส่วนเล็กๆ สำหรับแอปพลิเคชันเฉพาะ ในขณะที่ยังคงรักษาความรู้ที่เข้ารหัสไว้ในโมเดลแล้ว ช่วยให้องค์กรต่างๆ ใช้ประสิทธิภาพของโมเดลเหล่านี้ ในขณะเดียวกันก็ลดทรัพยากรที่จำเป็นในการปรับแต่งให้เข้ากับโดเมนหรืองานเฉพาะ
มีสองวิธีหลักในการปรับแต่งโมเดลพื้นฐานอย่างละเอียด: การปรับแต่งแบบดั้งเดิม และการปรับแต่งพารามิเตอร์ที่มีประสิทธิภาพ การปรับแต่งแบบละเอียดแบบดั้งเดิมเกี่ยวข้องกับการอัพเดตพารามิเตอร์ทั้งหมดของแบบจำลองที่ได้รับการฝึกอบรมล่วงหน้าสำหรับงานดาวน์สตรีมเฉพาะ ในทางกลับกัน การปรับอย่างละเอียดอย่างมีประสิทธิภาพด้วยพารามิเตอร์ประกอบด้วยเทคนิคที่หลากหลายที่ช่วยให้สามารถปรับแต่งโมเดลได้โดยไม่ต้องอัปเดตพารามิเตอร์โมเดลดั้งเดิมทั้งหมด เทคนิคหนึ่งเรียกว่า Low-rank Adaptation (LoRA) โดยเกี่ยวข้องกับการเพิ่มโมดูลขนาดเล็กเฉพาะงานให้กับโมเดลที่ได้รับการฝึกอบรมล่วงหน้า และฝึกอบรมโมดูลเหล่านั้นโดยยังคงรักษาพารามิเตอร์ที่เหลือไว้คงที่ดังที่แสดงในรูปภาพต่อไปนี้
ที่มา: AI เจนเนอเรชั่นบน AWS (O'Reilly, 2023)
LoRA ได้รับความนิยมเมื่อเร็วๆ นี้ด้วยเหตุผลหลายประการ ให้การฝึกอบรมที่รวดเร็วขึ้น ความต้องการหน่วยความจำลดลง และความสามารถในการนำโมเดลที่ได้รับการฝึกอบรมมาล่วงหน้ากลับมาใช้ใหม่สำหรับงานดาวน์สตรีมหลายๆ งาน ที่สำคัญกว่านั้นคือรุ่นพื้นฐานและอะแดปเตอร์สามารถจัดเก็บแยกกันและรวมเข้าด้วยกันได้ตลอดเวลา ทำให้ง่ายต่อการจัดเก็บ แจกจ่าย และแบ่งปันเวอร์ชันที่ได้รับการปรับแต่งอย่างละเอียด อย่างไรก็ตาม สิ่งนี้ทำให้เกิดความท้าทายใหม่: วิธีจัดการโมเดลที่ได้รับการปรับแต่งใหม่เหล่านี้อย่างเหมาะสม คุณควรรวมรุ่นพื้นฐานและอะแดปเตอร์หรือแยกไว้ต่างหาก? ในโพสต์นี้ เราจะอธิบายแนวทางปฏิบัติที่ดีที่สุดสำหรับการจัดการโมเดลที่ได้รับการปรับแต่ง LoRA อเมซอน SageMaker เพื่อตอบคำถามที่เกิดขึ้นนี้
การทำงานร่วมกับ FM บน SageMaker Model Registry
ในโพสต์นี้ เราจะอธิบายตัวอย่างตั้งแต่ต้นจนจบของการปรับแต่ง Llama2 large language model (LLM) อย่างละเอียดโดยใช้วิธี QLoRA QLoRA รวมข้อดีของการปรับพารามิเตอร์อย่างมีประสิทธิภาพเข้ากับการหาปริมาณ 4 บิต/8 บิต เพื่อลดทรัพยากรที่จำเป็นในการปรับแต่ง FM อย่างละเอียดให้เหมาะกับงานหรือกรณีการใช้งานเฉพาะ สำหรับสิ่งนี้ เราจะใช้โมเดล Llama7 พารามิเตอร์ 2 พันล้านที่ได้รับการฝึกอบรมล่วงหน้า และปรับแต่งบนชุดข้อมูล databricks-dolly-15k LLM เช่น Llama2 มีพารามิเตอร์นับพันล้านและได้รับการฝึกอบรมล่วงหน้ากับชุดข้อมูลข้อความขนาดใหญ่ การปรับแต่งอย่างละเอียดจะปรับ LLM ให้เป็นงานดาวน์สตรีมโดยใช้ชุดข้อมูลที่เล็กลง อย่างไรก็ตาม การปรับแต่งโมเดลขนาดใหญ่อย่างละเอียดนั้นมีราคาแพงในการคำนวณ นี่คือเหตุผลที่เราจะใช้วิธี QLoRA เพื่อหาปริมาณน้ำหนักระหว่างการปรับแต่งอย่างละเอียดเพื่อลดต้นทุนการคำนวณนี้
ในตัวอย่างของเรา คุณจะพบสมุดบันทึกสองเล่ม (llm-finetune-combined-with-registry.ipynb
และ llm-finetune-separate-with-registry.ipynb
). แต่ละโมเดลทำงานด้วยวิธีที่แตกต่างกันในการจัดการโมเดลที่ได้รับการปรับแต่ง LoRA ดังแสดงในแผนภาพต่อไปนี้:
- อันดับแรก เราจะดาวน์โหลดโมเดล Llama2 ที่ได้รับการฝึกอบรมล่วงหน้าซึ่งมีพารามิเตอร์ 7 พันล้านพารามิเตอร์โดยใช้ SageMaker Studio Notebooks LLM เช่น Llama2 ได้แสดงให้เห็นถึงประสิทธิภาพที่ล้ำสมัยในงานประมวลผลภาษาธรรมชาติ (NLP) เมื่อปรับแต่งข้อมูลเฉพาะโดเมนอย่างละเอียด
- ต่อไป เราจะปรับแต่ง Llama2 บนชุดข้อมูล databricks-dolly-15k โดยใช้วิธี QLoRA QLoRA ช่วยลดต้นทุนการคำนวณในการปรับแต่งแบบละเอียดด้วยการหาปริมาณน้ำหนักโมเดล
- ในระหว่างการปรับแต่ง เราได้รวม SageMaker Experiments Plus เข้ากับ Transformers API เพื่อบันทึกการวัดโดยอัตโนมัติ เช่น การไล่ระดับสี การสูญเสีย ฯลฯ
- จากนั้นเราจะกำหนดเวอร์ชันโมเดล Llama2 ที่ได้รับการปรับแต่งอย่างละเอียดใน SageMaker Model Registry โดยใช้สองวิธี:
- จัดเก็บโมเดลแบบเต็ม
- การจัดเก็บอะแดปเตอร์และรุ่นฐานแยกกัน
- สุดท้ายนี้ เราโฮสต์โมเดล Llama2 ที่ได้รับการปรับแต่งอย่างละเอียดโดยใช้ Deep Java Library (DJL) ที่ให้บริการบนตำแหน่งข้อมูลเรียลไทม์ของ SageMaker
ในส่วนต่อไปนี้ เราจะเจาะลึกลงไปในแต่ละขั้นตอนเหล่านี้ เพื่อสาธิตความยืดหยุ่นของ SageMaker สำหรับเวิร์กโฟลว์ LLM ที่แตกต่างกัน และวิธีที่ฟีเจอร์เหล่านี้สามารถช่วยปรับปรุงการทำงานของโมเดลของคุณได้อย่างไร
เบื้องต้น
ปฏิบัติตามข้อกำหนดเบื้องต้นต่อไปนี้ให้ครบถ้วนเพื่อเริ่มการทดสอบโค้ด
- สร้าง โดเมน SageMaker Studio: Amazon SageMaker Studio โดยเฉพาะ Studio Notebooks ใช้เพื่อเริ่มงานการปรับแต่ง Llama2 จากนั้นลงทะเบียนและดูโมเดลภายใน การลงทะเบียนโมเดล SageMaker. การทดลอง SageMaker ยังใช้เพื่อดูและเปรียบเทียบบันทึกงานการปรับแต่ง Llama2 (การสูญเสียการฝึก/การสูญเสียการทดสอบ/อื่นๆ)
- สร้างบัคเก็ต Amazon Simple Storage Service (S3): จำเป็นต้องเข้าถึงบัคเก็ต S3 เพื่อจัดเก็บอาร์ติแฟกต์การฝึกและน้ำหนักโมเดล สำหรับคำแนะนำ โปรดดูที่ การสร้างถัง. โค้ดตัวอย่างที่ใช้สำหรับโพสต์นี้จะใช้บัคเก็ต S3 เริ่มต้นของ SageMaker แต่คุณสามารถปรับแต่งเพื่อใช้บัคเก็ต S3 ที่เกี่ยวข้องได้
- ตั้งค่าคอลเลกชันโมเดล (สิทธิ์ IAM): อัปเดตบทบาทการดำเนินการ SageMaker ของคุณด้วยสิทธิ์ในกลุ่มทรัพยากรตามรายการภายใต้ คู่มือนักพัฒนา Model Registry Collections เพื่อใช้การจัดกลุ่ม Model Registry โดยใช้ Model Collections
- ยอมรับข้อกำหนดและเงื่อนไขสำหรับ Llama2: คุณจะต้องยอมรับข้อตกลงสิทธิ์การใช้งานสำหรับผู้ใช้ปลายทางและนโยบายการใช้งานที่ยอมรับได้สำหรับการใช้โมเดลพื้นฐาน Llama2
ตัวอย่างมีอยู่ใน พื้นที่เก็บข้อมูล GitHub. ไฟล์สมุดบันทึกได้รับการทดสอบโดยใช้สมุดบันทึก Studio ที่ทำงานบน PyTorch 2.0.0 Python 3.10 GPU Optimized kernel และประเภทอินสแตนซ์ ml.g4dn.xlarge
การทดลองพร้อมการบูรณาการการโทรกลับ
การทดลอง Amazon SageMaker ช่วยให้คุณสามารถจัดระเบียบ ติดตาม เปรียบเทียบ และประเมินการทดลองของแมชชีนเลิร์นนิ่ง (ML) และเวอร์ชันโมเดลจากสภาพแวดล้อมการพัฒนาแบบผสานรวม (IDE) รวมถึง Jupyter Notebook ในเครื่อง โดยใช้ SageMaker Python SDK หรือ boto3 โดยให้ความยืดหยุ่นในการบันทึกตัววัดโมเดล พารามิเตอร์ ไฟล์ อาร์ติแฟกต์ แผนภูมิพล็อตจากตัววัดต่างๆ บันทึกข้อมูลเมตาต่างๆ ค้นหาผ่านสิ่งเหล่านั้น และสนับสนุนความสามารถในการทำซ้ำของโมเดล นักวิทยาศาสตร์ข้อมูลสามารถเปรียบเทียบประสิทธิภาพและไฮเปอร์พารามิเตอร์สำหรับการประเมินแบบจำลองได้อย่างรวดเร็วผ่านแผนภูมิและตารางแบบภาพ พวกเขายังสามารถใช้ SageMaker Experiments เพื่อดาวน์โหลดแผนภูมิที่สร้างขึ้นและแบ่งปันการประเมินแบบจำลองกับผู้มีส่วนได้ส่วนเสียของพวกเขา
การฝึกอบรม LLM อาจเป็นกระบวนการที่ช้า มีราคาแพง และทำซ้ำได้ เป็นสิ่งสำคัญมากสำหรับผู้ใช้ในการติดตามการทดลอง LLM ในวงกว้าง เพื่อป้องกันประสบการณ์การปรับแต่งโมเดลที่ไม่สอดคล้องกัน HuggingFace Transformer API อนุญาตให้ผู้ใช้ติดตามตัวชี้วัดระหว่างงานฝึกอบรมผ่าน เรียกกลับ. การโทรกลับเป็นโค้ด “อ่านอย่างเดียว” ที่สามารถปรับแต่งพฤติกรรมของลูปการฝึกใน PyTorch Trainer ที่สามารถตรวจสอบสถานะของลูปการฝึกสำหรับการรายงานความคืบหน้า การบันทึกบน TensorBoard หรือ SageMaker Experiments Plus ผ่านตรรกะที่กำหนดเอง (ซึ่งรวมไว้เป็นส่วนหนึ่ง ของโค้ดเบสนี้)
คุณสามารถนำเข้าโค้ดเรียกกลับ SageMaker Experiments ที่รวมอยู่ในที่เก็บโค้ดของโพสต์นี้ได้ ดังที่แสดงในบล็อกโค้ดต่อไปนี้:
การโทรกลับนี้จะบันทึกข้อมูลต่อไปนี้ลงใน SageMaker Experiments โดยอัตโนมัติโดยเป็นส่วนหนึ่งของการฝึก:
- พารามิเตอร์การฝึกอบรมและไฮเปอร์พารามิเตอร์
- การสูญเสียการฝึกอบรมโมเดลและการตรวจสอบความถูกต้องในขั้นตอน ยุค และขั้นสุดท้าย
- สิ่งประดิษฐ์อินพุตและเอาท์พุตของโมเดล (ชุดข้อมูลการฝึก ชุดข้อมูลการตรวจสอบ ตำแหน่งเอาต์พุตของโมเดล ดีบักเกอร์การฝึก และอื่นๆ)
กราฟต่อไปนี้แสดงตัวอย่างแผนภูมิที่คุณสามารถแสดงได้โดยใช้ข้อมูลนั้น
ซึ่งช่วยให้คุณเปรียบเทียบการทำงานหลายครั้งได้อย่างง่ายดายโดยใช้คุณสมบัติวิเคราะห์ของ SageMaker Experiments คุณสามารถเลือกการทดสอบที่คุณต้องการเปรียบเทียบ จากนั้นการทดสอบเหล่านั้นจะสร้างกราฟเปรียบเทียบโดยอัตโนมัติ
ลงทะเบียนโมเดลที่ได้รับการปรับแต่งอย่างละเอียดไปยัง Model Registry Collections
คอลเลกชันรีจิสทรีโมเดล เป็นคุณสมบัติของ การลงทะเบียนโมเดล SageMaker ที่ช่วยให้คุณสามารถจัดกลุ่มโมเดลที่ลงทะเบียนไว้ซึ่งสัมพันธ์กัน และจัดระเบียบโมเดลเหล่านั้นเป็นลำดับชั้นเพื่อปรับปรุงการค้นพบโมเดลในวงกว้าง เราจะใช้ Model Registry Collections เพื่อติดตามโมเดลพื้นฐานและตัวแปรที่ได้รับการปรับแต่งอย่างละเอียด
วิธีการคัดลอกแบบเต็ม
วิธีแรกเป็นการรวมโมเดลพื้นฐานและอะแดปเตอร์ LoRA และบันทึกโมเดลที่ได้รับการปรับแต่งแบบละเอียดทั้งหมด รหัสต่อไปนี้แสดงให้เห็นถึงกระบวนการผสานโมเดลและบันทึกการใช้โมเดลแบบรวม model.save_pretrained()
.
การรวมอะแดปเตอร์ LoRA และโมเดลพื้นฐานเข้าไว้ในสิ่งประดิษฐ์ของโมเดลเดียวหลังจากการปรับแต่งแบบละเอียดมีทั้งข้อดีและข้อเสีย โมเดลแบบรวมนั้นมีอยู่ในตัวเองและสามารถจัดการและปรับใช้ได้อย่างอิสระโดยไม่จำเป็นต้องใช้โมเดลพื้นฐานดั้งเดิม โมเดลสามารถติดตามได้เป็นเอนทิตีของตัวเองโดยมีชื่อเวอร์ชันที่สะท้อนถึงโมเดลพื้นฐานและข้อมูลการปรับแต่งอย่างละเอียด เราสามารถนำระบบการตั้งชื่อมาใช้ได้โดยใช้ base_model_name
+ ปรับแต่ง dataset_name
เพื่อจัดกลุ่มแบบจำลอง อีกทางเลือกหนึ่ง คอลเลกชันโมเดลสามารถเชื่อมโยงโมเดลดั้งเดิมและโมเดลที่ได้รับการปรับแต่ง แต่อาจไม่จำเป็นเนื่องจากโมเดลที่รวมกันนั้นเป็นอิสระจากกัน ข้อมูลโค้ดต่อไปนี้จะแสดงวิธีการลงทะเบียนโมเดลที่ได้รับการปรับแต่งอย่างละเอียด
คุณสามารถใช้ตัวประมาณการฝึกเพื่อลงทะเบียนโมเดลลงใน Model Registry
จาก Model Registry คุณสามารถดึงข้อมูลแพ็กเกจโมเดลและปรับใช้โมเดลนั้นได้โดยตรง
อย่างไรก็ตาม วิธีการนี้มีข้อเสียอยู่ การรวมโมเดลเข้าด้วยกันทำให้เกิดความไร้ประสิทธิภาพในการจัดเก็บข้อมูลและความซ้ำซ้อน เนื่องจากโมเดลพื้นฐานจะถูกทำซ้ำในแต่ละเวอร์ชันที่ได้รับการปรับแต่งอย่างละเอียด เมื่อขนาดโมเดลและจำนวนโมเดลที่ได้รับการปรับแต่งเพิ่มขึ้น ความต้องการพื้นที่จัดเก็บข้อมูลก็เพิ่มขึ้นเป็นทวีคูณ ยกตัวอย่างรุ่น llama2 7b รุ่นพื้นฐานมีขนาดประมาณ 13 GB และรุ่นที่ปรับแต่งแล้วคือ 13.6 GB 96% เปอร์เซ็นต์ของโมเดลจำเป็นต้องทำซ้ำหลังจากการปรับแต่งแบบละเอียดแต่ละครั้ง นอกจากนี้ การแจกจ่ายและแบ่งปันไฟล์โมเดลขนาดใหญ่มากยังทำได้ยากขึ้น และนำเสนอความท้าทายในการปฏิบัติงาน เนื่องจากการถ่ายโอนไฟล์และต้นทุนการจัดการเพิ่มขึ้นตามขนาดโมเดลที่เพิ่มขึ้นและงานปรับแต่ง
แยกอะแดปเตอร์และวิธีการฐาน
วิธีที่สองมุ่งเน้นไปที่การแยกน้ำหนักฐานและน้ำหนักของอะแดปเตอร์โดยบันทึกเป็นส่วนประกอบโมเดลที่แยกจากกัน และโหลดตามลำดับที่รันไทม์
การบันทึกน้ำหนักฐานและอะแดปเตอร์มีข้อดีและข้อเสีย คล้ายกับวิธีการคัดลอกแบบจำลองแบบเต็ม ข้อดีประการหนึ่งคือสามารถประหยัดพื้นที่จัดเก็บได้ ตุ้มน้ำหนักฐานซึ่งเป็นส่วนประกอบที่ใหญ่ที่สุดของโมเดลที่ได้รับการปรับแต่งอย่างละเอียด จะถูกบันทึกไว้เพียงครั้งเดียว และสามารถนำกลับมาใช้ใหม่กับตุ้มน้ำหนักอะแดปเตอร์อื่นๆ ที่ได้รับการปรับแต่งสำหรับงานที่แตกต่างกัน ตัวอย่างเช่น น้ำหนักพื้นฐานของ Llama2-7B คือประมาณ 13 GB แต่งานการปรับแต่งแต่ละงานจำเป็นต้องจัดเก็บน้ำหนักของอะแดปเตอร์เพียงประมาณ 0.6 GB เท่านั้น ซึ่งช่วยประหยัดพื้นที่ได้ 95% ข้อดีอีกประการหนึ่งคือสามารถจัดการตุ้มน้ำหนักฐานแยกจากตุ้มน้ำหนักอะแดปเตอร์ได้โดยใช้รีจีสทรีโมเดลเฉพาะตุ้มน้ำหนักฐานเท่านั้น สิ่งนี้มีประโยชน์สำหรับโดเมน SageMaker ที่ทำงานในโหมด VPC เท่านั้นโดยไม่มีเกตเวย์อินเทอร์เน็ต เนื่องจากสามารถเข้าถึงน้ำหนักพื้นฐานได้โดยไม่ต้องผ่านอินเทอร์เน็ต
สร้างกลุ่มแพ็คเกจแบบจำลองสำหรับน้ำหนักฐาน
สร้างกลุ่มแพ็คเกจโมเดลสำหรับตุ้มน้ำหนัก QLoRA
โค้ดต่อไปนี้แสดงวิธีติดแท็กน้ำหนัก QLoRA ด้วยชุดข้อมูล/ประเภทงาน และลงทะเบียนน้ำหนักเดลต้าที่ปรับแต่งอย่างละเอียดลงในรีจีสทรีแบบจำลองที่แยกต่างหาก และติดตามน้ำหนักเดลต้าแยกกัน
ตัวอย่างต่อไปนี้แสดงมุมมองจาก Model Registry โดยที่แบบจำลองต่างๆ จะถูกแบ่งออกเป็นฐานและน้ำหนักที่ปรับแต่งอย่างละเอียด
การจัดการโมเดล ชุดข้อมูล และงานสำหรับ LLM ที่มีความเป็นส่วนตัวสูงอาจกลายเป็นเรื่องล้นหลามได้อย่างรวดเร็ว คอลเลกชันรีจิสทรีโมเดล SageMaker สามารถช่วยคุณจัดกลุ่มโมเดลที่เกี่ยวข้องเข้าด้วยกันและจัดระเบียบเป็นลำดับชั้นเพื่อปรับปรุงการค้นพบโมเดลได้ ทำให้ง่ายต่อการติดตามความสัมพันธ์ระหว่างน้ำหนักฐาน น้ำหนักของอะแดปเตอร์ และชุดข้อมูลงานการปรับแต่งอย่างละเอียด คุณยังสามารถสร้างความสัมพันธ์ที่ซับซ้อนและการเชื่อมโยงระหว่างแบบจำลองได้
สร้างคอลเลกชันใหม่และเพิ่มน้ำหนักโมเดลพื้นฐานของคุณให้กับคอลเลกชันนี้
เชื่อมโยง Delta Weights ของอะแดปเตอร์ LoRA ที่ปรับแต่งแบบละเอียดทั้งหมดของคุณเข้ากับคอลเลกชันนี้ตามงานและ/หรือชุดข้อมูล
ซึ่งจะส่งผลให้เกิดลำดับชั้นของคอลเลกชันที่เชื่อมโยงกันตามโมเดล/ประเภทงาน และชุดข้อมูลที่ใช้ในการปรับแต่งโมเดลพื้นฐาน
วิธีการแยกรุ่นฐานและอะแดปเตอร์นี้มีข้อเสียบางประการ ข้อเสียเปรียบประการหนึ่งคือความซับซ้อนในการปรับใช้โมเดล เนื่องจากมีอาร์ติแฟกต์ของโมเดลสองรายการที่แยกจากกัน คุณจึงต้องมีขั้นตอนเพิ่มเติมในการจัดทำโมเดลใหม่ แทนที่จะปรับใช้โดยตรงจาก Model Registry ในตัวอย่างโค้ดต่อไปนี้ ให้ดาวน์โหลดและบรรจุเวอร์ชันล่าสุดของโมเดลพื้นฐานใหม่ก่อน
จากนั้นดาวน์โหลดและบรรจุน้ำหนักของอะแดปเตอร์ LoRA ที่ปรับแต่งล่าสุดแล้วบรรจุใหม่
เนื่องจากคุณจะใช้การให้บริการ DJL ด้วย Deepspeed เพื่อโฮสต์โมเดล ไดเร็กทอรีการอนุมานของคุณควรมีลักษณะดังนี้
สุดท้าย จัดแพ็คเกจโค้ดการอนุมานแบบกำหนดเอง โมเดลพื้นฐาน และอะแดปเตอร์ LoRA ไว้ในไฟล์ .tar.gz ไฟล์เดียวสำหรับการปรับใช้
ทำความสะอาด
ทำความสะอาดทรัพยากรของคุณโดยทำตามคำแนะนำในส่วนการล้างข้อมูลของโน้ตบุ๊ก อ้างถึง ราคา Amazon SageMaker สำหรับรายละเอียดเกี่ยวกับค่าใช้จ่ายของอินสแตนซ์การอนุมาน
สรุป
โพสต์นี้จะอธิบายแนวทางปฏิบัติที่ดีที่สุดในการจัดการโมเดล LoRA ที่ปรับแต่งอย่างละเอียดบน Amazon SageMaker เราได้ครอบคลุมวิธีการหลักสองวิธี: การรวมตุ้มน้ำหนักฐานและอะแดปเตอร์ให้เป็นโมเดลที่มีในตัวเองเพียงรุ่นเดียว และการแยกตุ้มน้ำหนักฐานและอะแดปเตอร์ ทั้งสองวิธีมีข้อดีข้อเสีย แต่การแยกน้ำหนักจะช่วยเพิ่มประสิทธิภาพการจัดเก็บข้อมูล และเปิดใช้เทคนิคการจัดการโมเดลขั้นสูง เช่น SageMaker Model Registry Collections สิ่งนี้ช่วยให้คุณสร้างลำดับชั้นและความสัมพันธ์ระหว่างแบบจำลองเพื่อปรับปรุงองค์กรและการค้นพบได้ เราขอแนะนำให้คุณลองใช้โค้ดตัวอย่าง พื้นที่เก็บข้อมูล GitHub เพื่อทดลองวิธีการเหล่านี้ด้วยตัวเอง ในขณะที่ Generative AI ดำเนินไปอย่างรวดเร็ว การปฏิบัติตามแนวทางปฏิบัติที่ดีที่สุดในการจัดการแบบจำลองจะช่วยให้คุณติดตามการทดลอง ค้นหาแบบจำลองที่เหมาะสมสำหรับงานของคุณ และจัดการ LLM เฉพาะทางได้อย่างมีประสิทธิภาพในวงกว้าง
อ้างอิง
เกี่ยวกับผู้แต่ง
เจมส์ หวู่ เป็นสถาปนิกโซลูชันผู้เชี่ยวชาญด้าน AI/ML อาวุโสที่ AWS ช่วยลูกค้าออกแบบและสร้างโซลูชัน AI/ML งานของ James ครอบคลุมกรณีการใช้งาน ML ที่หลากหลาย โดยมีความสนใจหลักในด้านการมองเห็นคอมพิวเตอร์ การเรียนรู้เชิงลึก และการปรับขนาด ML ทั่วทั้งองค์กร ก่อนที่จะร่วมงานกับ AWS เจมส์เคยเป็นสถาปนิก นักพัฒนา และผู้นำด้านเทคโนโลยีมานานกว่า 10 ปี รวมถึง 6 ปีในด้านวิศวกรรมและ 4 ปีในอุตสาหกรรมการตลาดและการโฆษณา
ปรานาฟ เมอร์ธี เป็นสถาปนิกโซลูชันผู้เชี่ยวชาญ AI/ML ที่ AWS เขามุ่งเน้นที่การช่วยเหลือลูกค้าในการสร้าง ฝึกอบรม ปรับใช้ และโยกย้ายปริมาณงานการเรียนรู้ของเครื่อง (ML) ไปยัง SageMaker ก่อนหน้านี้เขาเคยทำงานในอุตสาหกรรมเซมิคอนดักเตอร์โดยพัฒนาโมเดลคอมพิวเตอร์วิทัศน์ขนาดใหญ่ (CV) และการประมวลผลภาษาธรรมชาติ (NLP) เพื่อปรับปรุงกระบวนการเซมิคอนดักเตอร์ ในเวลาว่าง เขาชอบเล่นหมากรุกและท่องเที่ยว
เมซิท กุนกอร์ เป็นสถาปนิกโซลูชันผู้เชี่ยวชาญด้าน AI/ML ของ AWS ที่ช่วยลูกค้าออกแบบและสร้างโซลูชัน AI/ML ในวงกว้าง เขาครอบคลุมกรณีการใช้งาน AI/ML ที่หลากหลายสำหรับลูกค้าโทรคมนาคม และปัจจุบันมุ่งเน้นไปที่ Generative AI, LLM และการเพิ่มประสิทธิภาพการฝึกอบรมและการอนุมาน เขามักจะพบเห็นการเดินป่าในถิ่นทุรกันดารหรือเล่นเกมกระดานกับเพื่อน ๆ ในเวลาว่าง
เชลบี ไอเกนโบรด เป็นหัวหน้าสถาปนิกโซลูชัน AI และ Machine Learning Specialist Solutions ที่ Amazon Web Services (AWS) เธอทำงานด้านเทคโนโลยีมาเป็นเวลา 24 ปีในหลากหลายอุตสาหกรรม เทคโนโลยี และบทบาท ปัจจุบันเธอกำลังมุ่งเน้นไปที่การรวมพื้นหลัง DevOps และ ML เข้ากับโดเมนของ MLOps เพื่อช่วยลูกค้าในการส่งมอบและจัดการปริมาณงาน ML ตามขนาด ด้วยสิทธิบัตรกว่า 35 ฉบับที่มอบให้ในโดเมนเทคโนโลยีต่างๆ เธอมีความหลงใหลในการสร้างสรรค์นวัตกรรมอย่างต่อเนื่องและใช้ข้อมูลเพื่อขับเคลื่อนผลลัพธ์ทางธุรกิจ Shelbee เป็นผู้ร่วมสร้างและผู้สอนความเชี่ยวชาญด้านวิทยาศาสตร์ข้อมูลเชิงปฏิบัติใน Coursera เธอยังเป็นผู้อำนวยการร่วมของ Women In Big Data (WiBD) ที่เมืองเดนเวอร์ด้วย ในเวลาว่าง เธอชอบที่จะใช้เวลากับครอบครัว เพื่อนฝูง และสุนัขที่โอ้อวด
- เนื้อหาที่ขับเคลื่อนด้วย SEO และการเผยแพร่ประชาสัมพันธ์ รับการขยายวันนี้
- PlatoData.Network Vertical Generative Ai เพิ่มพลังให้กับตัวเอง เข้าถึงได้ที่นี่.
- เพลโตไอสตรีม. Web3 อัจฉริยะ ขยายความรู้ เข้าถึงได้ที่นี่.
- เพลโตESG. คาร์บอน, คลีนเทค, พลังงาน, สิ่งแวดล้อม แสงอาทิตย์, การจัดการของเสีย. เข้าถึงได้ที่นี่.
- เพลโตสุขภาพ เทคโนโลยีชีวภาพและข่าวกรองการทดลองทางคลินิก เข้าถึงได้ที่นี่.
- ที่มา: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :มี
- :เป็น
- :ไม่
- :ที่ไหน
- $ ขึ้น
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- ความสามารถ
- เกี่ยวกับเรา
- ยอมรับ
- ยอมรับได้
- เข้า
- Accessed
- ข้าม
- การปรับตัว
- ปรับ
- เพิ่ม
- เพิ่ม
- เพิ่มเติม
- นอกจากนี้
- ที่อยู่
- นำมาใช้
- สูง
- ความได้เปรียบ
- ข้อได้เปรียบ
- การโฆษณา
- หลังจาก
- ข้อตกลง
- AI
- เอไอ ถูกต้อง
- AI / ML
- ทั้งหมด
- อนุญาต
- ช่วยให้
- แล้ว
- ด้วย
- อเมซอน
- อเมซอน SageMaker
- สตูดิโอ Amazon SageMaker
- Amazon Simple Storage Service (S3)
- Amazon Web Services
- Amazon Web Services (AWS)
- จำนวน
- an
- วิเคราะห์
- และ
- อื่น
- ใด
- API
- การใช้งาน
- เข้าใกล้
- วิธีการ
- ได้รับการอนุมัติ
- ประมาณ
- เป็น
- พื้นที่
- AS
- ภาคี
- At
- อัตโนมัติ
- อัตโนมัติ
- ใช้ได้
- AWS
- กลับ
- พื้นหลัง
- อุปสรรค
- ฐาน
- BE
- เพราะ
- กลายเป็น
- จะกลายเป็น
- รับ
- พฤติกรรม
- ประโยชน์ที่ได้รับ
- ที่ดีที่สุด
- ปฏิบัติที่ดีที่สุด
- ระหว่าง
- ใหญ่
- ข้อมูลขนาดใหญ่
- พันล้าน
- พันล้าน
- ปิดกั้น
- คณะกรรมการ
- เกมกระดาน
- ทั้งสอง
- เขตแดน
- สร้าง
- ธุรกิจ
- แต่
- by
- เรียกกลับ
- ที่เรียกว่า
- CAN
- ความสามารถ
- จับ
- ระมัดระวัง
- กรณี
- กรณี
- ท้าทาย
- ความท้าทาย
- บท
- ชาร์ต
- หมากรุก
- ชั้น
- ชัดเจน
- รหัส
- codebase
- ชุด
- คอลเลกชัน
- รวมกัน
- รวม
- รวม
- การรวมกัน
- บริษัท
- เปรียบเทียบ
- การเปรียบเทียบ
- การแข่งขัน
- ซับซ้อน
- ความซับซ้อน
- ส่วนประกอบ
- ส่วนประกอบ
- การคำนวณ
- การคำนวณ
- คอมพิวเตอร์
- วิสัยทัศน์คอมพิวเตอร์
- เงื่อนไข
- พิจารณา
- เนื้อหา
- การสร้างเนื้อหา
- เรื่อย
- ต่อเนื่องกัน
- แกน
- ราคา
- ได้
- ปกคลุม
- ครอบคลุม
- สร้าง
- ที่สร้างขึ้น
- การสร้าง
- ความคิดสร้างสรรค์
- ขณะนี้
- ประเพณี
- ลูกค้า
- Customer Support
- ลูกค้า
- การปรับแต่ง
- ปรับแต่ง
- ตัดขอบ
- ข้อมูล
- วิทยาศาสตร์ข้อมูล
- ชุดข้อมูล
- ลึก
- การเรียนรู้ลึก ๆ
- ลึก
- ค่าเริ่มต้น
- เดล
- ส่งมอบ
- สันดอน
- สาธิต
- เดนเวอร์
- ปรับใช้
- นำไปใช้
- ปรับใช้
- การใช้งาน
- ออกแบบ
- รายละเอียด
- ผู้พัฒนา
- ที่กำลังพัฒนา
- พัฒนาการ
- ต่าง
- ยาก
- โดยตรง
- แสดง
- กระจาย
- จำหน่าย
- การดำน้ำ
- โดเมน
- โดเมน
- ดาวน์โหลด
- ข้อเสีย
- ขับรถ
- ในระหว่าง
- แต่ละ
- ง่ายดาย
- อย่างง่ายดาย
- ขอบ
- ที่มีประสิทธิภาพ
- อย่างมีประสิทธิภาพ
- อื่น
- กากกะรุน
- ช่วยให้
- ส่งเสริม
- จบสิ้น
- ปลายทาง
- ชั้นเยี่ยม
- Enterprise
- เอกลักษณ์
- สิ่งแวดล้อม
- ยุค
- ยุค
- ฯลฯ
- ประเมินค่า
- การประเมินผล
- ตัวอย่าง
- ตัวอย่าง
- ล้ำ
- การปฏิบัติ
- ที่มีอยู่
- แพง
- ประสบการณ์
- การทดลอง
- การทดลอง
- ความชำนาญ
- อย่างแทน
- ใบหน้า
- ความล้มเหลว
- ครอบครัว
- เร็วขึ้น
- ลักษณะ
- คุณสมบัติ
- เนื้อไม่มีมัน
- ไฟล์
- หา
- ปลาย
- ชื่อจริง
- การแก้ไข
- ความยืดหยุ่น
- มุ่งเน้นไปที่
- โดยมุ่งเน้น
- ดังต่อไปนี้
- สำหรับ
- พบ
- รากฐาน
- ฟรี
- เพื่อน
- ราคาเริ่มต้นที่
- เต็ม
- ฟังก์ชัน
- ต่อไป
- อนาคต
- ได้รับ
- ที่ได้รับ
- เกม
- เกตเวย์
- การสร้าง
- กำเนิด
- กำเนิด AI
- Go
- ไป
- ดี
- GPU
- รับ
- กราฟ
- กราฟ
- บัญชีกลุ่ม
- กลุ่ม
- มือ
- จัดการ
- มี
- มี
- he
- ช่วย
- การช่วยเหลือ
- จะช่วยให้
- เธอ
- ลำดับชั้น
- อย่างสูง
- ของเขา
- เจ้าภาพ
- ที่ร้อนแรงที่สุด
- สรุป ความน่าเชื่อถือของ Olymp Trade?
- ทำอย่างไร
- อย่างไรก็ตาม
- HTML
- HTTPS
- กอดใบหน้า
- แสดงให้เห็นถึง
- ภาพ
- การดำเนินการ
- การดำเนินงาน
- นำเข้า
- สำคัญ
- ที่สำคัญ
- การนำเข้า
- ปรับปรุง
- in
- รวม
- รวมถึง
- รวมทั้ง
- เพิ่ม
- เพิ่มขึ้น
- ที่เพิ่มขึ้น
- อิสระ
- อิสระ
- อุตสาหกรรม
- อุตสาหกรรม
- การไร้ความสามารถ
- พองตัว
- ข้อมูล
- นักวิเคราะห์ส่วนบุคคลที่หาโอกาสให้เป็นไปได้มากที่สุด
- อินพุต
- ตัวอย่าง
- แทน
- คำแนะนำการใช้
- รวบรวม
- แบบบูรณาการ
- อยากเรียนรู้
- อินเทอร์เน็ต
- เข้าไป
- เปิดตัว
- IT
- ITS
- เจมส์
- ชวา
- การสัมภาษณ์
- งาน
- การร่วม
- jpg
- เก็บ
- การเก็บรักษา
- คีย์
- เตะ
- ความรู้
- ภาษา
- ใหญ่
- ใหญ่ที่สุด
- ล่าสุด
- ผู้นำ
- นำไปสู่
- การเรียนรู้
- ช่วยให้
- ชั้น
- ห้องสมุด
- License
- ตั้งอยู่
- กดไลก์
- ยอดไลก์
- LINK
- ที่เชื่อมโยง
- จดทะเบียน
- LLM
- โหลด
- โหลด
- ในประเทศ
- ที่ตั้ง
- เข้าสู่ระบบ
- การเข้าสู่ระบบ
- ตรรกะ
- ดู
- ดูเหมือน
- ที่ต้องการหา
- ปิด
- เครื่อง
- เรียนรู้เครื่อง
- หลัก
- ทำให้
- การทำ
- จัดการ
- การจัดการ
- การจัดการ
- การจัดการ
- หลาย
- การตลาด
- การตลาดและการโฆษณา
- มาก
- อาจ..
- หน่วยความจำ
- ผสาน
- การผสม
- เมตาดาต้า
- วิธี
- วิธีการ
- ตัวชี้วัด
- อพยพ
- ML
- ม.ป.ป
- โหมด
- แบบ
- โมเดล
- โมดูล
- ข้อมูลเพิ่มเติม
- หลาย
- ชื่อ
- โดยธรรมชาติ
- ประมวลผลภาษาธรรมชาติ
- จำเป็น
- จำเป็นต้อง
- ต้อง
- ความต้องการ
- ใหม่
- NLP
- สมุดบันทึก
- ตอนนี้
- จำนวน
- of
- ปิด
- เสนอ
- มักจะ
- on
- ครั้งเดียว
- ONE
- เพียง
- การดำเนินงาน
- การดำเนินการ
- การเพิ่มประสิทธิภาพ
- เพิ่มประสิทธิภาพ
- การปรับให้เหมาะสม
- การเพิ่มประสิทธิภาพ
- or
- organizacja
- องค์กร
- เป็นต้นฉบับ
- อื่นๆ
- ของเรา
- ผลลัพธ์
- เอาท์พุต
- เกิน
- เอาชนะ
- ที่ครอบงำ
- ของตนเอง
- แพ็คเกจ
- พารามิเตอร์
- พารามิเตอร์
- ส่วนหนึ่ง
- กิเลส
- สิทธิบัตร
- เส้นทาง
- เปอร์เซ็นต์
- การปฏิบัติ
- สิทธิ์
- ชิ้น
- เพลโต
- เพลโตดาต้าอินเทลลิเจนซ์
- เพลโตดาต้า
- เล่น
- บวก
- นโยบาย
- ยอดนิยม
- ความนิยม
- ส่วน
- เป็นไปได้
- โพสต์
- อำนาจ
- ที่มีประสิทธิภาพ
- ประยุกต์
- การปฏิบัติ
- ข้อกำหนดเบื้องต้น
- นำเสนอ
- การรักษา
- ป้องกัน
- ก่อนหน้านี้
- ประถม
- หลัก
- ก่อน
- กระบวนการ
- กระบวนการ
- การประมวลผล
- ความคืบหน้า
- อย่างถูกต้อง
- คุณสมบัติ
- ให้
- ผลัก
- หลาม
- ไฟฉาย
- คำถาม
- อย่างรวดเร็ว
- พิสัย
- อย่างรวดเร็ว
- เรียลไทม์
- เหตุผล
- เหตุผล
- เมื่อเร็ว ๆ นี้
- ลด
- ลดลง
- ลด
- ลด
- อ้างอิง
- สะท้อนให้เห็นถึง
- ทะเบียน
- ลงทะเบียน
- รีจิสทรี
- ที่เกี่ยวข้อง
- ความสัมพันธ์
- ตรงประเด็น
- โดดเด่น
- การรายงาน
- กรุ
- ต้องการ
- จำเป็นต้องใช้
- ความต้องการ
- แหล่งข้อมูล
- REST
- ผล
- นำมาใช้ใหม่
- ขวา
- บทบาท
- บทบาท
- วิ่ง
- วิ่ง
- ทำงาน
- รันไทม์
- sagemaker
- ลด
- ที่บันทึกไว้
- ประหยัด
- เงินออม
- ขนาด
- ปรับ
- วิทยาศาสตร์
- นักวิทยาศาสตร์
- SDK
- ค้นหา
- ที่สอง
- Section
- ส่วน
- ที่กำลังมองหา
- สารกึ่งตัวนำ
- ระดับอาวุโส
- แยก
- การพลัดพราก
- บริการ
- บริการ
- การให้บริการ
- หลาย
- Share
- ใช้งานร่วมกัน
- เธอ
- น่า
- แสดง
- แสดงให้เห็นว่า
- คล้ายคลึงกัน
- ง่าย
- ตั้งแต่
- เดียว
- ขนาด
- ช้า
- เล็ก
- มีขนาดเล็กกว่า
- เศษเล็กเศษน้อย
- ทางออก
- โซลูชัน
- บาง
- แหล่ง
- ช่องว่าง
- ความตึงเครียด
- ผู้เชี่ยวชาญ
- เฉพาะ
- โดยเฉพาะ
- เฉพาะ
- ใช้จ่าย
- แยก
- ผู้มีส่วนได้เสีย
- เริ่มต้น
- สถานะ
- รัฐของศิลปะ
- Status
- ขั้นตอน
- ขั้นตอน
- ยังคง
- การเก็บรักษา
- จัดเก็บ
- เก็บไว้
- สตูดิโอ
- อย่างเช่น
- สนับสนุน
- TAG
- การ
- งาน
- งาน
- เทคนิค
- เทคนิค
- เทคโนโลยี
- เทคโนโลยี
- การสื่อสารโทรคมนาคม
- เงื่อนไขการใช้บริการ
- การทดสอบ
- ข้อความ
- ที่
- พื้นที่
- ของพวกเขา
- พวกเขา
- แล้วก็
- ที่นั่น
- ล้อยางขัดเหล่านี้ติดตั้งบนแกน XNUMX (มม.) ผลิตภัณฑ์นี้ถูกผลิตในหลายรูปทรง และหลากหลายเบอร์ความแน่นหนาของปริมาณอนุภาคขัดของมัน จะทำให้ท่านได้รับประสิทธิภาพสูงในการขัดและการใช้งานที่ยาวนาน
- พวกเขา
- นี้
- ตลอด
- เวลา
- ไปยัง
- ร่วมกัน
- เครื่องมือ
- ไฟฉาย
- ลู่
- แบบดั้งเดิม
- รถไฟ
- การฝึกอบรม
- โอน
- หม้อแปลงไฟฟ้า
- หม้อแปลง
- การเดินทาง
- จริง
- ลอง
- ปรับแต่ง
- ติดตามความคืบหน้า
- จูน
- สอง
- ชนิด
- ชนิด
- ภายใต้
- ความเข้าใจ
- บันทึก
- การปรับปรุง
- อัปโหลด
- URL
- ใช้
- ใช้กรณี
- มือสอง
- ผู้ใช้งาน
- ผู้ใช้
- การใช้
- การตรวจสอบ
- มีคุณค่า
- ความคุ้มค่า
- ความหลากหลาย
- ต่างๆ
- กว้างใหญ่
- รุ่น
- รุ่น
- มาก
- ผ่านทาง
- รายละเอียด
- วิสัยทัศน์
- ภาพ
- เดิน
- เดิน
- ต้องการ
- คือ
- ทาง..
- วิธี
- we
- เว็บ
- บริการเว็บ
- เมื่อ
- ที่
- ในขณะที่
- ทำไม
- กว้าง
- ช่วงกว้าง
- จะ
- กับ
- ภายใน
- ไม่มี
- ผู้หญิง
- งาน
- ทำงาน
- ขั้นตอนการทำงาน
- โรงงาน
- ปี
- คุณ
- ของคุณ
- ด้วยตัวคุณเอง
- ลมทะเล