MLO ที่ขอบด้วย Amazon SageMaker Edge Manager และ AWS IoT Greengrass PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

MLO ที่ขอบด้วย Amazon SageMaker Edge Manager และ AWS IoT Greengrass

Internet of Things (IoT) ช่วยให้ลูกค้าในหลายอุตสาหกรรม เช่น การผลิต ยานยนต์ และพลังงาน สามารถตรวจสอบและควบคุมสภาพแวดล้อมในโลกแห่งความเป็นจริงได้ ด้วยการปรับใช้อุปกรณ์ Edge IoT ที่หลากหลาย เช่น กล้อง ตัวควบคุมอุณหภูมิ และเซ็นเซอร์ คุณสามารถรวบรวมข้อมูล ส่งข้อมูลไปยังระบบคลาวด์ และสร้างแบบจำลองแมชชีนเลิร์นนิง (ML) เพื่อคาดการณ์ความผิดปกติ ความล้มเหลว และอื่นๆ อย่างไรก็ตาม หากกรณีการใช้งานต้องการการคาดการณ์แบบเรียลไทม์ คุณจำเป็นต้องปรับปรุงโซลูชัน IoT ของคุณด้วยความสามารถ ML ที่ขอบ (ML@Edge) ML@ขอบ เป็นแนวคิดที่แยกวงจรชีวิตของโมเดล ML ออกจากวงจรชีวิตของแอป และอนุญาตให้คุณเรียกใช้ไปป์ไลน์ ML แบบ end-to-end ซึ่งรวมถึงการเตรียมข้อมูล การสร้างแบบจำลอง การคอมไพล์โมเดลและการเพิ่มประสิทธิภาพ การปรับใช้โมเดล (ไปยังกลุ่มอุปกรณ์เอดจ์) การดำเนินการแบบจำลองและการติดตามและควบคุมแบบจำลอง คุณปรับใช้แอปเพียงครั้งเดียวและเรียกใช้ไปป์ไลน์ ML ได้หลายครั้งเท่าที่คุณต้องการ

อย่างที่คุณจินตนาการได้ การนำขั้นตอนทั้งหมดที่เสนอโดยแนวคิด ML@Edge ไปใช้นั้นไม่ใช่เรื่องเล็กน้อย มีคำถามมากมายที่นักพัฒนาจำเป็นต้องแก้ไขเพื่อนำโซลูชัน ML@Edge มาใช้อย่างสมบูรณ์ เช่น:

  • ฉันจะใช้งานรุ่น ML บนอุปกรณ์ปลายทางได้อย่างไร (หลายร้อย พัน หรือหลายล้าน)
  • ฉันจะรักษาความปลอดภัยให้กับโมเดลของฉันในขณะที่ใช้งานและใช้งานที่ Edge ได้อย่างไร
  • ฉันจะตรวจสอบประสิทธิภาพของแบบจำลองและฝึกซ้ำได้อย่างไร หากจำเป็น

ในโพสต์นี้ คุณจะได้เรียนรู้วิธีตอบคำถามเหล่านี้ทั้งหมดและสร้างโซลูชันแบบ end-to-end สำหรับการทำไปป์ไลน์ ML@Edge ของคุณโดยอัตโนมัติ คุณจะเห็นวิธีใช้ ผู้จัดการ Amazon SageMaker Edge, สตูดิโอ Amazon SageMakerและ AWS IoT Greengrass เวอร์ชัน 2 เพื่อสร้างสภาพแวดล้อม MLOps (ML Operations) ที่ทำให้กระบวนการสร้างและปรับใช้โมเดล ML กับอุปกรณ์ Edge ขนาดใหญ่โดยอัตโนมัติ

ในส่วนถัดไป เรานำเสนอสถาปัตยกรรมอ้างอิงที่มีรายละเอียดส่วนประกอบและเวิร์กโฟลว์ทั้งหมดที่จำเป็นในการสร้างโซลูชันที่สมบูรณ์สำหรับ MLOps ที่เน้นที่ปริมาณงานของขอบ จากนั้นเราจะเจาะลึกลงไปในขั้นตอนที่โซลูชันนี้ทำงานโดยอัตโนมัติเพื่อสร้างและเตรียมโมเดลใหม่ เรายังแสดงวิธีเตรียมอุปกรณ์ Edge เพื่อเริ่มปรับใช้ รัน และตรวจสอบโมเดล ML และสาธิตวิธีตรวจสอบและบำรุงรักษาโมเดล ML ที่ปรับใช้กับกลุ่มอุปกรณ์ของคุณ

ภาพรวมโซลูชัน

การผลิตโมเดล ML ที่มีประสิทธิภาพต้องอาศัยความร่วมมือจากหลายบุคคล เช่น นักวิทยาศาสตร์ข้อมูล วิศวกร ML วิศวกรข้อมูล และผู้มีส่วนได้ส่วนเสียทางธุรกิจ ภายใต้โครงสร้างพื้นฐานกึ่งอัตโนมัติหลังการดำเนินการเฉพาะ (MLOps) นอกจากนี้ การทำให้เป็นโมดูลของสภาพแวดล้อมมีความสำคัญเพื่อให้บุคคลต่างๆ เหล่านี้มีความยืดหยุ่นและคล่องตัวในการพัฒนาหรือปรับปรุง (ไม่ขึ้นกับขั้นตอนการทำงาน) องค์ประกอบที่พวกเขารับผิดชอบ ตัวอย่างของโครงสร้างพื้นฐานดังกล่าวประกอบด้วยบัญชี AWS หลายบัญชีที่เปิดใช้งานการทำงานร่วมกันและการผลิตโมเดล ML ทั้งในคลาวด์และอุปกรณ์ Edge ในสถาปัตยกรรมอ้างอิงต่อไปนี้ เราแสดงให้เห็นว่าเราจัดระเบียบบัญชีและบริการต่างๆ ที่ประกอบเป็นแพลตฟอร์ม MLOps แบบครบวงจรนี้อย่างไรสำหรับการสร้างแบบจำลอง ML และปรับใช้ที่ขอบ

โซลูชันนี้ประกอบด้วยบัญชีต่อไปนี้:

  • บัญชีดาต้าเลค – วิศวกรข้อมูลนำเข้า จัดเก็บ และเตรียมข้อมูลจากแหล่งข้อมูลหลายแห่ง รวมถึงฐานข้อมูลภายในองค์กรและอุปกรณ์ IoT
  • บัญชีเครื่องมือ – เจ้าหน้าที่ไอทีจัดการและตรวจสอบไปป์ไลน์ CI/CD สำหรับการส่งมอบอย่างต่อเนื่องอัตโนมัติและการปรับใช้แพ็คเกจโมเดล ML ในบัญชีก่อนการผลิตและการผลิตสำหรับอุปกรณ์ Edge ระยะไกล การรันไปป์ไลน์ CI/CD เป็นไปโดยอัตโนมัติโดยใช้ อเมซอน EventBridgeซึ่งตรวจสอบเหตุการณ์สถานะการเปลี่ยนแปลงของโมเดล ML และเป้าหมาย AWS CodePipeline.
  • บัญชีทดลองและพัฒนา – นักวิทยาศาสตร์ด้านข้อมูลสามารถทำการวิจัยและทดลองด้วยเทคนิคการสร้างแบบจำลองและอัลกอริธึมที่หลากหลายเพื่อแก้ปัญหาทางธุรกิจโดยใช้ ML เพื่อสร้างหลักฐานของโซลูชันแนวคิด วิศวกร ML และนักวิทยาศาสตร์ข้อมูลร่วมมือกันเพื่อปรับขนาดการพิสูจน์แนวคิด สร้างเวิร์กโฟลว์อัตโนมัติโดยใช้ ท่อส่ง Amazon SageMaker เพื่อเตรียมข้อมูลและสร้าง ฝึกฝน และจัดแพ็คเกจโมเดล ML การปรับใช้ไปป์ไลน์ขับเคลื่อนผ่านไปป์ไลน์ CI/CD ในขณะที่การควบคุมเวอร์ชันของโมเดลทำได้โดยใช้ การลงทะเบียนรุ่น Amazon SageMaker. นักวิทยาศาสตร์ด้านข้อมูลจะประเมินตัววัดของรุ่นหลายรุ่นและขอให้ส่งเสริมแบบจำลองที่ดีที่สุดในการผลิตโดยเรียกใช้ไปป์ไลน์ CI/CD
  • บัญชีก่อนการผลิต – ก่อนการเลื่อนขั้นของแบบจำลองไปสู่สภาพแวดล้อมการผลิต แบบจำลองต้องได้รับการทดสอบเพื่อให้แน่ใจว่ามีความทนทานในสภาพแวดล้อมการจำลอง ดังนั้น สภาพแวดล้อมก่อนการผลิตจึงเป็นเครื่องจำลองของสภาพแวดล้อมการผลิต ซึ่งปลายทางของแบบจำลอง SageMaker จะถูกปรับใช้และทดสอบโดยอัตโนมัติ วิธีการทดสอบอาจรวมถึงการทดสอบการรวม การทดสอบความเครียด หรือการทดสอบเฉพาะ ML ในผลการอนุมาน ในกรณีนี้ สภาพแวดล้อมการใช้งานจริงไม่ใช่จุดปลายรุ่น SageMaker แต่เป็นอุปกรณ์ขอบ ในการจำลองอุปกรณ์ขอบในขั้นตอนก่อนการผลิต สามารถทำได้สองวิธี: ใช้ an อเมซอน อีลาสติก คอมพิวท์ คลาวด์ อินสแตนซ์ (Amazon EC2) ที่มีคุณสมบัติฮาร์ดแวร์เหมือนกัน หรือใช้ชุดทดสอบในห้องปฏิบัติการซึ่งประกอบด้วยอุปกรณ์จริง ด้วยโครงสร้างพื้นฐานนี้ ไปป์ไลน์ CI/CD จะปรับใช้โมเดลกับเครื่องจำลองที่เกี่ยวข้องและดำเนินการทดสอบหลายรายการโดยอัตโนมัติ หลังจากการทดสอบดำเนินการได้สำเร็จ ไปป์ไลน์ CI/CD จะต้องได้รับการอนุมัติด้วยตนเอง (เช่น จากผู้มีส่วนได้ส่วนเสีย IoT เพื่อโปรโมตโมเดลสู่การผลิต)
  • บัญชีการผลิต – ในกรณีของการโฮสต์โมเดลบน AWS Cloud ไปป์ไลน์ CI/CD จะปรับใช้ตำแหน่งข้อมูลรุ่น SageMaker ในบัญชีที่ใช้งานจริง ในกรณีนี้ สภาพแวดล้อมการผลิตประกอบด้วยอุปกรณ์เอดจ์จำนวนมาก ดังนั้นไปป์ไลน์ CI/CD จึงใช้ Edge Manager เพื่อปรับใช้โมเดลกับกลุ่มอุปกรณ์ที่เกี่ยวข้อง
  • อุปกรณ์ขอบ – อุปกรณ์ขอบระยะไกลเป็นอุปกรณ์ฮาร์ดแวร์ที่สามารถเรียกใช้รุ่น ML โดยใช้ Edge Manager อนุญาตให้แอปพลิเคชันบนอุปกรณ์เหล่านั้นจัดการโมเดล เรียกใช้การอนุมานเทียบกับรุ่นต่างๆ และบันทึกข้อมูลลงใน .ได้อย่างปลอดภัย บริการจัดเก็บข้อมูลอย่างง่ายของ Amazon (อเมซอน เอส3).

โครงการ SageMaker ช่วยคุณทำให้กระบวนการจัดสรรทรัพยากรภายในแต่ละบัญชีเหล่านี้เป็นไปโดยอัตโนมัติ เราไม่ได้เจาะลึกถึงคุณลักษณะนี้ แต่หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับวิธีสร้างเทมเพลตโครงการ SageMaker ที่ปรับใช้โมเดล ML ในบัญชีต่างๆ ให้ดูที่ การปรับใช้โมเดลหลายบัญชีด้วย Amazon SageMaker Pipelines.

บัญชีก่อนการผลิต: Digital twin

หลังจากกระบวนการฝึกอบรม จะต้องประเมินแบบจำลองผลลัพธ์ ในบัญชีก่อนการผลิต คุณมีอุปกรณ์ Edge จำลอง มันเป็นตัวแทนของ แฝดดิจิตอล ของอุปกรณ์ edge ซึ่งรุ่น ML ทำงานในการผลิต สภาพแวดล้อมนี้มีวัตถุประสงค์สองประการในการทดสอบแบบคลาสสิก (เช่น ยูนิต การผสานรวม และควัน) และเพื่อเป็นสนามเด็กเล่นสำหรับทีมพัฒนา อุปกรณ์นี้จำลองโดยใช้อินสแตนซ์ EC2 ซึ่งส่วนประกอบทั้งหมดที่จำเป็นในการจัดการโมเดล ML ถูกปรับใช้

บริการที่เกี่ยวข้องมีดังนี้:

  • AWS IoT คอร์ - เราใช้ AWS IoT คอร์ เพื่อสร้างออบเจ็กต์ของ AWS IoT สร้างกลุ่มอุปกรณ์ ลงทะเบียนกลุ่มอุปกรณ์เพื่อให้สามารถโต้ตอบกับคลาวด์ สร้างใบรับรอง X.509 เพื่อตรวจสอบสิทธิ์อุปกรณ์ Edge กับ AWS IoT Core เชื่อมโยงชื่อแทนบทบาทกับ AWS IoT Core ที่สร้างขึ้นเมื่อ ฟลีทได้สร้างขึ้น รับปลายทางเฉพาะบัญชี AWS สำหรับผู้ให้บริการข้อมูลรับรอง รับไฟล์ Amazon Root CA อย่างเป็นทางการ และอัปโหลดไฟล์ Amazon CA ไปยัง Amazon S3
  • Amazon Sagemaker นีโอ – ปราชญ์ นีโอ ปรับโมเดลการเรียนรู้ของเครื่องให้เหมาะสมโดยอัตโนมัติเพื่อให้การอนุมานทำงานเร็วขึ้นโดยไม่สูญเสียความแม่นยำ รองรับโมเดลการเรียนรู้ของเครื่องที่สร้างด้วย DarkNet, Keras, MXNet, PyTorch, TensorFlow, TensorFlow-Lite, ONNX หรือ XGBoost และฝึกฝนใน Amazon SageMaker หรือที่อื่นๆ จากนั้น คุณสามารถเลือกแพลตฟอร์มฮาร์ดแวร์เป้าหมายของคุณ ซึ่งสามารถเป็นอินสแตนซ์โฮสติ้ง SageMaker หรืออุปกรณ์ Edge ที่ใช้โปรเซสเซอร์จาก Ambarella, Apple, ARM, Intel, MediaTek, Nvidia, NXP, Qualcomm, RockChip, Texas Instruments หรือ Xilinx
  • ผู้จัดการขอบ – เราใช้ Edge Manager เพื่อลงทะเบียนและจัดการอุปกรณ์ Edge ภายในกลุ่ม Sagemaker กลุ่มยานพาหนะคือชุดของอุปกรณ์ที่มีการจัดกลุ่มตามหลักเหตุผล ซึ่งคุณสามารถใช้รวบรวมและวิเคราะห์ข้อมูลได้ นอกจากนี้ โปรแกรมจัดการแพ็คเกจ Edge Manager ยังทำแพ็กเกจโมเดลที่ปรับให้เหมาะสมและสร้างส่วนประกอบ AWS IoT Greengrass V2 ที่ปรับใช้ได้โดยตรง คุณสามารถใช้ Edge Manager เพื่อใช้งานโมเดล ML ในกลุ่มกล้องอัจฉริยะ ลำโพงอัจฉริยะ หุ่นยนต์ และอุปกรณ์ SageMaker อื่นๆ
  • AWS IoT Greengrass V2 - AWS IoT กรีนกราส ช่วยให้คุณสามารถปรับใช้ส่วนประกอบในอุปกรณ์จำลองโดยใช้อินสแตนซ์ EC2 ด้วยการใช้เอเจนต์ AWS IoT Greengrass V2 ในอินสแตนซ์ EC2 เราสามารถลดความซับซ้อนในการเข้าถึง การจัดการ และการปรับใช้เอเจนต์ Edge Manager และโมเดลไปยังอุปกรณ์ หากไม่มี AWS IoT Greengrass V2 การตั้งค่าอุปกรณ์และฟลีตเพื่อใช้ Edge Manager จะทำให้คุณต้องคัดลอกตัวแทนจากบัคเก็ตการเผยแพร่ S3 ด้วยตนเอง ด้วยการผสานรวม AWS IoT Greengrass V2 และ Edge Manager ทำให้สามารถใช้ส่วนประกอบ AWS IoT Greengrass V2 ได้ ส่วนประกอบคือโมดูลซอฟต์แวร์ที่สร้างไว้ล่วงหน้าซึ่งสามารถเชื่อมต่ออุปกรณ์ Edge กับบริการของ AWS หรือบริการของบุคคลที่สามผ่าน AWS IoT Greengrass
  • ตัวแทน Edge Manager – เอเจนต์ Edge Manager ถูกปรับใช้ผ่าน AWS IoT Greengrass V2 ในอินสแตนซ์ EC2 เอเจนต์สามารถโหลดได้หลายรุ่นพร้อมกันและทำการอนุมานกับโมเดลที่โหลดบนอุปกรณ์ Edge จำนวนรุ่นที่เอเจนต์สามารถโหลดได้นั้นพิจารณาจากหน่วยความจำที่พร้อมใช้งานบนอุปกรณ์
  • Amazon S3 – เราใช้บัคเก็ต S3 เพื่อเก็บข้อมูลการอนุมานที่จับได้จากตัวแทน Edge Manager

เราสามารถกำหนดบัญชีก่อนการผลิตเป็นคู่ดิจิทัลสำหรับการทดสอบโมเดล ML ก่อนที่จะย้ายไปยังอุปกรณ์ Edge จริง ซึ่งให้ประโยชน์ดังต่อไปนี้:

  • ความคล่องตัวและความยืดหยุ่น – นักวิทยาศาสตร์ข้อมูลและวิศวกร ML จำเป็นต้องตรวจสอบอย่างรวดเร็วว่าโมเดล ML และสคริปต์ที่เกี่ยวข้อง (การประมวลผลล่วงหน้าและสคริปต์การอนุมาน) จะทำงานบนขอบของอุปกรณ์หรือไม่ อย่างไรก็ตาม แผนก IoT และวิทยาศาสตร์ข้อมูลในองค์กรขนาดใหญ่อาจเป็นหน่วยงานที่แตกต่างกัน นักวิทยาศาสตร์ข้อมูลและวิศวกร ML ทำซ้ำและรวมเอาสิ่งประดิษฐ์ต่างๆ เข้าด้วยกันก่อนนำไปใช้จริงด้วยการจำลองสแต็กเทคโนโลยีในคลาวด์ที่เหมือนกัน
  • เร่งการประเมินความเสี่ยงและเวลาในการผลิต – การปรับใช้บนอุปกรณ์ขอบเป็นขั้นตอนสุดท้ายของกระบวนการ หลังจากที่คุณตรวจสอบความถูกต้องทุกอย่างในสภาพแวดล้อมแบบแยกส่วนและมีอยู่ในตัวเองแล้ว ให้รักษาความปลอดภัยให้เป็นไปตามข้อกำหนดเฉพาะที่ Edge กำหนดในแง่ของคุณภาพ ประสิทธิภาพการทำงาน และการผสานรวม ซึ่งจะช่วยหลีกเลี่ยงไม่ให้บุคคลอื่นเข้ามาเกี่ยวข้องในแผนก IoT เพื่อแก้ไขและทำซ้ำในเวอร์ชันของสิ่งประดิษฐ์
  • ปรับปรุงการทำงานร่วมกันในทีมและคุณภาพและประสิทธิภาพที่เพิ่มขึ้น – ทีมพัฒนาสามารถประเมินผลกระทบของโมเดล ML ได้ทันทีโดยการวิเคราะห์เมตริกฮาร์ดแวร์ขอบและวัดระดับการโต้ตอบกับเครื่องมือของบุคคลที่สาม (เช่น อัตรา I/O) จากนั้น ทีมงาน IoT มีหน้าที่รับผิดชอบในการปรับใช้กับสภาพแวดล้อมการผลิตเท่านั้น และสามารถมั่นใจได้ว่าสิ่งประดิษฐ์นั้นถูกต้องสำหรับสภาพแวดล้อมการผลิต
  • สนามเด็กเล่นแบบบูรณาการสำหรับการทดสอบ – ตามเป้าหมายของโมเดล ML สภาพแวดล้อมก่อนการผลิตในเวิร์กโฟลว์ดั้งเดิมควรแสดงด้วยอุปกรณ์ Edge ภายนอกสภาพแวดล้อมคลาวด์ สิ่งนี้ทำให้เกิดความซับซ้อนอีกระดับหนึ่ง จำเป็นต้องมีการบูรณาการเพื่อรวบรวมตัวชี้วัดและข้อเสนอแนะ แทนที่จะใช้สภาพแวดล้อมจำลองดิจิทัลแฝด ปฏิสัมพันธ์จะลดลงและเวลาในการออกสู่ตลาดจะสั้นลง

บัญชีการผลิตและสภาพแวดล้อมของขอบ

หลังจากการทดสอบเสร็จสิ้นและได้รับความเสถียรของสิ่งประดิษฐ์แล้ว คุณสามารถดำเนินการใช้งานจริงผ่านไปป์ไลน์ได้ การปรับใช้สิ่งประดิษฐ์เกิดขึ้นโดยทางโปรแกรมหลังจากที่ผู้ปฏิบัติงานได้อนุมัติสิ่งประดิษฐ์แล้ว อย่างไรก็ตามการเข้าถึง คอนโซลการจัดการ AWS มอบให้กับโอเปอเรเตอร์ในโหมดอ่านอย่างเดียวเพื่อให้สามารถตรวจสอบข้อมูลเมตาที่เกี่ยวข้องกับฟลีต ดังนั้นจึงมีข้อมูลเชิงลึกเกี่ยวกับเวอร์ชันของโมเดล ML ที่ปรับใช้และเมตริกอื่นๆ ที่เกี่ยวข้องกับวงจรชีวิต

กลุ่มอุปกรณ์ Edge เป็นของบัญชีที่ใช้งานจริงของ AWS บัญชีนี้มีการกำหนดค่าความปลอดภัยและเครือข่ายเฉพาะเพื่อให้สามารถสื่อสารระหว่างอุปกรณ์คลาวด์และอุปกรณ์ Edge บริการของ AWS หลักที่ปรับใช้ในบัญชีการผลิตคือ Edge Manager ซึ่งรับผิดชอบในการจัดการกลุ่มอุปกรณ์ทั้งหมด รวบรวมข้อมูล และใช้งานโมเดล ML และ AWS IoT Core ซึ่งจัดการวัตถุ ใบรับรอง นามแฝงของบทบาท และอุปกรณ์ปลายทางของ IoT

ในเวลาเดียวกัน เราจำเป็นต้องกำหนดค่าอุปกรณ์ Edge ด้วยบริการและส่วนประกอบเพื่อจัดการโมเดล ML ส่วนประกอบหลักมีดังนี้:

  • AWS IoT Greengrass V2
  • ตัวแทน Edge Manager
  • ใบรับรอง AWS IoT
  • Application.py ซึ่งรับผิดชอบในการเตรียมกระบวนการอนุมาน (ดึงข้อมูลจากแหล่งข้อมูลขอบและทำการอนุมานโดยใช้เอเจนต์ Edge Manager และโมเดล ML ที่โหลด)
  • การเชื่อมต่อกับ Amazon S3 หรือบัญชี Data Lake เพื่อจัดเก็บข้อมูลที่อนุมาน

ไปป์ไลน์ ML อัตโนมัติ

เมื่อคุณทราบข้อมูลเพิ่มเติมเกี่ยวกับองค์กรและองค์ประกอบของสถาปัตยกรรมอ้างอิงแล้ว เราสามารถเจาะลึกเข้าไปในไปป์ไลน์ ML ที่เราใช้เพื่อสร้าง ฝึกฝน และประเมินโมเดล ML ภายในบัญชีการพัฒนา

ไปป์ไลน์ (สร้างขึ้นโดยใช้ ไปป์ไลน์การสร้างแบบจำลอง Amazon SageMaker) เป็นชุดของขั้นตอนที่เชื่อมต่อถึงกันซึ่งกำหนดโดยนิยามไปป์ไลน์ JSON คำจำกัดความไปป์ไลน์นี้เข้ารหัสไปป์ไลน์โดยใช้ Directed Acyclic Graph (DAG) DAG นี้ให้ข้อมูลเกี่ยวกับข้อกำหนดและความสัมพันธ์ระหว่างแต่ละขั้นตอนของไปป์ไลน์ของคุณ โครงสร้างของ DAG ของไปป์ไลน์ถูกกำหนดโดยการขึ้นต่อกันของข้อมูลระหว่างขั้นตอนต่างๆ การขึ้นต่อกันของข้อมูลเหล่านี้ถูกสร้างขึ้นเมื่อคุณสมบัติของเอาต์พุตของขั้นตอนถูกส่งผ่านเป็นอินพุตไปยังอีกขั้นตอนหนึ่ง

เพื่อให้ทีมวิทยาศาสตร์ข้อมูลสร้างโมเดล ML เวอร์ชันใหม่ให้เป็นอัตโนมัติได้อย่างง่ายดาย สิ่งสำคัญคือต้องแนะนำขั้นตอนการตรวจสอบความถูกต้องและข้อมูลอัตโนมัติสำหรับการป้อนและปรับปรุงโมเดล ML อย่างต่อเนื่อง ตลอดจนกลยุทธ์การตรวจสอบโมเดลสำหรับการเปิดใช้ไปป์ไลน์ทริกเกอร์ ไดอะแกรมต่อไปนี้แสดงตัวอย่างไปป์ไลน์

MLO ที่ขอบด้วย Amazon SageMaker Edge Manager และ AWS IoT Greengrass PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

สำหรับการเปิดใช้งานการทำงานอัตโนมัติและความสามารถ MLOps สิ่งสำคัญคือต้องสร้างส่วนประกอบโมดูลาร์สำหรับการสร้างส่วนโค้ดที่นำกลับมาใช้ใหม่ได้ ซึ่งสามารถแบ่งปันได้ในขั้นตอนต่างๆ และกรณีการใช้งาน ML สิ่งนี้ทำให้คุณสามารถย้ายการใช้งานจากขั้นตอนการทดลองไปเป็นขั้นตอนการผลิตได้อย่างรวดเร็วโดยการเปลี่ยนผ่านให้เป็นอัตโนมัติ

ขั้นตอนสำหรับการกำหนดไปป์ไลน์ ML สำหรับการเปิดใช้งานการฝึกอย่างต่อเนื่องและการกำหนดเวอร์ชันของโมเดล ML มีดังนี้:

  • กระบวนการเตรียมการผลิต – กระบวนการล้างข้อมูล วิศวกรรมคุณลักษณะ และการสร้างชุดข้อมูลสำหรับการฝึกอบรมอัลกอริทึม ML
  • การฝึกอบรม – ขั้นตอนการฝึกอบรมอัลกอริธึม ML ที่พัฒนาแล้วสำหรับการสร้างเวอร์ชันใหม่ของสิ่งประดิษฐ์โมเดล ML
  • การประเมินผล – ขั้นตอนการประเมินแบบจำลอง ML ที่สร้างขึ้น เพื่อแยกตัวชี้วัดหลักที่เกี่ยวข้องกับพฤติกรรมของแบบจำลองในข้อมูลใหม่ที่ไม่เห็นในระหว่างขั้นตอนการฝึกอบรม
  • ลงทะเบียน – กระบวนการกำหนดเวอร์ชันของสิ่งประดิษฐ์โมเดล ML ที่ได้รับการฝึกอบรมใหม่โดยการเชื่อมโยงเมตริกที่แยกออกมากับสิ่งประดิษฐ์ที่สร้างขึ้น

คุณสามารถดูรายละเอียดเพิ่มเติมเกี่ยวกับวิธีการสร้างไปป์ไลน์ SageMaker ได้ในต่อไปนี้ สมุดบันทึก.

ทริกเกอร์ไปป์ไลน์ CI/CD โดยใช้ EventBridge

เมื่อคุณสร้างแบบจำลองเสร็จแล้ว คุณสามารถเริ่มกระบวนการปรับใช้ได้ ขั้นตอนสุดท้ายของไปป์ไลน์ SageMaker ที่กำหนดไว้ในส่วนก่อนหน้านี้จะลงทะเบียนเวอร์ชันใหม่ของโมเดลในกลุ่มรีจิสทรีของรุ่น SageMaker ที่ระบุ การปรับใช้เวอร์ชันใหม่ของโมเดล ML ได้รับการจัดการโดยใช้สถานะการลงทะเบียนโมเดล โดยการอนุมัติหรือปฏิเสธเวอร์ชันโมเดล ML ด้วยตนเอง ขั้นตอนนี้จะเพิ่มเหตุการณ์ที่ EventBridge จับภาพไว้ เหตุการณ์นี้สามารถเริ่มต้นไปป์ไลน์ใหม่ (คราวนี้ CI/CD) สำหรับการสร้างเวอร์ชันใหม่ของส่วนประกอบ AWS IoT Greengrass ที่ปรับใช้กับบัญชีก่อนการผลิตและการผลิต ภาพหน้าจอต่อไปนี้แสดงกฎ EventBridge ที่เรากำหนด

MLO ที่ขอบด้วย Amazon SageMaker Edge Manager และ AWS IoT Greengrass PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

กฎนี้ตรวจสอบกลุ่มแพ็คเกจรุ่น SageMaker โดยค้นหาการอัปเดตของแพ็คเกจรุ่นในสถานะ Approved or Rejected.

จากนั้น กฎ EventBridge จะได้รับการกำหนดค่าให้กำหนดเป้าหมาย CodePipeline ซึ่งเริ่มเวิร์กโฟลว์ของการสร้างส่วนประกอบ AWS IoT Greengrass ใหม่โดยใช้ Amazon SageMaker นีโอ และตัวจัดการขอบ

ปรับโมเดล ML ให้เหมาะสมสำหรับสถาปัตยกรรมเป้าหมาย

Neo ช่วยให้คุณปรับโมเดล ML ให้เหมาะสมสำหรับการอนุมานบนอุปกรณ์ Edge (และในระบบคลาวด์) โดยจะปรับโมเดล ML ให้เหมาะสมโดยอัตโนมัติเพื่อประสิทธิภาพที่ดีขึ้นตามสถาปัตยกรรมเป้าหมาย และแยกโมเดลออกจากเฟรมเวิร์กดั้งเดิม ช่วยให้คุณรันบนรันไทม์ที่มีน้ำหนักเบาได้

อ้างถึงสิ่งต่อไปนี้ สมุดบันทึก สำหรับตัวอย่างวิธีการคอมไพล์โมเดล PyTorch Resnet18 โดยใช้ Neo

สร้างแพ็คเกจการปรับใช้โดยรวมส่วนประกอบ AWS IoT Greengrass

Edge Manager ช่วยให้คุณสามารถจัดการ รักษาความปลอดภัย ปรับใช้ และตรวจสอบโมเดลต่างๆ ไปยังกลุ่มอุปกรณ์ Edge ดังต่อไปนี้ สมุดบันทึกคุณสามารถดูรายละเอียดเพิ่มเติมเกี่ยวกับวิธีสร้างกลุ่มอุปกรณ์ Edge แบบมินิมอล และทำการทดลองกับคุณลักษณะนี้ได้

หลังจากที่คุณกำหนดค่าฟลีตและคอมไพล์โมเดลแล้ว คุณต้องรันงานบรรจุภัณฑ์ Edge Manager ซึ่งเตรียมโมเดลที่จะปรับใช้กับฟลีท คุณสามารถเริ่มงานบรรจุภัณฑ์ได้โดยใช้ Boto3 SDK สำหรับพารามิเตอร์ของเรา เราใช้โมเดลและข้อมูลเมตาของโมเดลที่ปรับให้เหมาะสม โดยการเพิ่มพารามิเตอร์ต่อไปนี้ลงใน OutputConfigงานยังเตรียมส่วนประกอบ AWS IoT Greengrass V2 ด้วยโมเดล:

  • PresetDeploymentType
  • PresetDeploymentConfig

ดูรหัสต่อไปนี้:

import boto3
import time

SageMaker_client = boto3.client('SageMaker')

SageMaker_client.create_edge_packaging_job(
    EdgePackagingJobName="mlops-edge-packaging-{}".format(int(time.time()*1000)),
    CompilationJobName=compilation_job_name,
    ModelName="PytorchMLOpsEdgeModel",
    ModelVersion="1.0.0",
    RoleArn=role,
    OutputConfig={
        'S3OutputLocation': 's3://{}/model/'.format(bucket_name),
        "PresetDeploymentType": "GreengrassV2Component",
        "PresetDeploymentConfig": json.dumps(
            {"ComponentName": component_name, "ComponentVersion": component_version}
        ),
    }
)

ปรับใช้โมเดล ML ที่ขอบตามขนาด

ถึงเวลาปรับใช้โมเดลกับอุปกรณ์ Edge ของคุณแล้ว อันดับแรก เราต้องแน่ใจว่าเรามีสิ่งที่จำเป็น AWS Identity และการจัดการการเข้าถึง (ฉัน) สิทธิ์ เพื่อจัดเตรียมอุปกรณ์ IoT ของเราและสามารถปรับใช้ส่วนประกอบได้ เราต้องการองค์ประกอบพื้นฐานสองอย่างในการเริ่มต้นใช้งานอุปกรณ์ในแพลตฟอร์ม IoT ของเรา:

  • นโยบาย IAM – นโยบายนี้อนุญาตให้มีการจัดเตรียมอุปกรณ์ดังกล่าวโดยอัตโนมัติ แนบกับผู้ใช้หรือบทบาทที่ดำเนินการจัดเตรียม ควรมีสิทธิ์เขียน IoT เพื่อสร้างสิ่งและกลุ่ม IoT รวมทั้งแนบนโยบายที่จำเป็นกับอุปกรณ์ สำหรับข้อมูลเพิ่มเติม โปรดดูที่ นโยบาย IAM ขั้นต่ำสำหรับผู้ติดตั้งเพื่อจัดเตรียมทรัพยากร.
  • บทบาท IAM – บทบาทนี้แนบมากับสิ่งของและกลุ่ม IoT ที่เราสร้างขึ้น คุณสามารถสร้างบทบาทนี้ได้ในเวลาเตรียมใช้งานด้วยการอนุญาตพื้นฐาน แต่จะขาดคุณสมบัติเช่นการเข้าถึง Amazon S3 หรือ บริการจัดการคีย์ AWS (AWS KMS) ที่อาจต้องใช้ในภายหลัง คุณสามารถสร้างบทบาทนี้ได้ล่วงหน้าและนำมาใช้ใหม่เมื่อเราจัดเตรียมอุปกรณ์ สำหรับข้อมูลเพิ่มเติม โปรดดูที่ อนุญาตให้อุปกรณ์หลักโต้ตอบกับ AWS.

การติดตั้งและการจัดเตรียม AWS IoT Greengrass

หลังจากที่เรามีนโยบายและบทบาท IAM แล้ว เราก็พร้อมที่จะ ติดตั้งซอฟต์แวร์ AWS IoT Greengrass Core พร้อมการจัดเตรียมทรัพยากรอัตโนมัติ. แม้ว่าจะเป็นไปได้ที่จะจัดเตรียมทรัพยากร IoT โดยทำตามขั้นตอนด้วยตนเอง แต่ก็มีขั้นตอนที่สะดวกในการจัดสรรทรัพยากรเหล่านี้โดยอัตโนมัติระหว่างการติดตั้งนิวเคลียส AWS IoT Greengrass v2 นี่เป็นตัวเลือกที่ต้องการในการติดตั้งอุปกรณ์ใหม่เข้าสู่แพลตฟอร์มอย่างรวดเร็ว นอกจากนี้ default-jdkจำเป็นต้องติดตั้งแพ็คเกจอื่นเช่น curl, unzipและ python3.

เมื่อเราจัดเตรียมอุปกรณ์ ชื่อสิ่ง IoT จะต้องเหมือนกับอุปกรณ์ edge ที่กำหนดไว้ใน Edge Manager ทุกประการ ไม่เช่นนั้นข้อมูลจะไม่ถูกบันทึกไปยังบัคเก็ต S3 ปลายทาง

โปรแกรมติดตั้งสามารถสร้างบทบาทและนามแฝง AWS IoT Greengrass ระหว่างการติดตั้งได้หากไม่มีอยู่ อย่างไรก็ตาม สิ่งเหล่านี้จะถูกสร้างขึ้นโดยมีการอนุญาตน้อยที่สุด และจะต้องมีการเพิ่มนโยบายด้วยตนเองเพื่อโต้ตอบกับบริการอื่นๆ เช่น Amazon S3 เราขอแนะนำให้สร้างทรัพยากร IAM เหล่านี้ไว้ล่วงหน้าดังที่แสดงไว้ก่อนหน้านี้ แล้วนำมาใช้ใหม่เมื่อคุณเริ่มใช้งานอุปกรณ์ใหม่ในบัญชี

บรรจุภัณฑ์แบบจำลองและการอนุมาน

หลังจากที่โค้ดของเราได้รับการพัฒนาแล้ว เราสามารถปรับใช้ทั้งโค้ด (สำหรับการอนุมาน) และโมเดล ML ของเราเป็นส่วนประกอบในอุปกรณ์ของเรา

หลังจากที่โมเดล ML ได้รับการฝึกใน SageMaker คุณสามารถเพิ่มประสิทธิภาพโมเดลด้วย Neo โดยใช้งานการรวบรวม Sagemaker ผลลัพธ์ของแบบจำลองที่คอมไพล์แล้ว สามารถจัดแพ็คเกจเป็นส่วนประกอบ GreenGrass V2 โดยใช้ตัวจัดการแพ็คเกจของ Edge Manager จากนั้นสามารถลงทะเบียนเป็นส่วนประกอบที่กำหนดเองใน ส่วนประกอบของฉัน ส่วนบนคอนโซล AWS IoT Greengrass คอมโพเนนต์นี้มีคำสั่งวงจรชีวิตที่จำเป็นอยู่แล้วในการดาวน์โหลดและขยายขนาดสิ่งประดิษฐ์ของโมเดลในอุปกรณ์ของเรา เพื่อให้โค้ดการอนุมานสามารถโหลดขึ้นเพื่อส่งภาพที่ถ่ายมาได้

เกี่ยวกับโค้ดการอนุมาน เราต้องสร้างส่วนประกอบโดยใช้คอนโซลหรือ อินเทอร์เฟซบรรทัดคำสั่ง AWS AWS (AWS CLI). อันดับแรก เราแพ็คโค้ดการอนุมานแหล่งที่มาและการพึ่งพาที่จำเป็นไปยัง Amazon S3 หลังจากที่เราอัปโหลดโค้ดแล้ว เราก็สามารถสร้างส่วนประกอบของเราโดยใช้สูตรใน .yaml หรือ JSON ดังตัวอย่างต่อไปนี้:

---
RecipeFormatVersion: 2020-01-25
ComponentName: dummymodel.inference
ComponentVersion: 0.0.1
ComponentDescription: Deploys inference code to a client
ComponentPublisher: Amazon Web Services, Inc.
ComponentDependencies:
  aws.GreenGrass.TokenExchangeService:
    VersionRequirement: '>=0.0.0'
    DependencyType: HARD
  dummymodel:
    VersionRequirement: '>=0.0.0'
    DependencyType: HARD
Manifests:
  - Platform:
      os: linux
      architecture: "*"
    Lifecycle:
      install: |-
        apt-get install python3-pip
        pip3 install numpy
        pip3 install sysv_ipc
        pip3 install boto3
        pip3 install grpcio-tools
        pip3 install grpcio
        pip3 install protobuf
        pip3 install SageMaker
        tar xf {artifacts:path}/sourcedir.tar.gz
      run:
        script: |-
          sleep 5 && sudo python3 {work:path}/inference.py 
    Artifacts:
      - URI: s3://BUCKET-NAME/path/to/inference/sourcedir.tar.gz
        Permission:
          Execute: OWNER

สูตรตัวอย่างนี้แสดงชื่อและคำอธิบายของส่วนประกอบของเรา ตลอดจนข้อกำหนดเบื้องต้นที่จำเป็นก่อนคำสั่งเรียกใช้สคริปต์ของเรา สูตรจะแกะสิ่งประดิษฐ์ในสภาพแวดล้อมโฟลเดอร์งานในอุปกรณ์ และเราใช้เส้นทางนั้นเพื่อเรียกใช้รหัสการอนุมานของเรา คำสั่ง AWS CLI เพื่อสร้างสูตรดังกล่าวคือ:

aws greengrassv2 create-component-version --region $REGION 
                                          --inline-recipe fileb://path/to/recipe.yaml

ตอนนี้คุณสามารถดูส่วนประกอบนี้ที่สร้างขึ้นบนคอนโซล AWS IoT Greengrass

ระวังข้อเท็จจริงที่ว่าเวอร์ชันส่วนประกอบมีความสำคัญ และต้องระบุไว้ในไฟล์สูตร การทำซ้ำหมายเลขเวอร์ชันเดียวกันจะส่งคืนข้อผิดพลาด

หลังจากที่สร้างโมเดลและโค้ดการอนุมานเป็นส่วนประกอบแล้ว เราก็พร้อมที่จะปรับใช้พวกมัน

ปรับใช้แอปพลิเคชันและโมเดลโดยใช้ AWS IoT Greengrass

ในส่วนก่อนหน้านี้ คุณได้เรียนรู้วิธีจัดแพ็กเกจโค้ดการอนุมานและโมเดล ML ตอนนี้ เราสามารถสร้างการปรับใช้ที่มีส่วนประกอบหลายอย่างที่มีทั้งส่วนประกอบและการกำหนดค่าที่จำเป็นสำหรับโค้ดการอนุมานของเราในการโต้ตอบกับโมเดลในอุปกรณ์ Edge

เอเจนต์ Edge Manager เป็นส่วนประกอบที่ควรติดตั้งบนอุปกรณ์ Edge แต่ละเครื่อง เพื่อเปิดใช้งานความสามารถ Edge Manager ทั้งหมด บนคอนโซล SageMaker เรามีกลุ่มอุปกรณ์ที่กำหนดไว้ซึ่งมีบัคเก็ต S3 ที่เกี่ยวข้อง อุปกรณ์ Edge ทั้งหมดที่เชื่อมโยงกับฟลีตจะบันทึกและรายงานข้อมูลไปยังเส้นทาง S3 นี้ สามารถปรับใช้เอเจนต์เป็นส่วนประกอบใน AWS IoT Greengrass v2 ได้ ซึ่งทำให้ติดตั้งและกำหนดค่าได้ง่ายกว่าการปรับใช้เอเจนต์ในโหมดสแตนด์อโลน เมื่อปรับใช้เอเจนต์เป็นส่วนประกอบ เราจำเป็นต้องระบุพารามิเตอร์การกำหนดค่า ได้แก่ กลุ่มอุปกรณ์และเส้นทาง S3

เราสร้างการกำหนดค่าการปรับใช้ด้วยส่วนประกอบที่กำหนดเองสำหรับโมเดลและโค้ดที่เราเพิ่งสร้างขึ้น การตั้งค่านี้กำหนดไว้ในไฟล์ JSON ที่แสดงรายการชื่อและเป้าหมายการปรับใช้ ตลอดจนส่วนประกอบในการปรับใช้ เราสามารถเพิ่มและอัปเดตพารามิเตอร์การกำหนดค่าของแต่ละองค์ประกอบได้ เช่น ในเอเจนต์ Edge Manager ซึ่งเราระบุชื่อฟลีทและบัคเก็ต

{
    "targetArn": "targetArn",
    "deploymentName": "dummy-deployment",
    "components": {
        "aws.GreenGrass.Nucleus": {
            "version": "2.5.3",
        },
        "aws.GreenGrass.Cli": {
            "version": "2.5.3"
        },
        "aws.GreenGrass.SageMakerEdgeManager": {
            "version": 1.1.0,
            "configurationUpdate": {
                "merge": {
                "DeviceFleetName": "FLEET-NAME",
                "BucketName": "BUCKET-NAME-URI"
                }
            }
        },
        "dummymodel.inference": {
            "version": "0.0.1"
        },
        "dummymodel": {
            "version": "0.0.1"
        }
    }
}

เป็นที่น่าสังเกตว่าเราได้เพิ่มไม่เพียงแต่โมเดล ส่วนประกอบการอนุมาน และเอเจนต์ แต่ยังรวมถึง AWS IoT Greengrass CLI และนิวเคลียสเป็นส่วนประกอบ อดีตสามารถช่วยดีบักการปรับใช้บางอย่างในเครื่องได้ ส่วนหลังถูกเพิ่มในการปรับใช้เพื่อกำหนดค่าการเข้าถึงเครือข่ายที่จำเป็นจากตัวอุปกรณ์เอง หากจำเป็น (เช่น การตั้งค่าพร็อกซี) และในกรณีที่คุณต้องการอัปเกรด OTA ของนิวเคลียส AWS IoT Greengrass v2 ไม่มีการปรับใช้นิวเคลียสเนื่องจากมีการติดตั้งไว้ในอุปกรณ์ และจะใช้เฉพาะการอัปเดตการกำหนดค่าเท่านั้น (เว้นแต่จะมีการอัปเกรด) ในการปรับใช้ เราเพียงแค่เรียกใช้คำสั่งต่อไปนี้เหนือการกำหนดค่าก่อนหน้า อย่าลืมตั้งค่า ARN เป้าหมายที่จะปรับใช้ (สิ่ง IoT หรือกลุ่ม IoT) เรายังปรับใช้ส่วนประกอบเหล่านี้ได้จากคอนโซล

aws greengrassv2 create-deployment --region $REGION 
                                   --cli-input-json file://path/to/deployment.json

ตรวจสอบและจัดการโมเดล ML ที่ปรับใช้กับขอบ

เมื่อแอปพลิเคชันของคุณทำงานบนอุปกรณ์ Edge ก็ถึงเวลาทำความเข้าใจวิธีตรวจสอบกลุ่มยานพาหนะเพื่อปรับปรุงการกำกับดูแล การบำรุงรักษา และการมองเห็น บนคอนโซล SageMaker ให้เลือก ผู้จัดการขอบ ในบานหน้าต่างนำทาง จากนั้นเลือก กองอุปกรณ์ขอบ. จากที่นี่ เลือกกองเรือของคุณ

MLO ที่ขอบด้วย Amazon SageMaker Edge Manager และ AWS IoT Greengrass PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

ในหน้ารายละเอียดของฟลีท คุณสามารถดูข้อมูลเมตาบางรุ่นของรุ่นที่ทำงานอยู่ในอุปกรณ์แต่ละรุ่นของฟลีทของคุณ รายงาน Fleet ถูกสร้างขึ้นทุก ๆ 24 ชั่วโมง

MLO ที่ขอบด้วย Amazon SageMaker Edge Manager และ AWS IoT Greengrass PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

ข้อมูลที่บันทึกโดยแต่ละอุปกรณ์ผ่าน Edge Agent จะถูกส่งไปยังบัคเก็ต S3 ในรูปแบบ json lines (JSONL) กระบวนการส่งข้อมูลที่จับได้รับการจัดการจากมุมมองของแอปพลิเคชัน คุณจึงมีอิสระในการตัดสินใจว่าจะส่งข้อมูลนี้หรือไม่ อย่างไร และบ่อยแค่ไหน

MLO ที่ขอบด้วย Amazon SageMaker Edge Manager และ AWS IoT Greengrass PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

คุณสามารถใช้ข้อมูลนี้ในหลายๆ อย่างได้ เช่น การตรวจสอบการเคลื่อนตัวของข้อมูลและคุณภาพของแบบจำลอง การสร้างชุดข้อมูลใหม่ การเพิ่มประสิทธิภาพของ Data Lake และอื่นๆ ตัวอย่างง่ายๆ ของวิธีใช้ข้อมูลนี้คือเมื่อคุณระบุข้อมูลบางส่วนที่เบี่ยงเบนไปในทางที่ผู้ใช้โต้ตอบกับแอปพลิเคชันของคุณ และคุณจำเป็นต้องฝึกโมเดลใหม่ จากนั้นคุณสร้างชุดข้อมูลใหม่ที่มีข้อมูลที่จับได้และคัดลอกกลับไปที่บัญชีการพัฒนา การดำเนินการนี้สามารถเริ่มต้นการรันสภาพแวดล้อมใหม่โดยอัตโนมัติซึ่งสร้างโมเดลใหม่และปรับใช้กับฟลีตทั้งหมดเพื่อรักษาประสิทธิภาพของโซลูชันที่ปรับใช้

สรุป

ในโพสต์นี้ คุณได้เรียนรู้วิธีสร้างโซลูชันที่สมบูรณ์ซึ่งรวม MLOps และ ML@Edge โดยใช้บริการของ AWS การสร้างโซลูชันดังกล่าวไม่ใช่เรื่องเล็กน้อย แต่เราหวังว่าสถาปัตยกรรมอ้างอิงที่นำเสนอในโพสต์นี้สามารถสร้างแรงบันดาลใจและช่วยคุณสร้างสถาปัตยกรรมที่มั่นคงสำหรับความท้าทายทางธุรกิจของคุณเอง คุณยังสามารถใช้เฉพาะส่วนหรือโมดูลของสถาปัตยกรรมนี้ที่รวมเข้ากับสภาพแวดล้อม MLOps ที่มีอยู่ของคุณ ด้วยการสร้างต้นแบบทีละโมดูลและใช้บริการของ AWS ที่เหมาะสมเพื่อจัดการกับความท้าทายนี้แต่ละส่วน คุณจะสามารถเรียนรู้วิธีสร้างสภาพแวดล้อม MLOps ที่มีประสิทธิภาพและทำให้สถาปัตยกรรมขั้นสุดท้ายง่ายขึ้น

ในขั้นตอนต่อไป เราขอแนะนำให้คุณลองใช้ Sagemaker Edge Manager เพื่อจัดการ ML ของคุณที่ edge lifecycle สำหรับข้อมูลเพิ่มเติมเกี่ยวกับวิธีการทำงานของ Edge Manager โปรดดูที่ ปรับใช้โมเดลที่ Edge ด้วย SageMaker Edge Manager .


เกี่ยวกับผู้แต่ง

MLO ที่ขอบด้วย Amazon SageMaker Edge Manager และ AWS IoT Greengrass PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.บรูโน่ พิสตัน เป็นสถาปนิก AI/ML Specialist Solutions Architect สำหรับ AWS ซึ่งตั้งอยู่ในมิลาน เขาทำงานร่วมกับลูกค้าทุกขนาดเพื่อช่วยให้พวกเขาเข้าใจความต้องการทางเทคนิคอย่างลึกซึ้งและออกแบบโซลูชัน AI และ Machine Learning ที่ใช้ประโยชน์จาก AWS Cloud และสแต็ค Amazon Machine Learning ได้ดีที่สุด ความเชี่ยวชาญของเขาได้แก่ Machine Learning end to end, Machine Learning Industrialization และ MLOps เขาสนุกกับการใช้เวลากับเพื่อน ๆ และสำรวจสถานที่ใหม่ ๆ รวมทั้งการเดินทางไปยังจุดหมายปลายทางใหม่ ๆ

MLO ที่ขอบด้วย Amazon SageMaker Edge Manager และ AWS IoT Greengrass PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.มัตเตโอ คาลาเบรเซ่ คือ AI/ML Customer Delivery Architect ในทีม AWS Professional Services เขาทำงานร่วมกับองค์กรขนาดใหญ่ของ EMEA ในโครงการ AI/ML ช่วยพวกเขาในการนำเสนอ ออกแบบ ส่งมอบ ปรับขนาด และเพิ่มประสิทธิภาพปริมาณงานการผลิต ML ความเชี่ยวชาญหลักของเขาคือ ML Operation (MLOps) และ Machine Learning ที่ Edge เป้าหมายของเขาคือการย่นระยะเวลาในการสร้างมูลค่าและเร่งรัดผลลัพธ์ทางธุรกิจด้วยการมอบแนวทางปฏิบัติที่ดีที่สุดของ AWS ในเวลาว่าง เขาชอบเดินป่าและท่องเที่ยว

MLO ที่ขอบด้วย Amazon SageMaker Edge Manager และ AWS IoT Greengrass PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.ราอูล ดิอาซ การ์เซีย เป็น Sr Data Scientist ในทีม AWS Professional Services เขาทำงานร่วมกับลูกค้าองค์กรขนาดใหญ่ทั่ว EMEA ซึ่งเขาช่วยให้พวกเขาเปิดใช้งานโซลูชันที่เกี่ยวข้องกับ Computer Vision และ Machine Learning ในพื้นที่ IoT

MLO ที่ขอบด้วย Amazon SageMaker Edge Manager และ AWS IoT Greengrass PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.โซคราติส คาร์ทาคิส เป็นสถาปนิกอาวุโสด้านโซลูชัน Machine Learning Specialist สำหรับ Amazon Web Services Sokratis มุ่งเน้นที่การทำให้ลูกค้าองค์กรสามารถพัฒนาโซลูชัน Machine Learning (ML) ของตนให้เป็นอุตสาหกรรมโดยใช้ประโยชน์จากบริการของ AWS และกำหนดรูปแบบการดำเนินงาน เช่น รากฐาน MLOps และแผนงานการเปลี่ยนแปลงโดยใช้แนวทางปฏิบัติด้านการพัฒนาที่ดีที่สุด เขาใช้เวลามากกว่า 15 ปีในการประดิษฐ์ ออกแบบ เป็นผู้นำ และใช้โซลูชัน ML ระดับการผลิตแบบ end-to-end และ Internet of Things (IoT) ที่เป็นนวัตกรรมใหม่ในด้านพลังงาน การค้าปลีก สุขภาพ การเงิน/การธนาคาร มอเตอร์สปอร์ต ฯลฯ Sokratis ชอบใช้เวลาว่างกับครอบครัวและเพื่อนฝูง หรือขี่มอเตอร์ไซค์

MLO ที่ขอบด้วย Amazon SageMaker Edge Manager และ AWS IoT Greengrass PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.ซามีร์ อาเราโจ เป็นสถาปนิกโซลูชัน AI/ML ที่ AWS เขาช่วยลูกค้าสร้างโซลูชัน AI/ML ซึ่งแก้ปัญหาทางธุรกิจโดยใช้ AWS เขาเคยทำงานในโครงการ AI/ML หลายโครงการที่เกี่ยวข้องกับการมองเห็นด้วยคอมพิวเตอร์ การประมวลผลภาษาธรรมชาติ การพยากรณ์ ML ที่ขอบ และอีกมากมาย เขาชอบเล่นโปรเจ็กต์ฮาร์ดแวร์และระบบอัตโนมัติในเวลาว่าง และมีความสนใจเป็นพิเศษในด้านวิทยาการหุ่นยนต์

ประทับเวลา:

เพิ่มเติมจาก AWS Machine Learning AWS

วิธีที่ Amp บน Amazon ใช้ข้อมูลเพื่อเพิ่มการมีส่วนร่วมของลูกค้า ส่วนที่ 2: การสร้างแพลตฟอร์มการแนะนำรายการส่วนบุคคลโดยใช้ Amazon SageMaker

โหนดต้นทาง: 1660820
ประทับเวลา: กันยายน 9, 2022