ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU

การตรวจจับข้อบกพร่องอัตโนมัติโดยใช้คอมพิวเตอร์วิทัศน์ช่วยปรับปรุงคุณภาพและลดต้นทุนการตรวจสอบ การตรวจจับข้อบกพร่องเกี่ยวข้องกับการระบุการมีอยู่ของข้อบกพร่อง การจำแนกประเภทของข้อบกพร่อง และการระบุตำแหน่งของข้อบกพร่อง กระบวนการผลิตจำนวนมากต้องการการตรวจจับที่เวลาแฝงต่ำ โดยมีทรัพยากรในการประมวลผลที่จำกัด และการเชื่อมต่อที่จำกัด

Amazon Lookout สำหรับวิสัยทัศน์ คือบริการการเรียนรู้ของเครื่อง (ML) ที่ช่วยระบุข้อบกพร่องของผลิตภัณฑ์โดยใช้คอมพิวเตอร์วิทัศน์เพื่อทำให้กระบวนการตรวจสอบคุณภาพในสายการผลิตของคุณเป็นไปโดยอัตโนมัติ โดยไม่ต้องมีความเชี่ยวชาญด้าน ML Lookout for Vision รวมความสามารถในการระบุตำแหน่งและประเภทของความผิดปกติโดยใช้แบบจำลอง ML การแบ่งส่วนความหมาย โมเดล ML ที่กำหนดเองเหล่านี้สามารถปรับใช้กับ AWS Cloud ได้โดยใช้ API บนคลาวด์ หรือฮาร์ดแวร์ขอบแบบกำหนดเองโดยใช้ AWS IoT กรีนกราส. Lookout for Vision รองรับการอนุมานบนแพลตฟอร์มประมวลผล x86 ที่ทำงานบน Linux โดยมีหรือไม่มีตัวเร่ง GPU ของ NVIDIA และบนอุปกรณ์ Edge ที่ใช้ NVIDIA Jetson ความยืดหยุ่นนี้ช่วยให้สามารถตรวจจับข้อบกพร่องในฮาร์ดแวร์ที่มีอยู่หรือใหม่ได้

ในโพสต์นี้ เราจะแสดงวิธีการตรวจหาชิ้นส่วนที่บกพร่องโดยใช้ Lookout สำหรับรุ่น Vision ML ที่ทำงานบนอุปกรณ์ Edge ซึ่งเราจำลองโดยใช้ อเมซอน อีลาสติก คอมพิวท์ คลาวด์ (Amazon EC2) อินสแตนซ์ เราดำเนินการฝึกอบรมโมเดลการแบ่งเซ็กเมนต์เชิงความหมายใหม่ ส่งออกเป็นส่วนประกอบ AWS IoT Greengrass และเรียกใช้การอนุมานในโหมด CPU เท่านั้นด้วยโค้ดตัวอย่าง Python

ภาพรวมโซลูชัน

ในโพสต์นี้เราใช้ชุดรูปภาพของ มนุษย์ต่างดาวของเล่น ประกอบด้วยภาพปกติและภาพที่มีข้อบกพร่อง เช่น แขนขา ตา หรือส่วนอื่นๆ ที่หายไป เราฝึกโมเดล Lookout for Vision ในคลาวด์เพื่อระบุของเล่นเอเลี่ยนที่มีข้อบกพร่อง เรารวบรวมโมเดลเป็น CPU X86 เป้าหมาย จัดแพ็คเกจ Lookout for Vision model ที่ผ่านการฝึกอบรมเป็นส่วนประกอบ AWS IoT Greengrass และปรับใช้โมเดลกับอินสแตนซ์ EC2 โดยไม่ต้องใช้ GPU โดยใช้คอนโซล AWS IoT Greengrass สุดท้าย เราสาธิตแอปพลิเคชันตัวอย่างที่ใช้ Python ที่ทำงานบนอินสแตนซ์ EC2 (C5a.2xl) ที่จัดหารูปภาพของเล่นต่างด้าวจากระบบไฟล์ของอุปกรณ์ Edge เรียกใช้การอนุมานบนโมเดล Lookout for Vision โดยใช้ ก.ร.ป ส่วนต่อประสานและส่งข้อมูลการอนุมานไปที่an MQTT หัวข้อใน AWS Cloud สคริปต์จะแสดงรูปภาพที่มีสีและตำแหน่งของข้อบกพร่องบนรูปภาพที่ผิดปกติ

ไดอะแกรมต่อไปนี้แสดงสถาปัตยกรรมโซลูชัน สิ่งสำคัญที่ควรทราบสำหรับข้อบกพร่องแต่ละประเภทที่คุณต้องการตรวจจับในการโลคัลไลเซชัน คุณต้องมีรูปภาพความผิดปกติที่ทำเครื่องหมายไว้ 10 รูปในการฝึก และ 10 ภาพในข้อมูลทดสอบ รวมเป็นภาพประเภทนั้นทั้งหมด 20 รูป สำหรับโพสต์นี้ เราค้นหาชิ้นส่วนที่ขาดหายไปของของเล่น

โซลูชันมีเวิร์กโฟลว์ต่อไปนี้:

  1. อัปโหลดชุดข้อมูลการฝึกและชุดข้อมูลทดสอบไปที่ บริการจัดเก็บข้อมูลอย่างง่ายของ Amazon (อเมซอน เอส3).
  2. ใช้ Lookout for Vision UI ใหม่เพื่อเพิ่มประเภทความผิดปกติและทำเครื่องหมายว่าความผิดปกตินั้นอยู่ที่ใดในภาพการฝึกและทดสอบ
  3. ฝึกโมเดล Lookout for Vision ในระบบคลาวด์
  4. รวบรวมโมเดลไปยังสถาปัตยกรรมเป้าหมาย (X86) และปรับใช้โมเดลกับอินสแตนซ์ EC2 (C5a.2xl) โดยใช้คอนโซล AWS IoT Greengrass
  5. แหล่งที่มาของอิมเมจจากโลคัลดิสก์
  6. เรียกใช้การอนุมานบนโมเดลที่ปรับใช้ผ่านอินเทอร์เฟซ gRPC และดึงรูปภาพของมาสก์ความผิดปกติที่ซ้อนทับบนรูปภาพต้นฉบับ
  7. โพสต์ผลการอนุมานไปยังไคลเอนต์ MQTT ที่ทำงานบนอินสแตนซ์ขอบ
  8. รับข้อความ MQTT ในหัวข้อใน AWS IoT คอร์ ใน AWS Cloud สำหรับการตรวจสอบและการแสดงภาพเพิ่มเติม

ขั้นตอนที่ 5, 6 และ 7 ประสานกับตัวอย่างแอปพลิเคชัน Python

เบื้องต้น

ก่อนที่คุณจะเริ่มต้น ให้ทำตามข้อกำหนดเบื้องต้นต่อไปนี้ สำหรับโพสต์นี้ เราใช้อินสแตนซ์ EC2 c5.2xl และติดตั้ง AWS IoT Greengrass V2 เพื่อทดลองใช้คุณสมบัติใหม่ หากคุณต้องการใช้งานบน NVIDIA Jetson ให้ทำตามขั้นตอนในโพสต์ก่อนหน้าของเรา ขณะนี้ Amazon Lookout for Vision รองรับการตรวจสอบข้อบกพร่องของผลิตภัณฑ์ที่ขอบด้วยสายตาแล้ว.

  1. สร้างบัญชี AWS.
  2. เริ่มอินสแตนซ์ EC2 ที่เราสามารถติดตั้ง AWS IoT Greengrass และใช้โหมดการอนุมานเฉพาะ CPU ใหม่ได้ คุณยังสามารถใช้เครื่อง Intel X86 64 บิตที่มี ram 8 กิกะไบต์ขึ้นไป (เราใช้ c5a.2xl แต่อะไรก็ได้ที่มี มากกว่า 8 กิกะไบต์บนแพลตฟอร์ม x86 ควรใช้งานได้) ที่ใช้ Ubuntu 20.04
  3. ติดตั้ง AWS IoT Greengrass V2:
    git clone https://github.com/aws-samples/amazon-lookout-for-vision.git
    cd edge
    # be sure to edit the installation script to match your region, also adjust any device names and groups!
    vi install_greengrass.sh

  4. ติดตั้งระบบที่จำเป็นและการพึ่งพา Python 3 (Ubuntu 20.04):
    # install Ubuntu dependencies on the EC2 instance
    ./install-ec2-ubuntu-deps.sh
    pip3 install -r requirements.txt
    # Replace ENDPOINT variable in sample-client-file-mqtt.py with the value on the AWS console AWS IoT->Things->l4JetsonXavierNX->Interact.  
    # Under HTTPS. It will be of type <name>-ats.iot.<region>.amazon.com 

อัปโหลดชุดข้อมูลและฝึกโมเดล

เราใช้ ชุดข้อมูลของเล่นมนุษย์ต่างดาว เพื่อแสดงวิธีแก้ปัญหา ชุดข้อมูลประกอบด้วยภาพปกติและผิดปกติ นี่คือภาพตัวอย่างบางส่วนจากชุดข้อมูล

รูปภาพต่อไปนี้แสดงของเล่นมนุษย์ต่างดาวปกติ

ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

รูปภาพต่อไปนี้แสดงของเล่นต่างด้าวที่ไม่มีขา

ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

รูปภาพต่อไปนี้แสดงของเล่นต่างดาวที่ขาดหัว

ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

ในโพสต์นี้ เรามองหาแขนขาที่ขาดหายไป เราใช้อินเทอร์เฟซผู้ใช้ใหม่เพื่อวาดหน้ากากรอบข้อบกพร่องในข้อมูลการฝึกอบรมและการทดสอบของเรา สิ่งนี้จะบอกโมเดลการแบ่งส่วนความหมายว่าจะระบุข้อบกพร่องประเภทนี้ได้อย่างไร

  1. เริ่มต้นด้วยการอัปโหลดชุดข้อมูลของคุณ ผ่าน Amazon S3 หรือจากคอมพิวเตอร์ของคุณ
  2. จัดเรียงลงในโฟลเดอร์ชื่อ normal และ anomaly.
  3. เมื่อสร้างชุดข้อมูลของคุณ ให้เลือก ติดป้ายกำกับรูปภาพโดยอัตโนมัติตามชื่อโฟลเดอร์ซึ่งช่วยให้เราสามารถแยกแยะภาพผิดปกติในภายหลังและวาดในพื้นที่ที่จะติดป้ายว่ามีข้อบกพร่อง
    ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.
  4. พยายามระงับภาพบางส่วนเพื่อทดสอบในภายหลังของทั้งสอง normal และ anomaly.
  5. หลังจากเพิ่มรูปภาพทั้งหมดลงในชุดข้อมูลแล้ว ให้เลือก เพิ่มป้ายกำกับความผิดปกติ.
  6. เริ่มการติดฉลากข้อมูลโดยเลือก เริ่มติดฉลาก.
  7. เพื่อเพิ่มความเร็วในกระบวนการ คุณสามารถเลือกหลายภาพและจำแนกเป็น Normal or Anomaly.
    ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.
    หากคุณต้องการเน้นความผิดปกตินอกเหนือจากการจำแนกประเภท คุณจะต้องเน้นว่าความผิดปกตินั้นอยู่ที่ใด
  8. เลือกรูปภาพที่คุณต้องการใส่คำอธิบายประกอบ
  9. ใช้เครื่องมือวาดภาพเพื่อแสดงส่วนที่ขาดหายไปของวัตถุ หรือวาดหน้ากากเหนือจุดบกพร่อง
  10. Choose ส่งและปิด เพื่อรักษาการเปลี่ยนแปลงเหล่านี้
    ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.
  11. ทำขั้นตอนนี้ซ้ำสำหรับรูปภาพทั้งหมดของคุณ
  12. เสร็จแล้วเลือก ลด เพื่อยืนยันการเปลี่ยนแปลงของคุณ ตอนนี้คุณพร้อมที่จะฝึกโมเดลของคุณแล้ว
    ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.
  13. Choose โมเดลรถไฟ.

หลังจากคุณทำตามขั้นตอนเหล่านี้แล้ว คุณสามารถนำทางไปยังโปรเจ็กต์และ Models หน้าเพื่อตรวจสอบประสิทธิภาพของรุ่นที่ได้รับการฝึกอบรม คุณสามารถเริ่มกระบวนการส่งออกแบบจำลองไปยังอุปกรณ์ขอบเป้าหมายได้ตลอดเวลาหลังจากที่แบบจำลองได้รับการฝึกอบรม

ฝึกโมเดลใหม่ด้วยรูปภาพที่แก้ไขแล้ว

บางครั้งการติดแท็กความผิดปกติอาจไม่ถูกต้องนัก คุณมีโอกาสที่จะช่วยให้แบบจำลองของคุณเรียนรู้ความผิดปกติได้ดีขึ้น ตัวอย่างเช่น รูปภาพต่อไปนี้ถูกระบุว่าเป็นความผิดปกติ แต่ไม่แสดง missing_limbs แท็ก

ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

มาเปิดตัวแก้ไขและแก้ไขปัญหานี้กัน

ผ่านภาพใด ๆ ที่คุณพบเช่นนี้ หากคุณพบว่ามีการแท็กความผิดปกติอย่างไม่ถูกต้อง คุณสามารถใช้เครื่องมือยางลบเพื่อลบแท็กที่ไม่ถูกต้อง

ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

ตอนนี้คุณสามารถฝึกโมเดลของคุณอีกครั้งและบรรลุความแม่นยำที่ดีขึ้น

รวบรวมและจัดแพ็คเกจโมเดลเป็นส่วนประกอบ AWS IoT Greengrass

ในส่วนนี้ เราจะอธิบายขั้นตอนต่างๆ ในการรวบรวมโมเดลของเล่นเอเลี่ยนไปยังอุปกรณ์ Edge เป้าหมายของเรา และจัดแพ็คเกจโมเดลเป็นส่วนประกอบ AWS IoT Greengrass

  1. บนคอนโซล Lookout for Vision ให้เลือกโปรเจ็กต์ของคุณ
  2. ในบานหน้าต่างนำทาง เลือก แพ็คเกจรุ่นขอบ.
  3. Choose สร้างงานโมเดลบรรจุภัณฑ์.
  4. สำหรับ ชื่องาน, ป้อนชื่อ
  5. สำหรับ รายละเอียดงานป้อนคำอธิบายเพิ่มเติม
  6. Choose เรียกดูรุ่น.
  7. เลือกรุ่นโมเดล (โมเดลของเล่นเอเลี่ยนที่สร้างขึ้นในส่วนก่อนหน้า)
  8. Choose Choose.
    ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.
  9. หากคุณใช้งานสิ่งนี้บน Amazon EC2 หรืออุปกรณ์ X86-64 ให้เลือก แพลตฟอร์มเป้าหมาย และเลือก ลินุกซ์, X86และ ซีพียู.
    หากใช้ CPU คุณสามารถเว้นตัวเลือกคอมไพเลอร์ว่างไว้ได้หากคุณไม่แน่ใจและไม่มี NVIDIA GPU หากคุณมีแพลตฟอร์มที่ใช้ Intel ที่รองรับ AVX512 คุณสามารถเพิ่มตัวเลือกคอมไพเลอร์เหล่านี้เพื่อปรับให้เหมาะสมเพื่อประสิทธิภาพที่ดีขึ้น: {"mcpu": "skylake-avx512"}.
    ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.คุณสามารถดูชื่องานและสถานะของคุณที่แสดงเป็น In progress. งานบรรจุภัณฑ์แบบจำลองอาจใช้เวลาสักครู่จึงจะเสร็จสมบูรณ์ เมื่องานบรรจุภัณฑ์แบบจำลองเสร็จสมบูรณ์ สถานะจะแสดงเป็น Success.
  10. เลือกชื่องานของคุณ (ในกรณีของเราคือ aliensblogcpux86) เพื่อดูรายละเอียดงาน
    ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.
  11. Choose สร้างงานโมเดลบรรจุภัณฑ์.
    ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.
  12. ใส่รายละเอียดสำหรับ ชื่อส่วนประกอบ, คำอธิบายส่วนประกอบ (ไม่จำเป็น), เวอร์ชันส่วนประกอบและ ตำแหน่งส่วนประกอบ.Lookout for Vision จัดเก็บสูตรส่วนประกอบและสิ่งประดิษฐ์ในตำแหน่ง Amazon S3 นี้
  13. Choose ปรับใช้ต่อใน Greengrass เพื่อปรับใช้ส่วนประกอบกับอุปกรณ์ขอบเป้าหมาย
    ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

ส่วนประกอบ AWS IoT Greengrass และสิ่งประดิษฐ์ของโมเดลได้ถูกสร้างขึ้นในบัญชี AWS ของคุณแล้ว

ปรับใช้โมเดล

ตรวจสอบให้แน่ใจว่าคุณได้ติดตั้ง AWS IoT Greengrass V2 บนอุปกรณ์เป้าหมายสำหรับบัญชีของคุณก่อนที่จะดำเนินการต่อ สำหรับคำแนะนำ โปรดดูที่ ติดตั้งซอฟต์แวร์ AWS IoT Greengrass Core.

ในส่วนนี้ เราจะอธิบายขั้นตอนต่างๆ ในการปรับใช้โมเดลของเล่นเอเลี่ยนกับอุปกรณ์ Edge โดยใช้คอนโซล AWS IoT Greengrass

ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

  1. บนคอนโซล AWS IoT Greengrass ให้ไปที่อุปกรณ์ Edge ของคุณ
  2. Choose ปรับใช้ เพื่อเริ่มขั้นตอนการปรับใช้
  3. เลือก อุปกรณ์หลัก (เนื่องจากการปรับใช้เป็นเครื่องเดียว) และป้อนชื่อสำหรับ ชื่อเป้าหมาย.ชื่อเป้าหมายเป็นชื่อเดียวกับที่คุณใช้ตั้งชื่ออุปกรณ์หลักระหว่างกระบวนการติดตั้ง AWS IoT Greengrass V2
  4. เลือกส่วนประกอบของคุณ ในกรณีของเรา ชื่อส่วนประกอบคือ aliensblogcpux86ซึ่งประกอบด้วยของเล่นโมเดลเอเลี่ยน
  5. Choose ถัดไป.
  6. กำหนดค่าส่วนประกอบ (ไม่บังคับ)
  7. Choose ถัดไป.
  8. แสดง นโยบายการทำให้ใช้งานได้.
  9. สำหรับ นโยบายการอัพเดทส่วนประกอบให้เลือก แจ้งส่วนประกอบซึ่งช่วยให้คอมโพเนนต์ที่ปรับใช้แล้ว (คอมโพเนนต์เวอร์ชันก่อนหน้า) สามารถเลื่อนการอัปเดตได้จนกว่าคุณจะพร้อมที่จะอัปเดต
  10. สำหรับ นโยบายการจัดการความล้มเหลวให้เลือก อย่าท้อถอย.ในกรณีที่เกิดความล้มเหลว ตัวเลือกนี้ช่วยให้เราตรวจสอบข้อผิดพลาดในการปรับใช้ได้
  11. Choose ถัดไป.
  12. ตรวจสอบรายการส่วนประกอบที่จะปรับใช้บนอุปกรณ์เป้าหมาย (ขอบ)
  13. Choose ถัดไป.คุณควรเห็นข้อความ Deployment successfully created.
  14. ในการตรวจสอบการปรับใช้โมเดลสำเร็จ ให้รันคำสั่งต่อไปนี้บนอุปกรณ์ Edge ของคุณ:
    sudo /greengrass/v2/bin/greengrass-cli component list

คุณควรเห็นผลลัพธ์ที่คล้ายกันเรียกใช้ aliensblogcpux86 สคริปต์เริ่มต้นวงจรชีวิต:

ส่วนประกอบที่ทำงานอยู่ใน Greengrass:

Components currently running in Greengrass:
 
Component Name: aws.iot.lookoutvision.EdgeAgent
    Version: 0.1.34
    State: RUNNING
    Configuration: {"Socket":"unix:///tmp/aws.iot.lookoutvision.EdgeAgent.sock"}
 Component Name: aliensblogcpux86
    Version: 1.0.0
    State: RUNNING
    Configuration: {"Autostart":false}

เรียกใช้การอนุมานบนโมเดล

หมายเหตุ: หากคุณเรียกใช้ Greengrass ในฐานะผู้ใช้อื่นนอกเหนือจากที่คุณเข้าสู่ระบบ คุณจะต้องเปลี่ยนสิทธิ์ของไฟล์ /tmp/aws.iot.lookoutvision.EdgeAgent.sock:

chmod 666 /tmp/aws.iot.lookoutvision.EdgeAgent.sock

ตอนนี้เราพร้อมที่จะทำการอนุมานกับโมเดลแล้ว บนอุปกรณ์ Edge ของคุณ ให้รันคำสั่งต่อไปนี้เพื่อโหลดโมเดล (replace ด้วยชื่อรุ่นที่ใช้ในส่วนประกอบของคุณ):

# run command to load the model# This will load the model into running state pass
# the name of the model component as a parameter.
python3 warmup-model.py <modelName>

ในการสร้างการอนุมาน ให้รันคำสั่งต่อไปนี้ด้วยชื่อไฟล์ต้นทาง (replace พร้อมพาธและชื่อไฟล์ของรูปภาพเพื่อตรวจสอบและแทนที่ ด้วยชื่อรุ่นที่ใช้สำหรับส่วนประกอบของคุณ):

python3 sample-client-file-mqtt.py </path/to/images> <modelName>

start client ['sample-client-file.py', 'aliens-dataset/anomaly/1.png', 'aliensblogcpux86']
channel set
shape=(380, 550, 3)
Image is anomalous, (90.05860090255737 % confidence) contains defects with total area over .1%: {'missing_limbs': '#FFFFFF'}

ตัวแบบทำนายภาพได้อย่างถูกต้องว่าผิดปกติ (missing_limbs) ด้วยคะแนนความเชื่อมั่น 0.9996867775917053 มันบอกเราถึงหน้ากากของแท็กความผิดปกติ missing_limbs และพื้นที่ร้อยละ การตอบสนองยังมีข้อมูลบิตแมปที่คุณสามารถถอดรหัสสิ่งที่พบได้

ดาวน์โหลดและเปิดไฟล์ blended.pngซึ่งดูเหมือนภาพต่อไปนี้ สังเกตบริเวณที่มีตำหนิบริเวณขา

ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.

เรื่องราวของลูกค้า

ด้วย AWS IoT Greengrass และ Lookout for Vision ตอนนี้คุณสามารถทำให้การตรวจสอบด้วยภาพเป็นอัตโนมัติด้วยการมองเห็นด้วยคอมพิวเตอร์สำหรับกระบวนการต่างๆ เช่น การควบคุมคุณภาพและการประเมินข้อบกพร่อง — ทั้งหมดบนขอบและในแบบเรียลไทม์ คุณสามารถระบุปัญหาในเชิงรุก เช่น ความเสียหายของชิ้นส่วน (เช่น รอยบุบ รอยขีดข่วน หรือการเชื่อมที่ไม่ดี) ส่วนประกอบของผลิตภัณฑ์ขาดหายไป หรือข้อบกพร่องที่มีรูปแบบซ้ำๆ ในสายการผลิตเอง ซึ่งช่วยประหยัดเวลาและเงินของคุณ ลูกค้าเช่น Tyson และ Baxter กำลังค้นพบพลังของ Lookout for Vision ในการเพิ่มคุณภาพและลดต้นทุนการดำเนินงานด้วยการตรวจสอบด้วยภาพอัตโนมัติ

“ความเป็นเลิศในการปฏิบัติงานเป็นสิ่งสำคัญที่ Tyson Foods ให้ความสำคัญ การบำรุงรักษาเชิงคาดการณ์เป็นสินทรัพย์ที่จำเป็นสำหรับการบรรลุวัตถุประสงค์นี้โดยการปรับปรุงประสิทธิภาพของอุปกรณ์โดยรวม (OEE) อย่างต่อเนื่อง ในปี พ.ศ. 2021 Tyson Foods ได้เปิดตัวโครงการ Computer Vision ที่ใช้การเรียนรู้ด้วยเครื่องเพื่อระบุผู้ให้บริการผลิตภัณฑ์ที่ล้มเหลวในระหว่างการผลิตเพื่อป้องกันไม่ให้ส่งผลกระทบต่อความปลอดภัยของสมาชิกในทีม การปฏิบัติงาน หรือคุณภาพของผลิตภัณฑ์ โมเดลที่ฝึกโดยใช้ Amazon Lookout for Vision ทำงานได้ดี โมเดลการตรวจจับพินมีความแม่นยำ 95% ในทั้งสองคลาส โมเดล Amazon Lookout for Vision ได้รับการปรับให้ทำงานที่ความแม่นยำ 99.1% สำหรับการตรวจจับพินที่ล้มเหลว ผลลัพธ์ที่น่าตื่นเต้นที่สุดของโครงการนี้คือความรวดเร็วในการพัฒนา แม้ว่าโปรเจ็กต์นี้จะใช้สองโมเดลและโค้ดแอปพลิเคชันที่ซับซ้อนกว่า แต่นักพัฒนาซอฟต์แวร์ใช้เวลาดำเนินการน้อยลง 12% โครงการนี้สำหรับตรวจสอบสภาพของผู้ให้บริการผลิตภัณฑ์ที่ Tyson Foods เสร็จสมบูรณ์ในเวลาที่บันทึกโดยใช้บริการที่มีการจัดการของ AWS เช่น Amazon Lookout for Vision”

—Audrey Timmerman ผู้พัฒนาแอปพลิเคชันอาวุโส Tyson Foods

“เวลาแฝงและความเร็วในการอนุมานเป็นสิ่งสำคัญสำหรับการประเมินแบบเรียลไทม์และการตรวจสอบคุณภาพที่สำคัญของกระบวนการผลิตของเรา Amazon Lookout for Vision edge บนอุปกรณ์ CPU ช่วยให้เราสามารถบรรลุเป้าหมายนี้ได้บนอุปกรณ์ระดับการผลิต ทำให้เราสามารถนำเสนอโซลูชันการมองเห็น AI ที่คุ้มค่าในวงกว้าง”

—AK Karan ผู้อำนวยการอาวุโสระดับโลก – Digital Transformation, Integrated Supply Chain, Baxter International Inc.

ทำความสะอาด

ทำตามขั้นตอนต่อไปนี้เพื่อลบเนื้อหาที่คุณสร้างจากบัญชีของคุณและหลีกเลี่ยงการเรียกเก็บเงินที่ดำเนินอยู่:

  1. บนคอนโซล Lookout for Vision ให้ไปที่โปรเจ็กต์ของคุณ
  2. เกี่ยวกับ สถานะ เมนู ลบชุดข้อมูลของคุณ
    ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.
  3. ลบโมเดลของคุณ
    ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.
  4. บนคอนโซล Amazon S3 ให้ล้างบัคเก็ตที่คุณสร้างขึ้น จากนั้นลบบัคเก็ต
  5. บนคอนโซล Amazon EC2 ให้ลบอินสแตนซ์ที่คุณเริ่มเรียกใช้ AWS IoT Greengrass
  6. บนคอนโซล AWS IoT Greengrass ให้เลือก การใช้งาน ในบานหน้าต่างนำทาง
  7. ลบเวอร์ชันส่วนประกอบของคุณ
    ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.
  8. บนคอนโซล AWS IoT Greengrass ให้ลบสิ่ง กลุ่ม และอุปกรณ์ AWS IoT

สรุป

ในโพสต์นี้ เราได้อธิบายสถานการณ์ทั่วไปสำหรับการตรวจจับข้อบกพร่องทางอุตสาหกรรมที่ขอบโดยใช้การแปลจุดบกพร่องและปรับใช้กับอุปกรณ์ที่มี CPU เท่านั้น เราดำเนินการผ่านองค์ประกอบหลักของระบบคลาวด์และวงจรชีวิต Edge ด้วยตัวอย่างตั้งแต่ต้นจนจบโดยใช้ Lookout for Vision และ AWS IoT Greengrass ด้วย Lookout for Vision เราฝึกโมเดลการตรวจจับสิ่งผิดปกติในระบบคลาวด์โดยใช้ ชุดข้อมูลของเล่นมนุษย์ต่างดาวรวบรวมโมเดลไปยังสถาปัตยกรรมเป้าหมาย และจัดแพ็คเกจโมเดลเป็นส่วนประกอบ AWS IoT Greengrass ด้วย AWS IoT Greengrass เราปรับใช้โมเดลกับอุปกรณ์ Edge เราสาธิตแอปพลิเคชันตัวอย่างที่ใช้ Python ที่ส่งภาพเอเลี่ยนของเล่นจากระบบไฟล์ในเครื่อง Edge เรียกใช้การอนุมานบนโมเดล Lookout for Vision ที่ Edge โดยใช้อินเทอร์เฟซ gRPC และส่งข้อมูลการอนุมานไปยังหัวข้อ MQTT ใน AWS คลาวด์.

ในโพสต์ในอนาคต เราจะแสดงวิธีเรียกใช้การอนุมานบนสตรีมรูปภาพแบบเรียลไทม์โดยใช้ไปป์ไลน์สื่อ GStreamer

เริ่มต้นการเดินทางของคุณสู่การตรวจจับและระบุความผิดปกติทางอุตสาหกรรมโดยไปที่ Amazon Lookout สำหรับวิสัยทัศน์ และ AWS IoT กรีนกราส หน้าทรัพยากร


เกี่ยวกับผู้แต่ง

ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.มานิช ทาลเรจา เป็น Senior Industrial ML Practice Manager ของ AWS Professional Services เขาช่วยให้ลูกค้าของ AWS บรรลุเป้าหมายทางธุรกิจโดยการออกแบบและสร้างโซลูชันที่เป็นนวัตกรรมใหม่ที่ใช้บริการ AWS ML และ IoT บน AWS Cloud

ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.ไรอัน แวนเดอร์เวิร์ฟ เป็นสถาปนิกโซลูชันคู่ค้าที่ Amazon Web Services ก่อนหน้านี้เขาให้คำปรึกษาที่เน้นเครื่องเสมือน Java และการพัฒนาโครงการในฐานะวิศวกรซอฟต์แวร์ที่ OCI ในทีม Grails และ Micronaut เขาเป็นหัวหน้าสถาปนิก/ผู้อำนวยการผลิตภัณฑ์ที่ ReachForce โดยมุ่งเน้นที่ซอฟต์แวร์และสถาปัตยกรรมระบบสำหรับโซลูชัน AWS Cloud SaaS สำหรับการจัดการข้อมูลการตลาด Ryan ได้สร้างโซลูชัน SaaS มากมายในหลายโดเมน เช่น บริษัทการเงิน สื่อ โทรคมนาคม และอีเลิร์นนิงตั้งแต่ปี 1996

ระบุตำแหน่งของความผิดปกติโดยใช้ Amazon Lookout for Vision ที่ Edge โดยไม่ต้องใช้ GPU PlatoBlockchain Data Intelligence ค้นหาแนวตั้ง AI.ประกาศ กฤษณะ เป็นผู้จัดการอาวุโสฝ่ายพัฒนาซอฟต์แวร์ที่ Amazon Web Services เขาเป็นผู้นำทีมวิศวกรรมที่กำลังสร้างระบบแบบกระจายขนาดใหญ่เพื่อใช้อัลกอริธึมที่รวดเร็ว มีประสิทธิภาพ และปรับขนาดได้สูงกับปัญหาการรู้จำรูปภาพและวิดีโอที่อิงจากการเรียนรู้เชิงลึก

ประทับเวลา:

เพิ่มเติมจาก AWS Machine Learning AWS