Demystifying pembelajaran mesin di tepi melalui kasus penggunaan nyata Intelijen Data PlatoBlockchain. Pencarian Vertikal. ai.

Demystifying machine learning di ujung tombak melalui kasus penggunaan nyata

Tepi adalah istilah yang mengacu pada suatu lokasi, jauh dari cloud atau pusat data besar, di mana Anda memiliki perangkat komputer (edge ​​device) yang mampu menjalankan (edge) aplikasi. Komputasi tepi adalah tindakan menjalankan beban kerja pada perangkat tepi ini. Machine learning at the edge (ML@Edge) adalah konsep yang menghadirkan kemampuan menjalankan model ML secara lokal ke perangkat edge. Model ML ini kemudian dapat dipanggil oleh aplikasi edge. ML@Edge penting untuk banyak skenario di mana data mentah dikumpulkan dari sumber yang jauh dari cloud. Skenario ini mungkin juga memiliki persyaratan atau batasan khusus:

  • Latensi rendah, prediksi waktu nyata
  • Konektivitas buruk atau tidak ada ke cloud
  • Pembatasan hukum yang tidak mengizinkan pengiriman data ke layanan eksternal
  • Kumpulan data besar yang perlu diproses sebelumnya secara lokal sebelum mengirim respons ke cloud

Berikut adalah beberapa dari banyak kasus penggunaan yang dapat memanfaatkan model ML yang berjalan dekat dengan peralatan yang menghasilkan data yang digunakan untuk prediksi:

  • Keamanan dan keselamatan – Area terbatas di mana alat berat beroperasi di port otomatis dipantau oleh kamera. Jika seseorang memasuki area ini secara tidak sengaja, mekanisme keamanan diaktifkan untuk menghentikan mesin dan melindungi manusia.
  • Pemeliharaan prediktif – Sensor getaran dan audio mengumpulkan data dari gearbox turbin angin. Model deteksi anomali memproses data sensor dan mengidentifikasi jika ada anomali dengan peralatan. Jika anomali terdeteksi, perangkat tepi dapat memulai pengukuran kontingensi secara real time untuk menghindari kerusakan peralatan, seperti memutus atau memutuskan generator dari jaringan.
  • Deteksi cacat di lini produksi – Kamera menangkap gambar produk di ban berjalan dan memproses bingkai dengan model klasifikasi gambar. Jika cacat terdeteksi, produk dapat dibuang secara otomatis tanpa intervensi manual.

Meskipun ML@Edge dapat menangani banyak kasus penggunaan, ada tantangan arsitektural yang kompleks yang perlu dipecahkan untuk mendapatkan desain yang aman, kuat, dan andal. Dalam posting ini, Anda mempelajari beberapa detail tentang ML@Edge, topik terkait, dan cara menggunakan layanan AWS untuk mengatasi tantangan ini dan menerapkan solusi lengkap untuk ML Anda di beban kerja edge.

Ikhtisar ML@Edge

Ada kebingungan umum terkait ML@Edge dan Internet of Things (IoT), oleh karena itu penting untuk mengklarifikasi bagaimana ML@Edge berbeda dari IoT dan bagaimana keduanya dapat bersatu untuk memberikan solusi yang kuat dalam kasus tertentu.

Solusi edge yang menggunakan ML@Edge memiliki dua komponen utama: aplikasi edge dan model ML (dipanggil oleh aplikasi) yang berjalan di perangkat edge. ML@Edge adalah tentang mengontrol siklus hidup satu atau beberapa model ML yang diterapkan ke armada perangkat edge. Siklus hidup model ML dapat dimulai di sisi cloud (di Amazon SageMaker, misalnya) tetapi biasanya berakhir pada penerapan model yang berdiri sendiri pada perangkat edge. Setiap skenario menuntut siklus hidup model ML yang berbeda yang dapat disusun melalui banyak tahapan, seperti pengumpulan data; persiapan data; pembuatan model, kompilasi, dan penerapan ke perangkat edge; memuat dan menjalankan model; dan mengulangi siklus hidup.

Mekanisme ML@Edge tidak bertanggung jawab atas siklus hidup aplikasi. Pendekatan yang berbeda harus diadopsi untuk tujuan itu. Memisahkan siklus hidup model ML dan siklus hidup aplikasi memberi Anda kebebasan dan fleksibilitas untuk terus mengembangkannya pada kecepatan yang berbeda. Bayangkan sebuah aplikasi seluler yang menyematkan model ML sebagai sumber daya seperti gambar atau file XML. Dalam hal ini, setiap kali Anda melatih model baru dan ingin menerapkannya ke ponsel, Anda perlu menerapkan ulang seluruh aplikasi. Ini menghabiskan waktu dan uang, dan dapat menimbulkan bug pada aplikasi Anda. Dengan memisahkan siklus hidup model ML, Anda memublikasikan aplikasi seluler satu kali dan menerapkan versi model ML sebanyak yang Anda butuhkan.

Tapi bagaimana IoT berkorelasi dengan ML@Edge? IoT berkaitan dengan objek fisik yang disematkan dengan teknologi seperti sensor, kemampuan pemrosesan, dan perangkat lunak. Objek-objek ini terhubung ke perangkat dan sistem lain melalui internet atau jaringan komunikasi lainnya, untuk bertukar data. Gambar berikut mengilustrasikan arsitektur ini. Konsep ini awalnya dibuat ketika memikirkan perangkat sederhana yang hanya mengumpulkan data dari edge, melakukan pemrosesan lokal sederhana, dan mengirimkan hasilnya ke kesatuan komputasi yang lebih kuat yang menjalankan proses analitik yang membantu orang dan perusahaan dalam pengambilan keputusan mereka. Solusi IoT bertanggung jawab untuk mengendalikan siklus hidup aplikasi edge. Untuk informasi lebih lanjut tentang IoT, lihat Internet hal.

Demystifying pembelajaran mesin di tepi melalui kasus penggunaan nyata Intelijen Data PlatoBlockchain. Pencarian Vertikal. ai.

Jika Anda sudah memiliki aplikasi IoT, Anda dapat menambahkan kemampuan ML@Edge untuk membuat produk lebih efisien, seperti yang ditunjukkan pada gambar berikut. Ingatlah bahwa ML@Edge tidak bergantung pada IoT, tetapi Anda dapat menggabungkannya untuk menciptakan solusi yang lebih kuat. Ketika Anda melakukannya, Anda meningkatkan potensi perangkat sederhana Anda untuk menghasilkan wawasan real-time untuk bisnis Anda lebih cepat daripada hanya mengirim data ke cloud untuk diproses nanti.

Demystifying pembelajaran mesin di tepi melalui kasus penggunaan nyata Intelijen Data PlatoBlockchain. Pencarian Vertikal. ai.

Jika Anda membuat solusi edge baru dari awal dengan kemampuan ML@Edge, penting untuk merancang arsitektur fleksibel yang mendukung siklus hidup aplikasi dan model ML. Kami menyediakan beberapa arsitektur referensi untuk aplikasi edge dengan ML@Edge nanti di posting ini. Namun pertama-tama, mari selami lebih dalam komputasi edge dan pelajari cara memilih perangkat edge yang tepat untuk solusi Anda, berdasarkan batasan lingkungan.

Komputasi tepi

Bergantung pada seberapa jauh perangkat dari cloud atau pusat data besar (basis), tiga karakteristik utama perangkat edge perlu dipertimbangkan untuk memaksimalkan kinerja dan umur panjang sistem: kapasitas komputasi dan penyimpanan, konektivitas, dan konsumsi daya. Diagram berikut menunjukkan tiga kelompok perangkat tepi yang menggabungkan spesifikasi berbeda dari karakteristik ini, tergantung pada seberapa jauh mereka dari pangkalan.

Demystifying pembelajaran mesin di tepi melalui kasus penggunaan nyata Intelijen Data PlatoBlockchain. Pencarian Vertikal. ai.

Grup-grup tersebut adalah sebagai berikut:

  • MEC (Komputasi Tepi Multi-akses) – MEC atau pusat data kecil, yang dicirikan oleh latensi rendah atau sangat rendah dan bandwidth tinggi, adalah lingkungan umum di mana ML@Edge dapat memberikan manfaat tanpa batasan besar jika dibandingkan dengan beban kerja cloud. Antena dan server 5G di pabrik, gudang, laboratorium, dan sebagainya dengan keterbatasan energi minimal dan dengan konektivitas internet yang baik menawarkan berbagai cara untuk menjalankan model ML pada GPU dan CPU, mesin virtual, kontainer, dan server bare-metal.
  • Dekat tepi – Ini adalah saat mobilitas atau agregasi data menjadi persyaratan dan perangkat memiliki beberapa kendala terkait konsumsi daya dan daya pemrosesan, tetapi masih memiliki konektivitas yang andal, meskipun dengan latensi lebih tinggi, dengan throughput terbatas dan lebih mahal daripada "dekat ke tepi". Aplikasi seluler, papan khusus untuk mempercepat model ML, atau perangkat sederhana dengan kapasitas untuk menjalankan model ML, tercakup dalam jaringan nirkabel, termasuk dalam grup ini.
  • tepi jauh – Dalam skenario ekstrem ini, perangkat edge memiliki konsumsi daya atau kendala konektivitas yang parah. Akibatnya, kekuatan pemrosesan juga dibatasi dalam banyak skenario tepi jauh. Pertanian, pertambangan, pengawasan dan keamanan, dan transportasi laut adalah beberapa area di mana perangkat canggih memainkan peran penting. Papan sederhana, biasanya tanpa GPU atau akselerator AI lainnya, adalah hal biasa. Mereka dirancang untuk memuat dan menjalankan model ML sederhana, menyimpan prediksi dalam database lokal, dan tidur hingga siklus prediksi berikutnya. Perangkat yang perlu memproses data waktu nyata dapat memiliki penyimpanan lokal yang besar untuk menghindari kehilangan data.

Tantangan

Adalah umum untuk memiliki skenario ML@Edge di mana Anda memiliki ratusan atau ribuan (bahkan mungkin jutaan) perangkat yang menjalankan model dan aplikasi edge yang sama. Saat Anda menskalakan sistem Anda, penting untuk memiliki solusi tangguh yang dapat mengelola jumlah perangkat yang perlu Anda dukung. Ini adalah tugas yang kompleks dan untuk skenario ini, Anda perlu mengajukan banyak pertanyaan:

  • Bagaimana cara mengoperasikan model ML pada armada perangkat di edge?
  • Bagaimana cara membuat, mengoptimalkan, dan menerapkan model ML ke beberapa perangkat edge?
  • Bagaimana cara mengamankan model saya saat menerapkan dan menjalankannya di edge?
  • Bagaimana cara memantau kinerja model saya dan melatihnya kembali, jika diperlukan?
  • Bagaimana cara menghilangkan kebutuhan untuk menginstal kerangka kerja besar seperti TensorFlow atau PyTorch di perangkat saya yang dibatasi?
  • Bagaimana cara mengekspos satu atau beberapa model dengan aplikasi edge saya sebagai API sederhana?
  • Bagaimana cara membuat kumpulan data baru dengan muatan dan prediksi yang ditangkap oleh perangkat edge?
  • Bagaimana cara melakukan semua tugas ini secara otomatis (MLOps plus ML@Edge)?

Di bagian selanjutnya, kami memberikan jawaban atas semua pertanyaan ini melalui contoh kasus penggunaan dan arsitektur referensi. Kami juga membahas layanan AWS mana yang dapat Anda gabungkan untuk membangun solusi lengkap untuk setiap skenario yang dieksplorasi. Namun, jika Anda ingin memulai dengan alur yang sangat sederhana yang menjelaskan cara menggunakan beberapa layanan yang disediakan oleh AWS untuk membuat solusi ML@Edge Anda, ini adalah contohnya:

Dengan SageMaker, Anda dapat dengan mudah menyiapkan kumpulan data dan membangun model ML yang diterapkan ke perangkat edge. Dengan Amazon SageMaker Neo, Anda dapat mengompilasi dan mengoptimalkan model yang Anda latih ke perangkat edge tertentu yang Anda pilih. Setelah mengkompilasi model, Anda hanya perlu runtime ringan untuk menjalankannya (disediakan oleh layanan). Manajer Tepi Amazon SageMaker bertanggung jawab untuk mengelola siklus hidup semua model ML yang diterapkan ke armada perangkat edge Anda. Edge Manager dapat mengelola armada hingga jutaan perangkat. Agen, yang diinstal ke masing-masing perangkat edge, mengekspos model ML yang di-deploy sebagai API ke aplikasi. Agen juga bertanggung jawab untuk mengumpulkan metrik, muatan, dan prediksi yang dapat Anda gunakan untuk memantau atau membangun kumpulan data baru untuk melatih ulang model jika diperlukan. Akhirnya, dengan Pipa Amazon SageMaker, Anda dapat membuat pipeline otomatis dengan semua langkah yang diperlukan untuk membuat, mengoptimalkan, dan menerapkan model ML ke armada perangkat Anda. Pipa otomatis ini kemudian dapat dipicu oleh peristiwa sederhana yang Anda tetapkan, tanpa campur tangan manusia.

Gunakan kasing 1

Katakanlah produsen pesawat ingin mendeteksi dan melacak suku cadang dan peralatan di hanggar produksi. Untuk meningkatkan produktivitas, semua suku cadang yang diperlukan dan alat yang benar harus tersedia bagi para insinyur di setiap tahap produksi. Kami ingin dapat menjawab pertanyaan seperti: Di ​​mana bagian A? atau Dimana alat B? Kami memiliki beberapa kamera IP yang sudah terpasang dan terhubung ke jaringan lokal. Kamera menutupi seluruh hanggar dan dapat mengalirkan video HD real-time melalui jaringan.

Panorama AWS cocok dengan baik dalam kasus ini. AWS Panorama menyediakan alat ML dan layanan terkelola yang memungkinkan Anda menambahkan computer vision (CV) ke armada kamera IP yang ada dan mengotomatiskannya. AWS Panorama memberi Anda kemampuan untuk menambahkan CV ke kamera Internet Protocol (IP) yang ada dan mengotomatiskan tugas yang biasanya memerlukan inspeksi dan pemantauan manusia.

Dalam arsitektur referensi berikut, kami menunjukkan komponen utama aplikasi yang berjalan di AWS Panorama Appliance. Panorama Application SDK memudahkan untuk merekam video dari aliran kamera, melakukan inferensi dengan pipeline beberapa model ML, dan memproses hasilnya menggunakan kode Python yang berjalan di dalam container. Anda dapat menjalankan model dari pustaka ML populer seperti TensorFlow, PyTorch, atau TensorRT. Hasil dari model dapat diintegrasikan dengan sistem bisnis di jaringan area lokal Anda, memungkinkan Anda untuk menanggapi peristiwa secara real time.

Demystifying pembelajaran mesin di tepi melalui kasus penggunaan nyata Intelijen Data PlatoBlockchain. Pencarian Vertikal. ai.

Solusinya terdiri dari langkah-langkah berikut:

  1. Hubungkan dan konfigurasikan perangkat AWS Panorama ke jaringan lokal yang sama.
  2. Latih model ML (deteksi objek) untuk mengidentifikasi bagian dan alat di setiap bingkai.
  3. Bangun Aplikasi Panorama AWS yang mendapatkan prediksi dari model ML, menerapkan mekanisme pelacakan ke setiap objek, dan mengirimkan hasilnya ke database waktu nyata.
  4. Operator dapat mengirim pertanyaan ke database untuk menemukan bagian dan alat.

Gunakan kasing 2

Untuk kasus penggunaan berikutnya, bayangkan kami membuat kamera dasbor untuk kendaraan yang mampu mendukung pengemudi dalam banyak situasi, seperti menghindari pejalan kaki, berdasarkan Papan CV25 dari Ambaralla. Menghosting model ML pada perangkat dengan sumber daya sistem terbatas bisa jadi sulit. Dalam hal ini, mari kita asumsikan kita sudah memiliki mekanisme pengiriman over-the-air (OTA) yang mapan untuk menerapkan komponen aplikasi yang diperlukan ke perangkat edge. Namun, kami masih akan mendapat manfaat dari kemampuan untuk melakukan penyebaran OTA dari model itu sendiri, sehingga mengisolasi siklus hidup aplikasi dan siklus hidup model.

Manajer Tepi Amazon SageMaker dan Amazon SageMaker Neo cocok untuk kasus penggunaan ini.

Edge Manager memudahkan pengembang ML edge untuk menggunakan alat yang sama yang sudah dikenal di cloud atau di perangkat edge. Ini mengurangi waktu dan upaya yang diperlukan untuk mendapatkan model ke produksi, sekaligus memungkinkan Anda untuk terus memantau dan meningkatkan kualitas model di seluruh armada perangkat Anda. SageMaker Edge menyertakan mekanisme penerapan OTA yang membantu Anda menerapkan model pada armada yang tidak bergantung pada aplikasi atau firmware perangkat. Itu Agen Edge Manager memungkinkan Anda menjalankan beberapa model pada perangkat yang sama. Agen mengumpulkan data prediksi berdasarkan logika yang Anda kontrol, seperti interval, dan mengunggahnya ke cloud sehingga Anda dapat melatih kembali model Anda secara berkala dari waktu ke waktu. SageMaker Edge secara kriptografis menandatangani model Anda sehingga Anda dapat memverifikasi bahwa model tersebut tidak dirusak saat berpindah dari perangkat cloud ke edge.

Neo adalah kompiler sebagai layanan dan sangat cocok dalam kasus penggunaan ini. Neo secara otomatis mengoptimalkan model ML untuk inferensi pada instans cloud dan perangkat edge agar berjalan lebih cepat tanpa kehilangan akurasi. Anda mulai dengan model ML yang dibuat dengan salah satu dari kerangka kerja yang didukung dan dilatih di SageMaker atau di mana pun. Kemudian Anda memilih platform perangkat keras target Anda, (lihat daftar perangkat yang didukung). Dengan satu klik, Neo mengoptimalkan model terlatih dan mengompilasinya ke dalam paket yang dapat dijalankan menggunakan runtime SageMaker Edge yang ringan. Kompiler menggunakan model ML untuk menerapkan pengoptimalan kinerja yang mengekstrak kinerja terbaik yang tersedia untuk model Anda pada instans cloud atau perangkat edge. Anda kemudian menerapkan model sebagai titik akhir SageMaker atau pada perangkat edge yang didukung dan mulai membuat prediksi.

Diagram berikut menggambarkan arsitektur ini.

Demystifying pembelajaran mesin di tepi melalui kasus penggunaan nyata Intelijen Data PlatoBlockchain. Pencarian Vertikal. ai.

Alur kerja solusi terdiri dari langkah-langkah berikut:

  1. Pengembang membangun, melatih, memvalidasi, dan membuat artefak model akhir yang perlu di-deploy ke dashcam.
  2. Panggil Neo untuk mengkompilasi model yang dilatih.
  3. Agen SageMaker Edge diinstal dan dikonfigurasi pada perangkat Edge, dalam hal ini dashcam.
  4. Buat paket penerapan dengan model yang ditandatangani dan waktu proses yang digunakan oleh agen SageMaker Edge untuk memuat dan menjalankan model yang dioptimalkan.
  5. Terapkan paket menggunakan mekanisme penyebaran OTA yang ada.
  6. Aplikasi edge berinteraksi dengan agen SageMaker Edge untuk melakukan inferensi.
  7. Agen dapat dikonfigurasi (jika diperlukan) untuk mengirim data input sampel waktu nyata dari aplikasi untuk tujuan pemantauan dan penyempurnaan model.

Gunakan kasing 3

Misalkan pelanggan Anda sedang mengembangkan aplikasi yang mendeteksi anomali dalam mekanisme turbin angin (seperti girboks, generator, atau rotor). Tujuannya adalah untuk meminimalkan kerusakan pada peralatan dengan menjalankan prosedur perlindungan lokal dengan cepat. Turbin ini sangat mahal dan terletak di tempat yang tidak mudah dijangkau. Setiap turbin dapat dilengkapi dengan perangkat NVIDIA Jetson untuk memantau data sensor dari turbin. Kami kemudian membutuhkan solusi untuk menangkap data dan menggunakan algoritma ML untuk mendeteksi anomali. Kami juga memerlukan mekanisme OTA agar perangkat lunak dan model ML di perangkat tetap mutakhir.

AWS IoT Greengrass V2 bersama dengan Edge Manager cocok dalam kasus penggunaan ini. AWS IoT Greengrass adalah IoT edge runtime dan layanan cloud open-source yang membantu Anda membangun, menerapkan, dan mengelola aplikasi IoT di perangkat Anda. Anda dapat menggunakan AWS IoT Greengrass untuk membangun aplikasi edge menggunakan modul perangkat lunak yang dibuat sebelumnya, yang disebut komponen, yang dapat menghubungkan perangkat edge Anda ke layanan AWS atau layanan pihak ketiga. Kemampuan AWS IoT Greengrass ini memudahkan penerapan aset ke perangkat, termasuk agen SageMaker Edge. AWS IoT Greengrass bertanggung jawab untuk mengelola siklus hidup aplikasi, sementara Edge Manager memisahkan siklus hidup model ML. Ini memberi Anda fleksibilitas untuk terus mengembangkan seluruh solusi dengan menerapkan versi baru aplikasi edge dan model ML secara mandiri. Diagram berikut menggambarkan arsitektur ini.

Demystifying pembelajaran mesin di tepi melalui kasus penggunaan nyata Intelijen Data PlatoBlockchain. Pencarian Vertikal. ai.

Solusinya terdiri dari langkah-langkah berikut:

  1. Pengembang membangun, melatih, memvalidasi, dan membuat artefak model akhir yang perlu diterapkan ke turbin angin.
  2. Panggil Neo untuk mengkompilasi model yang dilatih.
  3. Buat komponen model menggunakan Edge Manager dengan integrasi AWS IoT Greengrass V2.
  4. Siapkan AWS IoT Greengrass V2.
  5. Buat komponen inferensi menggunakan AWS IoT Greengrass V2.
  6. Aplikasi edge berinteraksi dengan agen SageMaker Edge untuk melakukan inferensi.
  7. Agen dapat dikonfigurasi (jika diperlukan) untuk mengirim data input sampel waktu nyata dari aplikasi untuk tujuan pemantauan dan penyempurnaan model.

Gunakan kasing 4

Untuk kasus penggunaan terakhir kami, mari kita lihat kapal yang mengangkut kontainer, di mana setiap kontainer memiliki beberapa sensor dan mengalirkan sinyal ke infrastruktur komputasi dan penyimpanan yang digunakan secara lokal. Tantangannya adalah kita ingin mengetahui isi setiap kontainer, dan kondisi barang berdasarkan suhu, kelembaban, dan gas di dalam setiap kontainer. Kami juga ingin melacak semua barang di masing-masing kontainer. Tidak ada konektivitas internet sepanjang perjalanan, dan perjalanan bisa memakan waktu berbulan-bulan. Model ML yang berjalan pada infrastruktur ini harus memproses data terlebih dahulu dan menghasilkan informasi untuk menjawab semua pertanyaan kami. Data yang dihasilkan perlu disimpan secara lokal selama berbulan-bulan. Aplikasi edge menyimpan semua inferensi dalam database lokal dan kemudian menyinkronkan hasilnya dengan cloud saat kapal mendekati pelabuhan.

AWS Snowcone A dan Bola Salju AWS dari Keluarga Salju AWS bisa sangat cocok dalam kasus penggunaan ini.

AWS Snowcone adalah perangkat migrasi data dan komputasi edge yang kecil, kokoh, dan aman. Snowcone dirancang dengan standar OSHA untuk perangkat yang dapat diangkat oleh satu orang. Snowcone memungkinkan Anda menjalankan beban kerja edge menggunakan Cloud komputasi elastis Amazon (Amazon EC2) komputasi, dan penyimpanan lokal di lingkungan lapangan yang keras dan tidak terhubung seperti rig minyak, kendaraan pencarian dan penyelamatan, lokasi militer, atau lantai pabrik, serta kantor jarak jauh, rumah sakit, dan bioskop.

Snowball menambahkan lebih banyak komputasi jika dibandingkan dengan Snowcone dan oleh karena itu mungkin sangat cocok untuk aplikasi yang lebih menuntut. Fitur Compute Optimized menyediakan GPU NVIDIA Tesla V100 opsional bersama dengan instans EC2 untuk mempercepat kinerja aplikasi di lingkungan yang tidak terhubung. Dengan opsi GPU, Anda dapat menjalankan aplikasi seperti ML tingkat lanjut dan analisis video gerakan penuh di lingkungan dengan sedikit atau tanpa konektivitas.

Selain instans EC2, Anda memiliki kebebasan untuk membangun dan menerapkan semua jenis solusi edge. Misalnya: Anda dapat menggunakan ECS Amazon atau pengelola container lainnya untuk menerapkan aplikasi edge, Edge Manager Agent, dan model ML sebagai container individual. Arsitektur ini akan mirip dengan Use Case 2 (kecuali bahwa sebagian besar waktu akan bekerja secara offline), dengan penambahan alat pengelola kontainer.

Diagram berikut menggambarkan arsitektur solusi ini.

Demystifying pembelajaran mesin di tepi melalui kasus penggunaan nyata Intelijen Data PlatoBlockchain. Pencarian Vertikal. ai.

Untuk menerapkan solusi ini, cukup pesan perangkat Snow Anda dari Konsol Manajemen AWS dan luncurkan sumber daya Anda.

Kesimpulan

Dalam posting ini, kami membahas berbagai aspek edge yang dapat Anda pilih untuk digunakan berdasarkan kasus penggunaan Anda. Kami juga membahas beberapa konsep utama seputar ML@Edge dan bagaimana memisahkan siklus hidup aplikasi dan siklus hidup model ML memberi Anda kebebasan untuk mengembangkannya tanpa ketergantungan satu sama lain. Kami menekankan bagaimana memilih perangkat edge yang tepat untuk beban kerja Anda dan mengajukan pertanyaan yang tepat selama proses solusi dapat membantu Anda bekerja mundur dan mempersempit layanan AWS yang tepat. Kami juga menyajikan kasus penggunaan yang berbeda bersama dengan arsitektur referensi untuk menginspirasi Anda membuat solusi Anda sendiri yang akan bekerja untuk beban kerja Anda.


Tentang Penulis

Demystifying pembelajaran mesin di tepi melalui kasus penggunaan nyata Intelijen Data PlatoBlockchain. Pencarian Vertikal. ai. Dinesh Kumar Subramani adalah Arsitek Solusi Senior dengan tim UKIR SMB, yang berbasis di Edinburgh, Skotlandia. Dia berspesialisasi dalam kecerdasan buatan dan pembelajaran mesin. Dinesh senang bekerja dengan pelanggan di seluruh industri untuk membantu mereka memecahkan masalah mereka dengan layanan AWS. Di luar pekerjaan, ia suka menghabiskan waktu bersama keluarganya, bermain catur, dan menikmati musik lintas genre.

Demystifying pembelajaran mesin di tepi melalui kasus penggunaan nyata Intelijen Data PlatoBlockchain. Pencarian Vertikal. ai.Samir Araújo adalah Arsitek Solusi AI / ML di AWS. Dia membantu pelanggan menciptakan solusi AI / ML yang memecahkan tantangan bisnis mereka menggunakan AWS. Dia telah mengerjakan beberapa proyek AI / ML yang terkait dengan computer vision, natural language processing, forecasting, ML at the edge, dan banyak lagi. Dia suka bermain dengan proyek perangkat keras dan otomasi di waktu luangnya, dan dia memiliki minat khusus untuk robotika.

Stempel Waktu:

Lebih dari Pembelajaran Mesin AWS