PlatoBlockchain Veri Zekası gerçek kullanım örnekleri aracılığıyla uçta makine öğreniminin gizemini ortadan kaldırıyor. Dikey Arama. Ai.

Gerçek kullanım durumları aracılığıyla uçta makine öğreniminin gizemini ortadan kaldırıyor

kenar buluttan veya büyük bir veri merkezinden uzakta, uygulamaları çalıştırabilen (uç) bir bilgisayar cihazınıza (uç cihaz) sahip olduğunuz bir yeri ifade eden bir terimdir. Uç bilgi işlem, bu uç cihazlarda iş yüklerini çalıştırma eylemidir. Uçta makine öğrenimi (ML@Edge), ML modellerini yerel olarak uç cihazlara çalıştırma yeteneğini getiren bir kavramdır. Bu ML modelleri daha sonra uç uygulama tarafından çağrılabilir. ML@Edge, buluttan uzak kaynaklardan ham verilerin toplandığı birçok senaryo için önemlidir. Bu senaryoların ayrıca belirli gereksinimleri veya kısıtlamaları olabilir:

  • Düşük gecikmeli, gerçek zamanlı tahminler
  • Buluta zayıf veya mevcut olmayan bağlantı
  • Harici hizmetlere veri gönderilmesine izin vermeyen yasal kısıtlamalar
  • Buluta yanıt göndermeden önce yerel olarak önceden işlenmesi gereken büyük veri kümeleri

Aşağıdakiler, tahminler için kullanılan verileri üreten ekipmana yakın çalışan makine öğrenimi modellerinden yararlanabilecek birçok kullanım örneğinden bazılarıdır:

  • Güvenlik ve emniyet – Otomatik bir limanda ağır makinelerin çalıştığı kısıtlı bir alan bir kamera ile izlenir. Bir kişi yanlışlıkla bu alana girerse, makineleri durdurmak ve insanı korumak için bir güvenlik mekanizması devreye girer.
  • Öngörücü bakım – Titreşim ve ses sensörleri, bir rüzgar türbininin dişli kutusundan veri toplar. Bir anormallik algılama modeli, sensör verilerini işler ve ekipmanda anormallik olup olmadığını belirler. Bir anormallik algılanırsa, uç cihaz, kesintileri devreye sokmak veya jeneratörü şebekeden ayırmak gibi ekipmana zarar vermemek için gerçek zamanlı olarak bir beklenmedik durum ölçümü başlatabilir.
  • Üretim hatlarında hata tespiti – Bir kamera, konveyör bant üzerindeki ürünlerin görüntülerini yakalar ve çerçeveleri bir görüntü sınıflandırma modeliyle işler. Bir kusur tespit edilirse, ürün manuel müdahale olmaksızın otomatik olarak atılabilir.

ML@Edge birçok kullanım örneğini ele alabilmesine rağmen, güvenli, sağlam ve güvenilir bir tasarıma sahip olmak için çözülmesi gereken karmaşık mimari zorluklar vardır. Bu gönderide, ML@Edge, ilgili konular ve bu zorlukların üstesinden gelmek ve uç iş yükünde ML'niz için eksiksiz bir çözüm uygulamak için AWS hizmetlerinin nasıl kullanılacağı hakkında bazı ayrıntılar öğreneceksiniz.

ML@Edge'e genel bakış

ML@Edge ve Nesnelerin İnterneti (IoT) söz konusu olduğunda yaygın bir kafa karışıklığı vardır, bu nedenle ML@Edge'in IoT'den nasıl farklı olduğunu ve belirli durumlarda güçlü bir çözüm sağlamak için ikisinin nasıl bir araya gelebileceğini açıklamak önemlidir.

ML@Edge kullanan bir uç çözümünün iki ana bileşeni vardır: uç cihazda çalışan bir uç uygulama ve bir ML modeli (uygulama tarafından çağrılan). ML@Edge, bir uç cihaz filosuna dağıtılan bir veya daha fazla ML modelinin yaşam döngüsünü kontrol etmekle ilgilidir. ML modeli yaşam döngüsü bulut tarafında başlayabilir ( Amazon Adaçayı Yapıcı, örneğin) ancak normalde modelin uç cihazda bağımsız bir dağıtımıyla sona erer. Her senaryo, veri toplama; veri Hazırlama; model oluşturma, derleme ve uç cihaza dağıtım; model yükleme ve çalıştırma; ve yaşam döngüsünü tekrarlamak.

ML@Edge mekanizması, uygulama yaşam döngüsünden sorumlu değildir. Bu amaçla farklı bir yaklaşım benimsenmelidir. Makine öğrenimi modeli yaşam döngüsünü ve uygulama yaşam döngüsünü birbirinden ayırmak size bunları farklı hızlarda geliştirmeye devam etme özgürlüğü ve esnekliği sağlar. Bir ML modelini bir resim veya XML dosyası gibi bir kaynak olarak gömen bir mobil uygulama düşünün. Bu durumda, yeni bir modeli her eğittiğinizde ve onu cep telefonlarına dağıtmak istediğinizde, tüm uygulamayı yeniden dağıtmanız gerekir. Bu, zaman ve para tüketir ve uygulamanızda hatalara neden olabilir. ML modeli yaşam döngüsünü ayırarak, mobil uygulamayı bir kez yayınlar ve ML modelinin ihtiyaç duyduğunuz sayıda sürümünü dağıtırsınız.

Ancak IoT, ML@Edge ile nasıl ilişkilidir? IoT, sensörler, işleme yeteneği ve yazılım gibi teknolojilerle gömülü fiziksel nesnelerle ilgilidir. Bu nesneler, veri alışverişi yapmak için internet veya diğer iletişim ağları üzerinden diğer cihazlara ve sistemlere bağlanır. Aşağıdaki şekil bu mimariyi göstermektedir. Konsept başlangıçta, yalnızca uçtan veri toplayan, basit yerel işleme gerçekleştiren ve sonucu, insanlara ve şirketlere karar vermelerinde yardımcı olan analitik süreçleri çalıştıran daha güçlü bir bilgi işlem birliğine gönderen basit cihazlar düşünüldüğünde yaratıldı. IoT çözümü, uç uygulama yaşam döngüsünün kontrolünden sorumludur. IoT hakkında daha fazla bilgi için bkz. Şeylerin Internet.

PlatoBlockchain Veri Zekası gerçek kullanım örnekleri aracılığıyla uçta makine öğreniminin gizemini ortadan kaldırıyor. Dikey Arama. Ai.

Halihazırda bir IoT uygulamanız varsa, ürünü daha verimli hale getirmek için aşağıdaki şekilde gösterildiği gibi ML@Edge yetenekleri ekleyebilirsiniz. ML@Edge'in IoT'ye bağlı olmadığını, ancak daha güçlü bir çözüm oluşturmak için bunları birleştirebileceğinizi unutmayın. Bunu yaptığınızda, daha sonra işlenmek üzere buluta veri göndermekten daha hızlı bir şekilde işletmeniz için gerçek zamanlı öngörüler oluşturmak için basit cihazınızın potansiyelini geliştirirsiniz.

PlatoBlockchain Veri Zekası gerçek kullanım örnekleri aracılığıyla uçta makine öğreniminin gizemini ortadan kaldırıyor. Dikey Arama. Ai.

ML@Edge yetenekleriyle sıfırdan yeni bir uç çözümü oluşturuyorsanız, hem uygulamayı hem de ML model yaşam döngülerini destekleyen esnek bir mimari tasarlamak önemlidir. Bu yazının ilerleyen bölümlerinde ML@Edge ile uç uygulamalar için bazı referans mimarileri sunuyoruz. Ama önce, uç bilgi işlemin daha derinlerine inelim ve ortamın kısıtlamalarına göre çözümünüz için doğru uç aygıtı nasıl seçeceğinizi öğrenelim.

Kenar hesaplama

Cihazın buluttan veya büyük bir veri merkezinden (taban) ne kadar uzakta olduğuna bağlı olarak, sistemin performansını ve ömrünü en üst düzeye çıkarmak için uç cihazların üç ana özelliğinin dikkate alınması gerekir: bilgi işlem ve depolama kapasitesi, bağlantı ve güç tüketimi. Aşağıdaki şema, tabandan ne kadar uzakta olduklarına bağlı olarak, bu özelliklerin farklı özelliklerini birleştiren üç uç cihaz grubunu göstermektedir.

PlatoBlockchain Veri Zekası gerçek kullanım örnekleri aracılığıyla uçta makine öğreniminin gizemini ortadan kaldırıyor. Dikey Arama. Ai.

Gruplar aşağıdaki gibidir:

  • MEC'ler (Çok erişimli Edge Computing) – Düşük veya ultra düşük gecikme süresi ve yüksek bant genişliği ile karakterize edilen MEC'ler veya küçük veri merkezleri, ML@Edge'in bulut iş yüklerine kıyasla büyük kısıtlamalar olmaksızın fayda sağlayabileceği yaygın ortamlardır. Fabrikalarda, depolarda, laboratuvarlarda ve benzerlerinde minimum enerji kısıtlamasına sahip ve iyi internet bağlantısına sahip 5G antenleri ve sunucuları, ML modellerini GPU'larda ve CPU'larda, sanal makinelerde, konteynerlerde ve çıplak metal sunucularda çalıştırmak için farklı yollar sunar.
  • yakın kenar – Bu, mobilite veya veri toplamanın gerekli olduğu ve cihazların güç tüketimi ve işlem gücü ile ilgili bazı kısıtlamalara sahip olduğu, ancak yine de daha yüksek gecikme süresine, sınırlı aktarım hızına ve "uç noktaya yakın"dan daha pahalı olmasına rağmen bazı güvenilir bağlantılara sahip olduğu zamandır. Mobil uygulamalar, ML modellerini hızlandırmak için özel panolar veya kablosuz ağların kapsadığı ML modellerini çalıştırma kapasitesine sahip basit cihazlar bu gruba dahildir.
  • uzak kenar – Bu uç senaryoda, uç cihazların ciddi güç tüketimi veya bağlantı kısıtlamaları vardır. Sonuç olarak, birçok uzak uç senaryoda işlem gücü de kısıtlanır. Tarım, madencilik, gözetim ve güvenlik ve deniz taşımacılığı, uzak uç cihazların önemli rol oynadığı bazı alanlardır. Normalde GPU'ları veya diğer AI hızlandırıcıları olmayan basit kartlar yaygındır. Basit makine öğrenimi modellerini yüklemek ve çalıştırmak, tahminleri yerel bir veritabanına kaydetmek ve bir sonraki tahmin döngüsüne kadar uyumak üzere tasarlanmıştır. Gerçek zamanlı verileri işlemesi gereken cihazlar, veri kaybını önlemek için büyük yerel depolara sahip olabilir.

Zorluklar

Aynı modelleri ve uç uygulamalarını çalıştıran yüzlerce veya binlerce (hatta milyonlarca) cihaza sahip olduğunuz ML@Edge senaryolarına sahip olmak yaygın bir durumdur. Sisteminizi ölçeklendirdiğinizde, desteklemeniz gereken cihaz sayısını yönetebilecek sağlam bir çözüme sahip olmak önemlidir. Bu karmaşık bir görevdir ve bu senaryolar için birçok soru sormanız gerekir:

  • ML modellerini uçtaki bir cihaz filosunda nasıl çalıştırırım?
  • ML modellerini birden çok uç cihaza nasıl oluşturur, optimize eder ve dağıtırım?
  • Modelimi uçta dağıtırken ve çalıştırırken nasıl güvenli hale getirebilirim?
  • Modelimin performansını nasıl izler ve gerekirse yeniden eğitirim?
  • Kısıtlı cihazıma TensorFlow veya PyTorch gibi büyük bir çerçeve yükleme ihtiyacını nasıl ortadan kaldırırım?
  • Uç uygulamamla bir veya birden fazla modeli basit bir API olarak nasıl ortaya çıkarırım?
  • Uç cihazlar tarafından yakalanan yükler ve tahminlerle yeni bir veri kümesini nasıl oluşturabilirim?
  • Tüm bu görevleri otomatik olarak nasıl yaparım (MLOps artı ML@Edge)?

Bir sonraki bölümde, tüm bu soruların yanıtlarını örnek kullanım durumları ve referans mimariler aracılığıyla sağlıyoruz. Ayrıca, incelenen senaryoların her biri için eksiksiz çözümler oluşturmak üzere hangi AWS hizmetlerini birleştirebileceğinizi tartışıyoruz. Ancak, ML@Edge çözümünüzü oluşturmak için AWS tarafından sağlanan bazı hizmetlerin nasıl kullanılacağını açıklayan çok basit bir akışla başlamak istiyorsanız, bu bir örnektir:

SageMaker ile kolayca bir veri kümesi hazırlayabilir ve uç cihazlara dağıtılan ML modellerini oluşturabilirsiniz. İle birlikte Amazon SageMaker Neo, eğittiğiniz modeli seçtiğiniz belirli uç cihaza göre derleyebilir ve optimize edebilirsiniz. Modeli derledikten sonra, çalıştırmak için yalnızca hafif bir çalışma zamanına ihtiyacınız vardır (hizmet tarafından sağlanır). Amazon SageMaker Kenar Yöneticisi uç cihaz filonuza dağıtılan tüm ML modellerinin yaşam döngüsünü yönetmekten sorumludur. Edge Manager, milyonlarca cihazdan oluşan filoları yönetebilir. Uç cihazların her birine yüklenen bir aracı, dağıtılan ML modellerini uygulamaya bir API olarak sunar. Aracı, gerektiğinde modeli yeniden eğitmek üzere yeni bir veri kümesini izlemek veya oluşturmak için kullanabileceğiniz ölçümleri, yükleri ve tahminleri toplamaktan da sorumludur. Son olarak, Amazon SageMaker Ardışık DüzenleriML modellerini oluşturmak, optimize etmek ve cihaz filonuza dağıtmak için gereken tüm adımlarla otomatik bir işlem hattı oluşturabilirsiniz. Bu otomatikleştirilmiş işlem hattı daha sonra insan müdahalesi olmadan tanımladığınız basit olaylar tarafından tetiklenebilir.

Kullanım örneği 1

Diyelim ki bir uçak üreticisi üretim hangarındaki parçaları ve araçları tespit etmek ve takip etmek istiyor. Üretkenliği artırmak için, üretimin her aşamasında mühendisler için gerekli tüm parçaların ve doğru araçların mevcut olması gerekir. Şu tür soruları yanıtlayabilmek istiyoruz: Bölüm A nerede? veya B aracı nerede? Halihazırda kurulu ve yerel bir ağa bağlı birden fazla IP kameramız var. Kameralar tüm hangarı kapsıyor ve ağ üzerinden gerçek zamanlı HD video akışı yapabiliyor.

AWS Panoraması bu durumda çok yakışıyor. AWS Panorama, mevcut IP kamera filonuza bilgisayar görüşü (CV) eklemenize ve otomatikleştirmenize olanak tanıyan bir makine öğrenimi cihazı ve yönetilen hizmet sağlar. AWS Panorama, size mevcut İnternet Protokolü (IP) kameralarınıza CV ekleme ve geleneksel olarak insan denetimi ve izleme gerektiren görevleri otomatikleştirme olanağı sağlar.

Aşağıdaki referans mimarisinde, bir AWS Panorama Appliance üzerinde çalışan uygulamanın ana bileşenlerini gösteriyoruz. Panorama Uygulaması SDK'sı, kamera akışlarından video yakalamayı, birden çok ML modelinden oluşan bir işlem hattıyla çıkarım yapmayı ve bir kapsayıcı içinde çalışan Python kodunu kullanarak sonuçları işlemeyi kolaylaştırır. Modelleri TensorFlow, PyTorch veya TensorRT gibi herhangi bir popüler ML kitaplığından çalıştırabilirsiniz. Modelden elde edilen sonuçlar, yerel alan ağınızdaki iş sistemleriyle entegre edilebilir ve olaylara gerçek zamanlı olarak yanıt vermenize olanak tanır.

PlatoBlockchain Veri Zekası gerçek kullanım örnekleri aracılığıyla uçta makine öğreniminin gizemini ortadan kaldırıyor. Dikey Arama. Ai.

Çözüm aşağıdaki adımlardan oluşur:

  1. Bir AWS Panorama cihazını aynı yerel ağa bağlayın ve yapılandırın.
  2. Her çerçevedeki parçaları ve araçları tanımlamak için bir ML modeli (nesne algılama) eğitin.
  3. Makine öğrenimi modelinden tahminleri alan, her nesneye bir izleme mekanizması uygulayan ve sonuçları gerçek zamanlı bir veritabanına gönderen bir AWS Panorama Uygulaması oluşturun.
  4. Operatörler, parçaları ve araçları bulmak için veritabanına sorgular gönderebilir.

Kullanım örneği 2

Bir sonraki kullanım durumumuz için, yayalardan kaçınmak gibi birçok durumda sürücüyü destekleyebilen araçlar için bir araç içi kamera oluşturduğumuzu hayal edin. Ambarella'dan CV25 kartı. ML modellerini sınırlı sistem kaynaklarına sahip bir cihazda barındırmak zor olabilir. Bu durumda, gerekli uygulama bileşenlerini uç cihaza dağıtmak için zaten yerleşik bir kablosuz (OTA) dağıtım mekanizmasına sahip olduğumuzu varsayalım. Ancak, yine de modelin OTA dağıtımını yapabilme yeteneğinden faydalanırız, böylece uygulama yaşam döngüsünü ve model yaşam döngüsünü yalıtırız.

Amazon SageMaker Kenar Yöneticisi ve Amazon SageMaker Neo bu kullanım durumu için iyi uyuyor.

Edge Manager, ML uç geliştiricilerinin bulutta veya uç cihazlarda aynı tanıdık araçları kullanmasını kolaylaştırır. Modellerin üretime alınması için gereken süreyi ve çabayı azaltırken, cihaz filonuzdaki model kalitesini sürekli olarak izlemenize ve iyileştirmenize olanak tanır. SageMaker Edge, uygulama veya cihaz belleniminden bağımsız olarak modelleri filoya dağıtmanıza yardımcı olan bir OTA dağıtım mekanizması içerir. bu Edge Manager aracısı aynı cihazda birden fazla model çalıştırmanıza olanak tanır. Aracı, aralıklar gibi kontrol ettiğiniz mantığa dayalı olarak tahmin verilerini toplar ve zaman içinde modellerinizi periyodik olarak yeniden eğitebilmeniz için bunları buluta yükler. SageMaker Edge, buluttan uç cihaza geçerken değiştirilmediğini doğrulayabilmeniz için modellerinizi kriptografik olarak imzalar.

Neo, hizmet olarak bir derleyicidir ve bu kullanım durumuna özellikle uygundur. Neo, doğruluk kaybı olmadan daha hızlı çalışacak şekilde bulut örneklerinde ve uç cihazlarda çıkarım için ML modellerini otomatik olarak optimize eder. Aşağıdakilerden biriyle oluşturulmuş bir ML modeliyle başlarsınız: desteklenen çerçeveler ve SageMaker'da veya başka bir yerde eğitim almış. Ardından hedef donanım platformunuzu seçersiniz (listeye bakın). Desteklenen cihazlar). Neo, tek bir tıklamayla eğitilmiş modeli optimize eder ve onu hafif SageMaker Edge çalışma zamanı kullanılarak çalıştırılabilen bir pakette derler. Derleyici, bulut örneğinde veya uç cihazda modeliniz için mevcut en iyi performansı çıkaran performans iyileştirmelerini uygulamak için bir ML modeli kullanır. Ardından modeli bir SageMaker uç noktası olarak veya desteklenen uç cihazlarda dağıtır ve tahminler yapmaya başlarsınız.

Aşağıdaki şema bu mimariyi göstermektedir.

PlatoBlockchain Veri Zekası gerçek kullanım örnekleri aracılığıyla uçta makine öğreniminin gizemini ortadan kaldırıyor. Dikey Arama. Ai.

Çözüm iş akışı aşağıdaki adımlardan oluşur:

  1. Geliştirici, araç kamerasına dağıtılması gereken son model artefaktını oluşturur, eğitir, doğrular ve oluşturur.
  2. Eğitilmiş modeli derlemek için Neo'yu çağırın.
  3. SageMaker Edge aracısı, bu durumda araç kamerası olan Edge cihazına kurulur ve yapılandırılır.
  4. İmzalı bir model ve optimize edilmiş modeli yüklemek ve çağırmak için SageMaker Edge aracısı tarafından kullanılan çalışma zamanı ile bir dağıtım paketi oluşturun.
  5. Mevcut OTA dağıtım mekanizmasını kullanarak paketi dağıtın.
  6. Edge uygulaması, çıkarım yapmak için SageMaker Edge aracısı ile etkileşime girer.
  7. Aracı, model izleme ve iyileştirme amaçları için uygulamadan gerçek zamanlı örnek giriş verileri göndermek üzere (gerekirse) yapılandırılabilir.

Kullanım örneği 3

Müşterinizin bir rüzgar türbininin mekanizmalarındaki (dişli kutusu, jeneratör veya rotor gibi) anormallikleri tespit eden bir uygulama geliştirdiğini varsayalım. Amaç, yerel koruma prosedürlerini anında çalıştırarak ekipmandaki hasarı en aza indirmektir. Bu türbinler çok pahalıdır ve kolay ulaşılamayan yerlerde bulunur. Her türbin, türbinden gelen sensör verilerini izlemek için bir NVIDIA Jetson cihazı ile donatılabilir. Ardından, verileri yakalamak ve anormallikleri tespit etmek için bir ML algoritması kullanmak için bir çözüme ihtiyacımız var. Cihazdaki yazılımı ve ML modellerini güncel tutmak için bir OTA mekanizmasına da ihtiyacımız var.

AWS IoT Greengrass V2 Edge Manager ile birlikte bu kullanım durumuna çok uygundur. AWS IoT Greengrass, cihazlarınızda IoT uygulamaları oluşturmanıza, dağıtmanıza ve yönetmenize yardımcı olan açık kaynaklı bir IoT uç çalışma zamanı ve bulut hizmetidir. olarak adlandırılan önceden oluşturulmuş yazılım modüllerini kullanarak uç uygulamalar oluşturmak için AWS IoT Greengrass'ı kullanabilirsiniz. bileşenler, uç cihazlarınızı AWS hizmetlerine veya üçüncü taraf hizmetlerine bağlayabilir. AWS IoT Greengrass'ın bu yeteneği, SageMaker Edge aracısı da dahil olmak üzere varlıkların cihazlara dağıtılmasını kolaylaştırır. AWS IoT Greengrass, uygulama yaşam döngüsünün yönetiminden sorumluyken Edge Manager, makine öğrenimi modeli yaşam döngüsünü birbirinden ayırır. Bu size, uç uygulama ve makine öğrenimi modellerinin yeni sürümlerini bağımsız olarak dağıtarak tüm çözümü geliştirmeye devam etme esnekliği sağlar. Aşağıdaki diyagram bu mimariyi göstermektedir.

PlatoBlockchain Veri Zekası gerçek kullanım örnekleri aracılığıyla uçta makine öğreniminin gizemini ortadan kaldırıyor. Dikey Arama. Ai.

Çözüm aşağıdaki adımlardan oluşur:

  1. Geliştirici, rüzgar türbinine yerleştirilmesi gereken son model artefaktını inşa eder, eğitir, doğrular ve yaratır.
  2. Eğitilmiş modeli derlemek için Neo'yu çağırın.
  3. AWS IoT Greengrass V2 entegrasyonu ile Edge Manager'ı kullanarak bir model bileşeni oluşturun.
  4. AWS IoT Greengrass V2'yi kurun.
  5. AWS IoT Greengrass V2 kullanarak bir çıkarım bileşeni oluşturun.
  6. Edge uygulaması, çıkarım yapmak için SageMaker Edge aracısı ile etkileşime girer.
  7. Aracı, model izleme ve iyileştirme amaçları için uygulamadan gerçek zamanlı örnek giriş verileri göndermek üzere (gerekirse) yapılandırılabilir.

Kullanım örneği 4

Son kullanım durumumuz için, her bir konteynerin birkaç sensöre sahip olduğu ve yerel olarak dağıtılan bilgi işlem ve depolama altyapısına bir sinyal akışı yaptığı, konteynerleri taşıyan bir gemiye bakalım. Buradaki zorluk, her bir kabın içeriğini ve her bir kabın içindeki sıcaklık, nem ve gazlara dayalı olarak malların durumunu bilmek istememizdir. Ayrıca her bir konteynırdaki tüm malları takip etmek istiyoruz. Yolculuk boyunca internet bağlantısı yoktur ve yolculuk aylar sürebilir. Bu altyapı üzerinde çalışan makine öğrenimi modelleri, tüm sorularımızı yanıtlayacak verileri önceden işlemeli ve bilgi üretmelidir. Üretilen verilerin aylarca yerel olarak saklanması gerekir. Edge uygulaması, tüm çıkarımları yerel bir veritabanında saklar ve ardından gemi limana yaklaştığında sonuçları bulutla senkronize eder.

AWS Kar Konisi ve AWS Kartopu itibaren AWS Kar Ailesi bu kullanım durumunda çok iyi uyabilir.

AWS Snowcone, küçük, sağlam ve güvenli bir uç bilgi işlem ve veri taşıma cihazıdır. Snowcone, tek kişilik kaldırılabilir bir cihaz için OSHA standardına göre tasarlanmıştır. Snowcone, aşağıdakileri kullanarak uç iş yüklerini çalıştırmanıza olanak tanır: Amazon Elastik Bilgi İşlem Bulutu (Amazon EC2) bilgi işlem ve petrol kuleleri, arama ve kurtarma araçları, askeri tesisler veya fabrika zeminleri gibi zorlu, bağlantısız saha ortamlarında ve ayrıca uzak ofisler, hastaneler ve sinema salonlarında yerel depolama.

Snowball, Snowcone'a kıyasla daha fazla bilgi işlem ekler ve bu nedenle daha zorlu uygulamalar için mükemmel bir seçim olabilir. Compute Optimized özelliği, bağlantısız ortamlarda bir uygulamanın performansını hızlandırmak için EC100 bulut sunucularıyla birlikte isteğe bağlı bir NVIDIA Tesla V2 GPU sağlar. GPU seçeneği ile, bağlantının çok az olduğu veya hiç olmadığı ortamlarda gelişmiş ML ve tam hareketli video analizi gibi uygulamaları çalıştırabilirsiniz.

EC2 bulut sunucusuna ek olarak, her tür uç çözümünü oluşturma ve dağıtma özgürlüğüne sahipsiniz. Örneğin: kullanabilirsiniz Amazon ECS'si veya uç uygulamasını, Edge Manager Agent'ı ve ML modelini ayrı kapsayıcılar olarak dağıtmak için başka bir kapsayıcı yöneticisi. Bu mimari, bir kapsayıcı yöneticisi aracının eklenmesiyle Kullanım Durumu 2'ye benzer (çoğu zaman çevrimdışı çalışması dışında).

Aşağıdaki diyagram bu çözüm mimarisini göstermektedir.

PlatoBlockchain Veri Zekası gerçek kullanım örnekleri aracılığıyla uçta makine öğreniminin gizemini ortadan kaldırıyor. Dikey Arama. Ai.

Bu çözümü uygulamak için Snow cihazınızı şu adresten sipariş etmeniz yeterlidir: AWS Yönetim Konsolu ve kaynaklarınızı başlatın.

Sonuç

Bu yazıda, kullanım durumunuza bağlı olarak birlikte çalışmayı seçebileceğiniz kenarın farklı yönlerini tartıştık. Ayrıca ML@Edge ile ilgili bazı temel kavramları ve uygulama yaşam döngüsü ile ML model yaşam döngüsünü birbirinden ayırmanın size bunları birbirine bağımlı olmadan geliştirme özgürlüğü verdiğini tartıştık. İş yükünüz için doğru uç cihazı seçmenin ve çözüm sürecinde doğru soruları sormanın geriye doğru çalışmanıza ve doğru AWS hizmetlerini daraltmanıza nasıl yardımcı olabileceğini vurguladık. Ayrıca, iş yükünüz için çalışacak kendi çözümlerinizi yaratmanız için size ilham vermek için referans mimarilerle birlikte farklı kullanım örnekleri de sunduk.


Yazarlar Hakkında

PlatoBlockchain Veri Zekası gerçek kullanım örnekleri aracılığıyla uçta makine öğreniminin gizemini ortadan kaldırıyor. Dikey Arama. Ai. Dinesh Kumar Subramani Edinburgh, İskoçya merkezli UKIR KOBİ ekibiyle birlikte Kıdemli Çözüm Mimarıdır. Yapay zeka ve makine öğrenimi konusunda uzmanlaşmıştır. Dinesh, AWS hizmetleriyle ilgili sorunlarını çözmelerine yardımcı olmak için farklı sektörlerdeki müşterilerle çalışmaktan keyif alıyor. İş dışında ailesiyle vakit geçirmeyi, satranç oynamayı ve farklı türlerde müzik dinlemeyi seviyor.

PlatoBlockchain Veri Zekası gerçek kullanım örnekleri aracılığıyla uçta makine öğreniminin gizemini ortadan kaldırıyor. Dikey Arama. Ai.Samir Araujo AWS'de AI/ML Çözümleri Mimarıdır. Müşterilerin, AWS'yi kullanarak iş zorluklarını çözen AI/ML çözümleri oluşturmasına yardımcı olur. Bilgisayarla görme, doğal dil işleme, tahmin, uçta ML ve daha fazlasıyla ilgili çeşitli AI/ML projeleri üzerinde çalışıyor. Boş zamanlarında donanım ve otomasyon projeleri ile oynamayı seviyor ve robotiğe özel bir ilgi duyuyor.

Zaman Damgası:

Den fazla AWS Makine Öğrenimi