Demystifioi koneoppimisen reunalla todellisten käyttötapausten avulla PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Koneoppimisen mysteerin selvittäminen reunalla todellisten käyttötapausten kautta

reuna on termi, joka viittaa sijaintiin kaukana pilvestä tai suuresta datakeskuksesta, jossa sinulla on tietokonelaite (reunalaite), joka pystyy suorittamaan (edge) sovelluksia. Reunalaskenta on työkuormien suorittamista näissä reunalaitteissa. Koneoppiminen reunalla (ML@Edge) on konsepti, joka tuo mahdollisuuden ajaa ML-malleja paikallisesti reunalaitteisiin. Reunasovellus voi sitten kutsua nämä ML-mallit. ML@Edge on tärkeä monissa skenaarioissa, joissa raakadataa kerätään lähteistä, jotka ovat kaukana pilvestä. Näillä skenaarioilla voi myös olla erityisiä vaatimuksia tai rajoituksia:

  • Matala latenssi, reaaliaikaiset ennusteet
  • Huono tai olematon yhteys pilveen
  • Lakirajoitukset, jotka eivät salli tietojen lähettämistä ulkoisiin palveluihin
  • Suuret tietojoukot, jotka on esikäsiteltävä paikallisesti ennen vastausten lähettämistä pilveen

Seuraavassa on joitain monista käyttötapauksista, jotka voivat hyötyä ML-malleista, jotka toimivat lähellä ennusteissa käytettävää dataa luovaa laitteistoa:

  • Turvallisuusasiat – Rajoitettua aluetta, jossa raskaat koneet toimivat automatisoidussa satamassa, valvotaan kameralla. Jos henkilö tulee tälle alueelle vahingossa, turvamekanismi aktivoituu pysäyttämään koneet ja suojelemaan ihmistä.
  • Ennustava ylläpito – Tärinä- ja äänianturit keräävät tietoa tuuliturbiinin vaihteistosta. Poikkeamien havaitsemismalli käsittelee anturin tiedot ja tunnistaa, jos laitteistossa on poikkeavuuksia. Jos poikkeavuus havaitaan, reunalaite voi aloittaa valmiusmittauksen reaaliajassa välttääkseen laitteiston vaurioitumisen, kuten kytkeytyä katkosten päälle tai irrottaa generaattori verkosta.
  • Vikojen havaitseminen tuotantolinjoilla – Kamera ottaa kuvia tuotteista kuljetinhihnalle ja käsittelee kehykset kuvaluokitusmallilla. Jos vika havaitaan, tuote voidaan hävittää automaattisesti ilman manuaalista puuttumista.

Vaikka ML@Edge pystyy käsittelemään monia käyttötapauksia, on olemassa monimutkaisia ​​arkkitehtonisia haasteita, jotka on ratkaistava turvallisen, vankan ja luotettavan suunnittelun saavuttamiseksi. Tässä viestissä opit joitain yksityiskohtia ML@Edgestä, siihen liittyvistä aiheista ja siitä, kuinka AWS-palveluita voi käyttää näiden haasteiden voittamiseksi ja täydellisen ratkaisun toteuttamiseksi ML-työkuormituksellesi.

ML@Edge -katsaus

ML@Edge ja Internet of Things (IoT) ovat yleisiä sekaannuksia, joten on tärkeää selventää, miten ML@Edge eroaa IoT:stä ja miten ne molemmat voisivat yhdessä tarjota tehokkaan ratkaisun tietyissä tapauksissa.

ML@Edgeä käyttävässä reunaratkaisussa on kaksi pääkomponenttia: reunasovellus ja reunalaitteessa käynnissä oleva (sovelluksen kutsuma) ML-malli. ML@Edge on yhden tai useamman ML-mallin elinkaaren hallintaa, joka on otettu käyttöön reunalaitteisiin. ML-mallin elinkaari voi alkaa pilvipuolelta (on Amazon Sage Makeresimerkiksi), mutta yleensä päättyy mallin itsenäiseen käyttöönottoon reunalaitteessa. Jokainen skenaario vaatii erilaisia ​​ML-mallien elinkaareja, jotka voidaan muodostaa useista vaiheista, kuten tiedonkeruusta; tietojen valmistelu; mallin rakentaminen, kokoaminen ja käyttöönotto reunalaitteessa; mallin lataus ja käyttö; ja toistaa elinkaari.

ML@Edge -mekanismi ei ole vastuussa sovelluksen elinkaaresta. Tätä tarkoitusta varten olisi omaksuttava erilainen lähestymistapa. ML-mallin elinkaaren ja sovelluksen elinkaaren erottaminen toisistaan ​​antaa sinulle vapauden ja joustavuuden jatkaa niiden kehittämistä eri tahtiin. Kuvittele mobiilisovellus, joka upottaa ML-mallin resurssina, kuten kuvana tai XML-tiedostona. Tässä tapauksessa joka kerta, kun koulutat uutta mallia ja haluat ottaa sen käyttöön matkapuhelimissa, sinun on asennettava koko sovellus uudelleen. Tämä vie aikaa ja rahaa ja voi tuoda sovellukseesi virheitä. Irrottamalla ML-mallin elinkaari, julkaiset mobiilisovelluksen kerran ja otat käyttöön niin monta ML-mallin versiota kuin tarvitset.

Mutta miten IoT korreloi ML@Edgen kanssa? IoT liittyy fyysisiin objekteihin, joihin on upotettu teknologioita, kuten antureita, prosessointikykyä ja ohjelmistoja. Nämä objektit yhdistetään muihin laitteisiin ja järjestelmiin Internetin tai muiden viestintäverkkojen kautta tietojen vaihtamiseksi. Seuraava kuva havainnollistaa tätä arkkitehtuuria. Konsepti syntyi alun perin ajateltaessa yksinkertaisia ​​laitteita, jotka vain keräävät tietoa reunasta, suorittavat yksinkertaisen paikallisen käsittelyn ja lähettävät tuloksen tehokkaampaan laskentayksikköön, joka suorittaa analyyttisia prosesseja, jotka auttavat ihmisiä ja yrityksiä päätöksenteossa. IoT-ratkaisu vastaa reunasovelluksen elinkaaren hallinnasta. Lisätietoja IoT:stä on kohdassa Internet asioita.

Demystifioi koneoppimisen reunalla todellisten käyttötapausten avulla PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Jos sinulla on jo IoT-sovellus, voit lisätä ML@Edge-ominaisuuksia tehostaaksesi tuotetta seuraavan kuvan mukaisesti. Muista, että ML@Edge ei ole riippuvainen IoT:stä, mutta voit yhdistää niitä luodaksesi tehokkaamman ratkaisun. Kun teet niin, parannat yksinkertaisen laitteesi mahdollisuuksia tuottaa reaaliaikaisia ​​oivalluksia yrityksellesi nopeammin kuin vain lähettämällä tietoja pilveen myöhempää käsittelyä varten.

Demystifioi koneoppimisen reunalla todellisten käyttötapausten avulla PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Jos olet luomassa uutta reunaratkaisua tyhjästä ML@Edge-ominaisuuksilla, on tärkeää suunnitella joustava arkkitehtuuri, joka tukee sekä sovelluksen että ML-mallin elinkaarta. Tarjoamme joitain viitearkkitehtuureja reunasovelluksille ML@Edgen kanssa myöhemmin tässä viestissä. Mutta ensin sukeltakaamme syvemmälle reunalaskentaan ja opimme valitsemaan ratkaisullesi oikean reunalaitteen ympäristön rajoitusten perusteella.

Reunalaskenta

Riippuen siitä, kuinka kaukana laite on pilvestä tai suuresta datakeskuksesta (tukiasemasta), reunalaitteiden kolme pääominaisuusa on otettava huomioon järjestelmän suorituskyvyn ja pitkäikäisyyden maksimoimiseksi: laskenta- ja tallennuskapasiteetti, liitettävyys ja virrankulutus. Seuraavassa kaaviossa on kolme reunalaitteiden ryhmää, joissa yhdistyvät näiden ominaisuuksien eri spesifikaatiot sen mukaan, kuinka kaukana ne ovat alustasta.

Demystifioi koneoppimisen reunalla todellisten käyttötapausten avulla PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Ryhmät ovat seuraavat:

  • MEC:t (Multi-access Edge Computing) – MEC:t tai pienet datakeskukset, joille on ominaista alhainen tai erittäin pieni latenssi ja suuri kaistanleveys, ovat yleisiä ympäristöjä, joissa ML@Edge voi tuoda etuja ilman suuria rajoituksia pilvityökuormiin verrattuna. 5G-antennit ja palvelimet tehtaissa, varastoissa, laboratorioissa ja niin edelleen minimaalisilla energiarajoitteilla ja hyvällä Internet-yhteydellä tarjoavat erilaisia ​​tapoja käyttää ML-malleja GPU:illa ja CPU:illa, virtuaalikoneilla, konteilla ja paljasmetallipalvelimilla.
  • Lähellä reunaa – Tämä on silloin, kun liikkuvuus tai tiedon yhdistäminen ovat vaatimuksia ja laitteilla on joitain rajoituksia virrankulutuksen ja prosessointitehon suhteen, mutta niillä on silti jonkin verran luotettavaa liitettävyyttä, vaikkakin korkeammalla viiveellä, rajoitetulla suorituskyvyllä ja kalliimmin kuin "lähellä reunaa". Mobiilisovellukset, erityiset ML-mallien nopeuttamiseen tarkoitetut levyt tai yksinkertaiset laitteet, jotka kykenevät ajamaan ML-malleja ja jotka kuuluvat langattomien verkkojen piiriin, sisältyvät tähän ryhmään.
  • Kaukainen reuna – Tässä äärimmäisessä tilanteessa reunalaitteilla on vakavia virrankulutus- tai yhteysrajoituksia. Tästä johtuen myös prosessointitehoa on rajoitettu monissa etäskenaarioissa. Maatalous, kaivostoiminta, valvonta ja turvallisuus sekä meriliikenne ovat joitakin aloja, joilla kaukoreunan laitteilla on tärkeä rooli. Yksinkertaiset levyt, yleensä ilman grafiikkasuorituksia tai muita tekoälykiihdyttimiä, ovat yleisiä. Ne on suunniteltu lataamaan ja suorittamaan yksinkertaisia ​​ML-malleja, tallentamaan ennusteet paikalliseen tietokantaan ja nukkumaan seuraavaan ennustejaksoon asti. Reaaliaikaista dataa käsittelevillä laitteilla voi olla suuria paikallisia tallennustilaa tietojen menettämisen välttämiseksi.

Haasteet

On yleistä, että ML@Edge-skenaarioissa on satoja tai tuhansia (ehkä jopa miljoonia) laitteita, jotka käyttävät samoja malleja ja reunasovelluksia. Kun skaalaat järjestelmääsi, on tärkeää, että sinulla on vankka ratkaisu, joka pystyy hallitsemaan tuettavien laitteiden määrää. Tämä on monimutkainen tehtävä, ja näitä skenaarioita varten sinun on esitettävä monia kysymyksiä:

  • Kuinka käytän ML-malleja reunassa olevilla laitteilla?
  • Kuinka voin rakentaa, optimoida ja ottaa käyttöön ML-malleja useisiin reunalaitteisiin?
  • Kuinka suojaan mallini, kun otan sen käyttöön ja käytän sitä reunassa?
  • Kuinka seuraan mallini suorituskykyä ja koulutan sitä tarvittaessa uudelleen?
  • Kuinka poistan tarpeen asentaa suuria puitteita, kuten TensorFlow tai PyTorch, rajoitettuun laitteeseeni?
  • Kuinka paljastan yhden tai useita malleja reunasovelluksellani yksinkertaisena API:na?
  • Kuinka luon uuden tietojoukon reunalaitteiden sieppaamista hyötykuormista ja ennusteista?
  • Kuinka teen kaikki nämä tehtävät automaattisesti (MLOps plus ML@Edge)?

Seuraavassa osiossa tarjoamme vastauksia kaikkiin näihin kysymyksiin esimerkkikäyttötapausten ja viitearkkitehtuurien kautta. Keskustelemme myös siitä, mitä AWS-palveluita voit yhdistää kokonaisten ratkaisujen rakentamiseksi kullekin tutkitulle skenaariolle. Jos kuitenkin haluat aloittaa hyvin yksinkertaisella kululla, joka kuvaa, kuinka käyttää joitain AWS:n tarjoamia palveluita ML@Edge-ratkaisun luomiseen, tämä on esimerkki:

SageMakerin avulla voit helposti valmistella tietojoukon ja rakentaa ML-malleja, jotka otetaan käyttöön reunalaitteisiin. Kanssa Amazon SageMaker Neo, voit koota ja optimoida kouluttamasi mallin valitsemaasi reunalaitteeseen. Mallin kääntämisen jälkeen tarvitset vain kevyen suoritusajan sen suorittamiseen (palvelun tarjoaa). Amazon SageMaker Edge Manager on vastuussa kaikkien reunalaitteidesi ML-mallien elinkaaren hallinnasta. Edge Manager voi hallita jopa miljoonia laitteita. Jokaiseen reunalaitteeseen asennettu agentti paljastaa käyttöönotetut ML-mallit sovellusliittymänä. Agentti vastaa myös mittareiden, hyötykuormien ja ennusteiden keräämisestä, joita voit käyttää seurantaan tai uuden tietojoukon rakentamiseen mallin uudelleenkouluttamiseksi tarvittaessa. Lopuksi kanssa Amazon SageMaker -putkistot, voit luoda automatisoidun putkilinjan, joka sisältää kaikki vaiheet, joita tarvitaan ML-mallien rakentamiseen, optimointiin ja käyttöönottoon laitteissasi. Tämä automatisoitu putki voidaan sitten käynnistää yksinkertaisilla määrittämilläsi tapahtumilla ilman ihmisen väliintuloa.

Käyttötapaus 1

Oletetaan, että lentokonevalmistaja haluaa havaita ja seurata tuotantohallissa olevia osia ja työkaluja. Tuottavuuden parantamiseksi kaikki tarvittavat osat ja oikeat työkalut on oltava insinöörien saatavilla jokaisessa tuotantovaiheessa. Haluamme vastata kysymyksiin, kuten: Missä on osa A? tai Missä on työkalu B? Meillä on jo asennettuna useita IP-kameroita, jotka on yhdistetty paikalliseen verkkoon. Kamerat kattavat koko hallin ja voivat suoratoistaa reaaliaikaista HD-videota verkon kautta.

AWS-panoraama sopii hyvin tähän tapaukseen. AWS Panorama tarjoaa ML-laitteiston ja hallitun palvelun, jonka avulla voit lisätä tietokonenäköä (CV) olemassa olevaan IP-kamerakantasi ja automatisoida. AWS Panorama antaa sinulle mahdollisuuden lisätä CV:tä olemassa oleviin IP (Internet Protocol) -kameroihin ja automatisoida tehtäviä, jotka perinteisesti edellyttävät ihmisen tarkastusta ja valvontaa.

Seuraavassa viitearkkitehtuurissa näytämme AWS Panorama Appliancessa toimivan sovelluksen pääkomponentit. Panorama Application SDK:n avulla on helppoa kaapata videota kameravirroista, tehdä päätelmiä useiden ML-mallien putkistosta ja käsitellä tuloksia säilön sisällä olevan Python-koodin avulla. Voit käyttää malleja mistä tahansa suositusta ML-kirjastosta, kuten TensorFlow, PyTorch tai TensorRT. Mallin tulokset voidaan integroida lähiverkkosi liiketoimintajärjestelmiin, jolloin voit reagoida tapahtumiin reaaliajassa.

Demystifioi koneoppimisen reunalla todellisten käyttötapausten avulla PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Ratkaisu koostuu seuraavista vaiheista:

  1. Yhdistä ja määritä AWS Panorama -laite samaan paikallisverkkoon.
  2. Harjoittele ML-malli (objektintunnistus) tunnistamaan kunkin kehyksen osat ja työkalut.
  3. Rakenna AWS Panorama -sovellus, joka saa ennusteet ML-mallista, käyttää seurantamekanismia jokaiseen objektiin ja lähettää tulokset reaaliaikaiseen tietokantaan.
  4. Operaattorit voivat lähettää tietokantaan kyselyitä osien ja työkalujen paikallistamiseksi.

Käyttötapaus 2

Kuvittele seuraavaa käyttötapaamme varten, että luomme kojelautakameran ajoneuvoille, jotka pystyvät tukemaan kuljettajaa monissa tilanteissa, kuten välttämään jalankulkijoita. CV25-levy Ambarallalta. ML-mallien isännöinti laitteessa, jossa on rajalliset järjestelmäresurssit, voi olla vaikeaa. Tässä tapauksessa oletetaan, että meillä on jo vakiintunut OTA (Over-the-air) -toimitusmekanismi, joka mahdollistaa tarvittavien sovelluskomponenttien asentamisen reunalaitteeseen. Hyödyisimme kuitenkin edelleen mahdollisuudesta toteuttaa itse mallin OTA-käyttöönotto, mikä eristää sovelluksen ja mallin elinkaaren.

Amazon SageMaker Edge Manager ja Amazon SageMaker Neo sopii hyvin tähän käyttötapaukseen.

Edge Managerin avulla ML edge -kehittäjien on helppo käyttää samoja tuttuja työkaluja pilvessä tai reunalaitteissa. Se vähentää aikaa ja vaivaa, joka tarvitaan mallien saattamiseksi tuotantoon, samalla kun voit jatkuvasti seurata ja parantaa mallien laatua koko laitekannassasi. SageMaker Edge sisältää OTA-käyttöönottomekanismin, jonka avulla voit ottaa käyttöön malleja laivastossa riippumatta sovelluksesta tai laitteen laiteohjelmistosta. The Edge Manager -agentti voit käyttää useita malleja samassa laitteessa. Agentti kerää ennustedataa ohjaamasi logiikan perusteella, kuten aikavälejä, ja lataa ne pilveen, jotta voit ajoittain kouluttaa mallejasi uudelleen ajan mittaan. SageMaker Edge allekirjoittaa mallisi kryptografisesti, jotta voit varmistaa, että sitä ei ole peukaloitu, kun se siirtyy pilvestä reunalaitteeseen.

Neo on kääntäjä palveluna ja sopii erityisen hyvin tähän käyttötapaukseen. Neo optimoi ML-mallit automaattisesti pilvitapahtumien ja reunalaitteiden johtopäätösten tekemiseksi, jotta ne toimivat nopeammin ilman tarkkuuden menetystä. Aloitat ML-mallilla, joka on rakennettu jollakin seuraavista: tuetut puitteet ja koulutettu SageMakerissa tai missä tahansa muualla. Sitten valitset kohdelaitteistoalustan (katso luetteloa tuetut laitteet). Yhdellä napsautuksella Neo optimoi koulutetun mallin ja kokoaa sen paketiksi, jota voidaan käyttää kevyellä SageMaker Edge -ajonaikaisella. Kääntäjä käyttää ML-mallia suorituskyvyn optimointiin, joka poimii mallillesi parhaan käytettävissä olevan suorituskyvyn pilvi-instanssissa tai reunalaitteessa. Tämän jälkeen otat mallin käyttöön SageMaker-päätepisteenä tai tuetuissa reunalaitteissa ja alat tehdä ennusteita.

Seuraava kaavio kuvaa tätä arkkitehtuuria.

Demystifioi koneoppimisen reunalla todellisten käyttötapausten avulla PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Ratkaisun työnkulku koostuu seuraavista vaiheista:

  1. Kehittäjä rakentaa, kouluttaa, validoi ja luo lopullisen malliartefaktin, joka on otettava käyttöön kojelautaan.
  2. Kutsu Neo kokoamaan koulutettu malli.
  3. SageMaker Edge -agentti on asennettu ja määritetty Edge-laitteeseen, tässä tapauksessa kojelautakameraan.
  4. Luo käyttöönottopaketti, jossa on allekirjoitettu malli ja ajonaika, jota SageMaker Edge -agentti käyttää optimoidun mallin lataamiseen ja kutsumiseen.
  5. Ota paketti käyttöön käyttämällä olemassa olevaa OTA-käyttöönottomekanismia.
  6. Edge-sovellus on vuorovaikutuksessa SageMaker Edge -agentin kanssa tehdäkseen päätelmiä.
  7. Agentti voidaan määrittää (tarvittaessa) lähettämään reaaliaikaista näytetulodataa sovelluksesta mallin seurantaa ja tarkennusta varten.

Käyttötapaus 3

Oletetaan, että asiakkaasi kehittää sovellusta, joka havaitsee poikkeamat tuuliturbiinin mekanismeissa (kuten vaihteistossa, generaattorissa tai roottorissa). Tavoitteena on minimoida laitteiden vauriot suorittamalla paikallisia suojaustoimenpiteitä lennossa. Nämä turbiinit ovat erittäin kalliita ja sijaitsevat paikoissa, joihin ei ole helposti saatavilla. Jokainen turbiini voidaan varustaa NVIDIA Jetson -laitteella, joka valvoo turbiinin anturitietoja. Tarvitsemme sitten ratkaisun tietojen kaappaamiseen ja ML-algoritmin käyttämiseen poikkeamien havaitsemiseen. Tarvitsemme myös OTA-mekanismin pitääksemme laitteen ohjelmistot ja ML-mallit ajan tasalla.

AWS IoT Greengrass V2 yhdessä Edge Managerin kanssa sopivat hyvin tähän käyttötapaukseen. AWS IoT Greengrass on avoimen lähdekoodin IoT:n reuna-ajonaikainen ja pilvipalvelu, jonka avulla voit rakentaa, ottaa käyttöön ja hallita IoT-sovelluksia laitteillasi. AWS IoT Greengrassin avulla voit rakentaa reunasovelluksia käyttämällä valmiita ohjelmistomoduuleja, ns osat, joka voi yhdistää reunalaitteesi AWS-palveluihin tai kolmannen osapuolen palveluihin. Tämä AWS IoT Greengrassin ominaisuus helpottaa resurssien käyttöönottoa laitteissa, mukaan lukien SageMaker Edge -agentti. AWS IoT Greengrass vastaa sovelluksen elinkaaren hallinnasta, kun taas Edge Manager erottaa ML-mallin elinkaaren. Tämä antaa sinulle joustavuuden jatkaa koko ratkaisun kehittämistä ottamalla käyttöön uusia versioita reunasovelluksesta ja ML-malleista itsenäisesti. Seuraava kaavio havainnollistaa tätä arkkitehtuuria.

Demystifioi koneoppimisen reunalla todellisten käyttötapausten avulla PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Ratkaisu koostuu seuraavista vaiheista:

  1. Kehittäjä rakentaa, kouluttaa, validoi ja luo lopullisen malliartefaktin, joka on asennettava tuuliturbiiniin.
  2. Kutsu Neo kokoamaan koulutettu malli.
  3. Luo mallikomponentti Edge Managerilla ja AWS IoT Greengrass V2 -integraatiolla.
  4. Ota AWS IoT Greengrass V2 käyttöön.
  5. Luo päättelykomponentti AWS IoT Greengrass V2:lla.
  6. Edge-sovellus on vuorovaikutuksessa SageMaker Edge -agentin kanssa tehdäkseen päätelmiä.
  7. Agentti voidaan määrittää (tarvittaessa) lähettämään reaaliaikaista näytetulodataa sovelluksesta mallin seurantaa ja tarkennusta varten.

Käyttötapaus 4

Tarkastellaan loppukäyttötapauksessamme kontteja kuljettavaa alusta, jossa jokaisessa kontissa on pari anturia ja joka lähettää signaalin paikallisesti käyttöön otettuun laskenta- ja tallennusinfrastruktuuriin. Haasteena on, että haluamme tietää kunkin astian sisällön ja tavaran kunnon lämpötilan, kosteuden ja kunkin astian sisällä olevien kaasujen perusteella. Haluamme myös seurata kaikkia tavaroita jokaisessa kontissa. Internet-yhteyttä ei ole koko matkan ajan, ja matka voi kestää kuukausia. Tässä infrastruktuurissa toimivien ML-mallien tulee esikäsitellä tiedot ja tuottaa tietoa vastaamaan kaikkiin kysymyksiimme. Luotuja tietoja on säilytettävä paikallisesti kuukausia. Edellinen sovellus tallentaa kaikki päätelmät paikalliseen tietokantaan ja synkronoi tulokset pilven kanssa, kun alus lähestyy satamaa.

AWS-lumiukko ja AWS lumipallo mistä AWS Snow Family voisi sopia hyvin tähän käyttötapaukseen.

AWS Snowcone on pieni, kestävä ja turvallinen reunalaskenta- ja tiedonsiirtolaite. Snowcone on suunniteltu OSHA-standardin mukaan yhden henkilön nostettavaksi. Snowconen avulla voit suorittaa reunatyökuormia käyttämällä Amazonin elastinen laskentapilvi (Amazon EC2) -laskenta ja paikallinen tallennus ankarissa, irrallaan olevissa kenttäympäristöissä, kuten öljynporauslautoissa, etsintä- ja pelastusajoneuvoissa, armeijan kohteissa tai tehdaskerroksissa sekä etätoimistoissa, sairaaloissa ja elokuvateattereissa.

Snowball lisää tietojenkäsittelyä Snowconeen verrattuna ja voi siksi sopia hyvin vaativampiin sovelluksiin. Compute Optimized -ominaisuus tarjoaa valinnaisen NVIDIA Tesla V100 GPU:n sekä EC2-instanssit nopeuttamaan sovelluksen suorituskykyä irrotetuissa ympäristöissä. GPU-vaihtoehdon avulla voit käyttää sovelluksia, kuten edistynyt ML ja täydellinen liikevideoanalyysi ympäristöissä, joissa on vähän tai ei ollenkaan yhteyksiä.

EC2-instanssin lisäksi sinulla on vapaus rakentaa ja ottaa käyttöön minkä tahansa tyyppisiä reunaratkaisuja. Esimerkiksi: voit käyttää Amazon ECS tai muu säilöhallinta ottaaksesi käyttöön reunasovelluksen, Edge Manager Agentin ja ML-mallin yksittäisinä säilöinä. Tämä arkkitehtuuri olisi samanlainen kuin Use Case 2 (paitsi, että se toimii offline-tilassa suurimman osan ajasta), ja siihen on lisätty konttihallintatyökalu.

Seuraava kaavio havainnollistaa tätä ratkaisuarkkitehtuuria.

Demystifioi koneoppimisen reunalla todellisten käyttötapausten avulla PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Voit toteuttaa tämän ratkaisun tilaamalla Snow-laitteesi osoitteesta AWS-hallintakonsoli ja käynnistä resurssit.

Yhteenveto

Tässä viestissä keskustelimme reunan eri näkökohdista, joita voit valita käyttötapasi perusteella. Keskustelimme myös joistakin ML@Edgen tärkeimmistä käsitteistä ja siitä, kuinka sovelluksen elinkaaren ja ML-mallin elinkaaren irrottaminen antaa sinulle vapauden kehittää niitä ilman riippuvuutta toisistaan. Korostimme, kuinka oikean reunalaitteen valitseminen työmäärääsi varten ja oikeiden kysymysten esittäminen ratkaisuprosessin aikana voi auttaa sinua työskentelemään taaksepäin ja rajaamaan oikeat AWS-palvelut. Esittelimme myös erilaisia ​​käyttötapauksia sekä referenssiarkkitehtuureja, jotka inspiroivat sinua luomaan omia ratkaisujasi, jotka sopivat työmäärääsi varten.


Tietoja Tekijät

Demystifioi koneoppimisen reunalla todellisten käyttötapausten avulla PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai. Dinesh Kumar Subramani on vanhempi ratkaisuarkkitehti UKIR SMB -tiimissä Edinburghissa Skotlannissa. Hän on erikoistunut tekoälyyn ja koneoppimiseen. Dinesh nauttii työskentelystä asiakkaiden kanssa eri toimialoilla auttaakseen heitä ratkaisemaan ongelmansa AWS-palveluiden kanssa. Työn ulkopuolella hän rakastaa viettää aikaa perheensä kanssa, pelata shakkia ja nauttia musiikista eri genreissä.

Demystifioi koneoppimisen reunalla todellisten käyttötapausten avulla PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.Samir Araújo on AI / ML Solutions Architect AWS: llä. Hän auttaa asiakkaita luomaan AI / ML-ratkaisuja, jotka ratkaisevat heidän liiketoimintahaasteensa AWS: n avulla. Hän on työskennellyt useissa tekoäly- / ML-hankkeissa, jotka liittyvät tietokonenäköön, luonnollisen kielen käsittelyyn, ennustamiseen, ML: n reunaan ja muuhun. Hän haluaa leikkiä laitteisto- ja automaatioprojekteilla vapaa-ajallaan, ja hän on erityisen kiinnostunut robotiikasta.

Aikaleima:

Lisää aiheesta AWS-koneoppiminen