Kuinka Getir lyhensi malliharjoittelun kestoa 90 % Amazon SageMakerilla ja AWS Batchilla | Amazon Web Services

Kuinka Getir lyhensi malliharjoittelun kestoa 90 % Amazon SageMakerilla ja AWS Batchilla | Amazon Web Services

Tämä on vieraspostaus, jonka ovat kirjoittaneet Nafi Ahmet Turgut, Hasan Burak Yel ja Damla Şentürk Getiristä.

Perustettu vuonna 2015, toi on asettanut itsensä edelläkävijäksi ultranopean päivittäistavaratoimituksen alalla. Tämä innovatiivinen teknologiayritys on mullistanut viimeisen mailin toimitussegmentin houkuttelevalla "elintarvikkeiden muutamassa minuutissa" tarjouksella. Getirillä on läsnäolo Turkissa, Isossa-Britanniassa, Alankomaissa, Saksassa ja Yhdysvalloissa, ja siitä on tullut monikansallinen voima, jonka kanssa on otettava huomioon. Nykyään Getir-brändi edustaa monipuolista ryhmittymää, joka kattaa yhdeksän eri toimialaa, jotka kaikki toimivat synergistisesti yksittäisen sateenvarjon alla.

Tässä viestissä selitämme, kuinka rakensimme päästä päähän tuoteluokkien ennustusputkien auttamaan kaupallisia tiimejä käyttämällä Amazon Sage Maker ja AWS-erä, mikä vähentää malliharjoittelun kestoa 90 %.

Nykyisen tuotevalikoimamme yksityiskohtainen ymmärtäminen on meille monien yritysten kanssa ratkaiseva haaste nykypäivän nopeatempoisilla ja kilpailluilla markkinoilla. Tehokas ratkaisu tähän ongelmaan on tuotekategorioiden ennustaminen. Mallin, joka luo kattavan luokkapuun, kaupalliset tiimimme voivat verrata olemassa olevaa tuotevalikoimaamme kilpailijoidemme tuotevalikoimaan, mikä tarjoaa strategisen edun. Siksi keskeinen haasteemme on tarkan tuotekategorian ennustemallin luominen ja käyttöönotto.

Hyödynnämme AWS:n tarjoamia tehokkaita työkaluja vastataksemme tähän haasteeseen ja navigoidaksemme tehokkaasti koneoppimisen (ML) ja ennakoivan analytiikan monimutkaisella alalla. Pyrkimyksemme johti onnistuneesti kokonaisvaltaisen tuotekategorian ennustusputkiston luomiseen, jossa yhdistyvät SageMakerin ja AWS Batchin vahvuudet.

Tämä ennakoivan analytiikan kyky, erityisesti tuoteluokkien tarkka ennuste, on osoittautunut korvaamattomaksi. Se tarjosi tiimeillemme kriittisiä tietoihin perustuvia oivalluksia, jotka optimoivat varastonhallinnan, tehostivat asiakasvuorovaikutusta ja vahvistivat läsnäoloamme markkinoilla.

Tässä viestissä selitetty menetelmä vaihtelee ominaisuusjoukon keräämisen alkuvaiheesta ennusteputken lopulliseen toteutukseen. Tärkeä osa strategiaamme on ollut SageMakerin ja AWS Batchin käyttö esikoulutettujen BERT-mallien jalostukseen seitsemälle eri kielelle. Lisäksi saumaton integraatiomme AWS:n objektitallennuspalveluun Amazonin yksinkertainen tallennuspalvelu (Amazon S3) on ollut avain näiden hienostuneiden mallien tehokkaaseen tallentamiseen ja käyttöön.

SageMaker on täysin hallittu ML-palvelu. SageMakerin avulla datatieteilijät ja -kehittäjät voivat nopeasti ja vaivattomasti rakentaa ja kouluttaa ML-malleja ja ottaa ne sitten suoraan käyttöön tuotantovalmiissa isännöitävissä olosuhteissa.

Täysin hallittavana palveluna AWS Batch auttaa sinua suorittamaan minkä tahansa mittakaavan erälaskentaa. AWS Batch huolehtii automaattisesti laskentaresursseista ja optimoi työtaakan jakautumisen työkuormien määrän ja laajuuden perusteella. AWS Batchin avulla sinun ei tarvitse asentaa tai hallita erälaskentaohjelmistoja, joten voit keskittyä tulosten analysointiin ja ongelmien ratkaisemiseen. Käytimme GPU-töitä, jotka auttavat meitä suorittamaan töitä, jotka käyttävät ilmentymän GPU:ia.

Katsaus ratkaisuun

Viisi henkilöä Getirin datatieteen tiimistä ja infrastruktuuritiimistä työskenteli yhdessä tämän projektin parissa. Projekti valmistui kuukaudessa ja otettiin tuotantoon viikon testauksen jälkeen.

Seuraavassa kaaviossa näkyy ratkaisun arkkitehtuuri.

Miten Getir lyhensi malliharjoittelun kestoa 90 % Amazon SageMakerilla ja AWS Batchilla | Amazon Web Services PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.

Malliputkisto ajetaan erikseen jokaiselle maalle. Arkkitehtuuri sisältää kaksi AWS Batch GPU cron -työtä kullekin maalle, jotka suoritetaan määritetyin aikatauluin.

Voitimme joitakin haasteita ottamalla SageMaker- ja AWS Batch GPU -resurssit strategisesti käyttöön. Kunkin ongelman ratkaisemiseen käytetty prosessi on kuvattu yksityiskohtaisesti seuraavissa osissa.

Hienosäätää monikielisiä BERT-malleja AWS Batch GPU -töillä

Etsimme ratkaisua useiden kielten tukemiseen monipuoliselle käyttäjäkunnallemme. BERT-mallit olivat ilmeinen valinta, koska ne pystyivät hoitamaan monimutkaisia ​​luonnollisen kielen tehtäviä tehokkaasti. Räätälöimme nämä mallit tarpeisiimme, valjastimme AWS:n tehon käyttämällä yhden solmun GPU-ilmentymiä. Tämän ansiosta pystyimme hienosäätämään esikoulutettuja BERT-malleja jokaiselle seitsemälle kielelle, joille tarvitsimme tukea. Tällä menetelmällä varmistimme korkean tarkkuuden tuotekategorioiden ennustamisessa ja ylittimme mahdolliset kielimuurit.

Tehokas mallin tallennus Amazon S3:lla

Seuraava askelemme oli käsitellä mallin varastointia ja hallintaa. Tätä varten valitsimme Amazon S3:n, joka tunnetaan skaalautumisestaan ​​ja turvallisuudestaan. Hienosäädettyjen BERT-malliemme tallentaminen Amazon S3:lle mahdollisti helpon pääsyn organisaatiomme eri ryhmiin, mikä virtaviivaisti käyttöönottoprosessiamme merkittävästi. Tämä oli ratkaiseva näkökohta toimintojemme ketteryyden saavuttamisessa ja ML-ponnistelujemme saumattomassa yhdistämisessä.

Päästä päähän -ennusteputken luominen

Tehokas putkisto vaadittiin, jotta valmiiksi koulutettuja mallejamme voitaisiin hyödyntää parhaalla mahdollisella tavalla. Otimme nämä mallit käyttöön ensin SageMakerissa, joka mahdollisti reaaliaikaiset ennusteet pienellä viiveellä, mikä paransi käyttökokemustamme. Laajemman mittakaavan eräennusteissa, jotka olivat yhtä tärkeitä toiminnallemme, käytimme AWS Batch GPU -töitä. Tämä varmisti resurssien optimaalisen käytön ja tarjosi meille täydellisen suorituskyvyn ja tehokkuuden tasapainon.

Tulevaisuuden mahdollisuuksien tutkiminen SageMaker MME:iden kanssa

Kun jatkamme kehitystä ja etsimme tehokkuutta ML-putkistossamme, yksi keino, jota haluamme tutkia, on SageMaker-multimallien päätepisteiden (MME) käyttö hienosäädetyille malleillemme. MME:n avulla voimme mahdollisesti virtaviivaistaa erilaisten hienosäädettyjen mallien käyttöönottoa ja varmistaa tehokkaan mallinhallinnan ja samalla hyötyä SageMakerin alkuperäisistä ominaisuuksista, kuten varjovarianteista, automaattisesta skaalauksesta ja amazonin pilvikello liittäminen. Tämä tutkimus on linjassa jatkuvan pyrkimyksemme kanssa parantaa ennakoivaa analytiikkaa ja tarjota asiakkaillemme ylivoimaisia ​​kokemuksia.

Yhteenveto

Onnistunut SageMaker- ja AWS Batch -integraatiomme ei ole ainoastaan ​​ratkaissut erityisiä haasteitamme, vaan myös parantanut merkittävästi toimintamme tehokkuutta. Kehittyneen tuoteluokkien ennustusputken käyttöönoton avulla pystymme antamaan kaupallisille tiimeillemme datapohjaisia ​​oivalluksia, mikä helpottaa tehokkaampaa päätöksentekoa.

Tuloksemme kertovat paljon lähestymistapamme tehokkuudesta. Olemme saavuttaneet 80 %:n ennustetarkkuuden kaikilla neljällä kategorian tarkkuustasolla, millä on tärkeä rooli tuotevalikoiman muovaamisessa jokaisessa maassa, jossa palvelemme. Tämä tarkkuus laajentaa ulottuvuutemme kielimuurien ulkopuolelle ja varmistaa, että palvelemme monipuolista käyttäjäkuntaamme äärimmäisen tarkasti.

Lisäksi käyttämällä ajoitettuja AWS Batch GPU -töitä strategisesti olemme pystyneet lyhentämään mallin koulutusaikoja 90 %. Tämä tehokkuus on edelleen virtaviivaistanut prosessejamme ja vahvistanut toimintamme ketteryyttä. Tehokas mallin tallennus Amazon S3:lla on ollut ratkaisevassa roolissa tässä saavutuksessa ja tasapainottanut sekä reaaliaikaisia ​​että eräennusteita.

Lisätietoja omien ML-putkien rakentamisen aloittamisesta SageMakerin avulla on kohdassa Amazon SageMaker -resurssit. AWS Batch on erinomainen vaihtoehto, jos etsit edullista, skaalautuvaa ratkaisua erätöiden suorittamiseen pienillä käyttökustannuksilla. Aloita katsomalla AWS Batchin käytön aloittaminen.


Tietoja Tekijät

Miten Getir lyhensi malliharjoittelun kestoa 90 % Amazon SageMakerilla ja AWS Batchilla | Amazon Web Services PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.Nafi Ahmet Turgut valmistui sähkö- ja elektroniikkatekniikan maisteriksi ja työskenteli tutkijana. Hän keskittyi koneoppimisalgoritmien rakentamiseen hermostuneiden verkkopoikkeamien simuloimiseksi. Hän tuli Getirille vuonna 2019 ja työskentelee tällä hetkellä Senior Data Science & Analytics Managerina. Hänen tiiminsä on vastuussa Getirin kokonaisvaltaisten koneoppimisalgoritmien ja dataohjattujen ratkaisujen suunnittelusta, toteutuksesta ja ylläpidosta.

Miten Getir lyhensi malliharjoittelun kestoa 90 % Amazon SageMakerilla ja AWS Batchilla | Amazon Web Services PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.Hasan Burak Yel suoritti kandidaatin tutkinnon sähkö- ja elektroniikkatekniikasta Boğaziçin yliopistossa. Hän työskenteli Turkcellissa keskittyen pääasiassa aikasarjaennusteisiin, datan visualisointiin ja verkkoautomaatioon. Hän liittyi Getiriin vuonna 2021 ja työskentelee tällä hetkellä Data Science & Analytics Managerina ja vastaa haku-, suositus- ja kasvualueista.

Miten Getir lyhensi malliharjoittelun kestoa 90 % Amazon SageMakerilla ja AWS Batchilla | Amazon Web Services PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.Damla Şentürk suoritti tietokonetekniikan kandidaatin tutkinnon Galatasarayn yliopistossa. Hän jatkaa tietokonetekniikan maisterin tutkintoa Boğaziçi-yliopistossa. Hän liittyi Getiriin vuonna 2022 ja on työskennellyt tietotutkijana. Hän on työskennellyt kaupallisissa, toimitusketjuissa ja löytöihin liittyvissä projekteissa.

Miten Getir lyhensi malliharjoittelun kestoa 90 % Amazon SageMakerilla ja AWS Batchilla | Amazon Web Services PlatoBlockchain Data Intelligence. Pystysuuntainen haku. Ai.Esra Kayabalı on AWS:n vanhempi ratkaisuarkkitehti, joka on erikoistunut analytiikka-alueisiin, mukaan lukien tietovarastointi, datajärvet, big data-analytiikka, erä- ja reaaliaikainen datan suoratoisto sekä tietojen integrointi. Hänellä on 12 vuoden kokemus ohjelmistokehityksestä ja arkkitehtuurista. Hän on intohimoinen pilviteknologioiden oppimiseen ja opettamiseen.

Aikaleima:

Lisää aiheesta AWS-koneoppiminen