Amazon SageMaker egy teljesen felügyelt szolgáltatás, amely lehetővé teszi a fejlesztők és adattudósok számára, hogy gyorsan és könnyedén építsenek, képezzenek és telepítsenek gépi tanulási (ML) modelleket bármilyen léptékben. A SageMaker egyszerűvé teszi a modellek üzembe helyezését közvetlenül a szolgáltatás API-hívásai révén. A modellek konténerekbe vannak csomagolva a robusztus és méretezhető telepítés érdekében. Bár különféle belépési pontokat biztosít, például a SageMaker Python SDK-t, az AWS SDK-kat, a SageMaker konzolt és Amazon SageMaker Studio Az ML-modellek betanításának és nagyszabású üzembe helyezésének egyszerűsítése érdekében az ügyfelek még mindig jobb módszereket keresnek modelljeik játszótéri tesztelésére és a termelési telepítések optimalizálására.
Két új módszert vezetünk be a SageMaker segítségével a modellek csomagolásának és üzembe helyezésének egyszerűsítésére.
Ebben a bejegyzésben bemutatjuk az új SageMaker Python SDK-t ModelBuilder
tapasztalat, amelynek célja, hogy minimalizálja a tanulási görbét az új SageMaker-felhasználók, például az adatkutatók számára, ugyanakkor segíti a tapasztalt MLOps mérnököket a SageMaker hosting szolgáltatások maximális kihasználásában. Csökkenti a kezdeti beállítás és üzembe helyezés bonyolultságát, és útmutatást ad a SageMaker teljes képességeinek kihasználásához szükséges legjobb gyakorlatokhoz. Részletes információkat és GitHub-példákat biztosítunk ehhez az új SageMaker-képességhez.
A másik új bevezetés a SageMaker Studio új interaktív telepítési élményének használata. Ezt a 2. részben tárgyaljuk.
A modellek SageMaker-végponton való üzembe helyezése egy sor lépést foglal magában, amelyekkel a modell készen áll a SageMaker-végponton való tárolásra. Ez magában foglalja a modell műtermékek megfelelő formátumba és szerkezetbe állítását, következtetési kód létrehozását, valamint olyan lényeges részletek megadását, mint a modellkép URL-címe, Amazon egyszerű tárolási szolgáltatás (Amazon S3) a modell műtermékeinek helye, a szerializálás és a deszerializálás lépései, valamint a szükséges lépések AWS Identity and Access Management (IAM) szerepköröket a megfelelő hozzáférési engedélyek elősegítése érdekében. Ezt követően egy végpont-konfigurációhoz meg kell határozni a következtetés típusát, és be kell állítania a megfelelő paramétereket, például a példánytípusokat, a számokat és a forgalom elosztását a modellváltozatok között.
Hogy további segítséget nyújtsunk ügyfeleinknek a SageMaker tárhely használatában, bemutattuk az új ModelBuilder
osztály a SageMaker Python SDK-ban, amely a következő kulcsfontosságú előnyöket nyújtja a modellek SageMaker végpontokon való üzembe helyezésekor:
- Egységesíti a telepítési élményt a keretrendszerek között – Az új élmény konzisztens munkafolyamatot biztosít a különböző keretrendszerek (például PyTorch, TensorFlow és XGBoost) felhasználásával készült modellek üzembe helyezéséhez. Ez leegyszerűsíti a telepítési folyamatot.
- Automatizálja a modell bevezetését – Az olyan feladatok, mint a megfelelő tárolók kiválasztása, a függőségek rögzítése és a szerializálás/deszerializálás kezelése automatizáltak, csökkentve a telepítéshez szükséges kézi erőfeszítést.
- Zökkenőmentes átmenetet biztosít a helyi és a SageMaker által üzemeltetett végpont között – Minimális kódmódosításokkal a modellek egyszerűen átállíthatók a helyi tesztelésről a SageMaker végponton történő telepítésre. Az élő naplók zökkenőmentessé teszik a hibakeresést.
Összességében a SageMaker ModelBuilder
leegyszerűsíti és racionalizálja a SageMaker következtetések modellcsomagolási folyamatát az alacsony szintű részletek kezelésével, és eszközöket biztosít a végpontok teszteléséhez, érvényesítéséhez és optimalizálásához. Ez javítja a fejlesztői termelékenységet és csökkenti a hibákat.
A következő szakaszokban ennek az új funkciónak a részleteibe mélyedünk bele. Azt is megvitatjuk, hogyan lehet modelleket telepíteni a SageMaker tárhelyre ModelBuilder
, ami leegyszerűsíti a folyamatot. Ezután bemutatunk néhány példát a különböző keretrendszerekhez, amelyek segítségével mind a hagyományos ML-modelleket, mind pedig a generatív mesterséges intelligencia felhasználási eseteit támogató alapmodelleket telepítheti.
A SageMaker ModelBuilder megismerése
Az új ModelBuilder
egy Python osztály, amely a keretrendszerek, például az XGBoost vagy a PyTorch segítségével épített ML-modellek átvételére és azok SageMakeren történő bevezetésre kész modellekké való átalakítására összpontosít. ModelBuilder
biztosít build()
függvény, amely a modellszervernek megfelelően generálja a melléktermékeket, és a deploy()
függvény helyileg vagy egy SageMaker végpontra történő telepítéséhez. Ennek a funkciónak a bevezetése leegyszerűsíti a modellek integrálását a SageMaker környezetbe, optimalizálva azokat a teljesítmény és a méretezhetőség szempontjából. Az alábbi diagram bemutatja, hogyan ModelBuilder
magas szinten működik.
ModelBuilder osztály
A ModelBuilder osztály különböző testreszabási lehetőségeket kínál. A keretmodell üzembe helyezéséhez azonban a modellkészítő csak a modellt, a bemenetet, a kimenetet és a szerepet várja:
SchemaBuilder
A SchemaBuilder osztály lehetővé teszi a végpont bemenetének és kimenetének meghatározását. Lehetővé teszi a sémakészítő számára, hogy előállítsa a megfelelő rendező függvényeket a bemenet és a kimenet sorosításához és deszerializálásához. A következő osztályfájl tartalmazza az összes testreszabási lehetőséget:
A legtöbb esetben azonban csak minta bemenet és kimenet működik. Például:
Minta be- és kimenet biztosításával, SchemaBuilder
képes automatikusan meghatározni a szükséges átalakításokat, így az integrációs folyamat egyszerűbbé válik. Fejlettebb felhasználási esetekben rugalmasan biztosítható egyéni fordítási funkciók mind a bemenethez, mind a kimenethez, így biztosítva, hogy a bonyolultabb adatstruktúrák is hatékonyan kezelhetők legyenek. Ezt mutatjuk be a következő szakaszokban különböző modellek telepítésével, különféle keretrendszerekkel ModelBuilder
.
Helyi mód tapasztalat
Ebben a példában használjuk ModelBuilder
az XGBoost modell helyi telepítéséhez. A Mode segítségével válthat a helyi tesztelés és a SageMaker-végponton történő üzembe helyezés között. Először betanítjuk az XGBoost modellt (helyileg vagy a SageMakerben), és a modell melléktermékeit a munkakönyvtárban tároljuk:
Ezután létrehozunk egy ModelBuilder objektumot a tényleges modellobjektum, a SchemaBuilder
amely a minta teszt bemeneti és kimeneti objektumokat használja (ugyanazt a bemenetet és kimenetet, amelyet a modell betanításakor és tesztelésekor használtunk) a szükséges szerializálásra. Vegye figyelembe, hogy használjuk Mode.LOCAL_CONTAINER
helyi telepítés megadásához. Ezt követően hívjuk a épít funkció automatikusan azonosítja a támogatott keretrendszer-tároló képét, és keresi a függőségeket. Lásd a következő kódot:
Végül hívhatjuk a deploy
függvényt a modellobjektumban, amely élő naplózást is biztosít a könnyebb hibakeresés érdekében. Nem kell megadnia a példány típusát vagy számát, mert a modell helyileg kerül telepítésre. Ha megadta ezeket a paramétereket, a rendszer figyelmen kívül hagyja őket. Ez a függvény visszaadja azt a prediktor objektumot, amellyel előrejelzést készíthetünk a tesztadatokkal:
Opcionálisan szabályozhatja a modell betöltését, valamint az elő- és utófeldolgozást is InferenceSpec
. További részleteket a bejegyzés későbbi részében közölünk. Használata LOCAL_CONTAINER
nagyszerű módja annak, hogy helyileg tesztelje a szkriptet a SageMaker végponton való üzembe helyezés előtt.
Utal model-builder-xgboost.ipynb példa a helyi és a SageMaker végpontra történő telepítés tesztelésére ModelBuilder
.
Telepítsen hagyományos modelleket a SageMaker végpontjaira
A következő példákban bemutatjuk, hogyan kell használni ModelBuilder
hagyományos ML modellek telepítésére.
XGBoost modellek
Az előző szakaszhoz hasonlóan telepíthet egy XGBoost modellt egy SageMaker végpontra a mode
paraméter létrehozásakor a ModelBuilder
tárgy:
Vegye figyelembe, hogy a SageMaker végpontokra történő telepítéskor meg kell adnia a példánytípust és a példányszámot a deploy
funkciót.
Utal model-builder-xgboost.ipynb példa egy XGBoost modell üzembe helyezésére.
Triton modellek
Használhatja ModelBuilder
PyTorch modellek kiszolgálására Triton következtetési szerver. Ehhez meg kell adni a model_server
paraméter as ModelServer.TRITON
, adja át a modellt, és rendelkezzen a SchemaBuilder
objektum, amely minta bemeneteket és kimeneteket igényel a modelltől. A többiről a ModelBuilder gondoskodik.
Hivatkozni model-builder-triton.ipynb hogy telepítsünk egy modellt a Tritonnal.
Ölelő arcmodellek
Ebben a példában bemutatjuk, hogyan telepíthet egy előre betanított transzformátormodellt, amelyet a Hugging Face biztosított a SageMaker számára. Használni akarjuk az Ölelő Arcot pipeline
a modell betöltéséhez, ezért létrehozunk egy egyéni következtetési specifikációt a számára ModelBuilder
:
Meghatározzuk a következtetési munkaterhelés bemenetét és kimenetét is a SchemaBuilder
objektum a modell bemenete és kimenete alapján:
Ezután létrehozzuk a ModelBuilder
objektumot, és telepítse a modellt egy SageMaker végpontra, ugyanazt a logikát követve, mint a másik példában:
Hivatkozni model-builder-huggingface.ipynb egy Hugging Face folyamatmodell üzembe helyezéséhez.
Telepítsen alapmodelleket a SageMaker végpontokra
A következő példákban bemutatjuk, hogyan kell használni ModelBuilder
alapozási modellek telepítésére. A korábban említett modellekhez hasonlóan itt is csak a modellazonosítóra van szükség.
Átölelő Arc Hub
Ha alapozási modellt szeretne telepíteni Átölelő Arc Hub, csak át kell adnia az előre betanított modellazonosítót. Például a következő kódrészlet telepíti a meta-láma/Llama-2-7b-hf modell helyben. Módosíthatja a módot Mode.SAGEMAKER_ENDPOINT
a SageMaker végpontjaihoz való telepítéshez.
A Hugging Face Hub kapuzott modelljeihez hozzáférést kell kérnie a Hugging Face Hubon keresztül, és a kapcsolódó kulcsot környezeti változóként átadva kell használnia. HUGGING_FACE_HUB_TOKEN
. Egyes Hugging Face modellek megbízható távoli kódot igényelhetnek. Környezeti változóként is beállítható HF_TRUST_REMOTE_CODE
. Alapértelmezés szerint, ModelBuilder
ölelő arc szöveggenerációs következtetést fog használni (TGI) tároló, mint a Hugging Face modellek mögöttes tárolója. Ha szeretné használni az AWS Large Model Inference (LMI) konténerek, beállíthatja a model_server
paraméter as ModelServer.DJL_SERVING
amikor konfigurálja a ModelBuilder
tárgy.
Egy ügyes tulajdonsága ModelBuilder
a tárolóparaméterek helyi hangolásának futtatása, amikor használja LOCAL_CONTAINER
mód. Ez a funkció egyszerűen futással használható tuned_model = model.tune()
.
Hivatkozni demo-model-builder-huggingface-llama2.ipynb hogy telepítsünk egy Hugging Face Hub modellt.
SageMaker JumpStart
Amazon SageMaker JumpStart számos előre betanított alapozó modellt is kínál. Csakúgy, mint a Hugging Face Hub modelljének üzembe helyezéséhez, a modellazonosítóra is szükség van. A SageMaker JumpStart modell telepítése egy SageMaker végpontra olyan egyszerű, mint a következő kód futtatása:
Az összes elérhető SageMaker JumpStart modellazonosítót lásd: Beépített algoritmusok előre betanított modelltáblázattal. Hivatkozni model-builder-jumpstart-falcon.ipynb a SageMaker JumpStart modell telepítéséhez.
Következtetési komponens
ModelBulder
lehetővé teszi a SageMaker új következtetési összetevőjének használatát a modellek telepítéséhez. A következtetési összetevőkkel kapcsolatos további információkért lásd Csökkentse átlagosan 50%-kal a modell bevezetési költségeit a SageMaker legújabb funkcióival. Használhat következtetési összetevőket a telepítéshez ModelBuilder
megadásával endpoint_type=EndpointType.INFERENCE_COMPONENT_BASED
a deploy()
módszer. Használhatja továbbá a tune()
módszerrel, amely lekéri az optimális számú gyorsítót, és szükség esetén módosítja azt.
Hivatkozni model-builder-inference-component.ipynb hogy egy modellt következtetési komponensként telepítsünk.
Szabja testre a ModelBuilder osztályt
A ModelBuilder
osztály lehetővé teszi a modellbetöltés testreszabását InferenceSpec
.
Ezenkívül vezérelheti a hasznos terhelést és a válaszok szerializálását és deszerializálását, valamint testreszabhatja az elő- és utófeldolgozást a CustomPayloadTranslator
. Ezen túlmenően, ha ki kell bővítenie előre elkészített konténereinket a SageMakeren való modelltelepítéshez, használhatja ModelBuilder
a modellcsomagolási folyamat kezelésére. A következő részben ezekről a képességekről adunk további részleteket.
InferenceSpec
InferenceSpec további testreszabási réteget kínál. Lehetővé teszi annak meghatározását, hogy a modell hogyan legyen betöltve, és hogyan kezelje a bejövő következtetési kéréseket. Keresztül InferenceSpec
, egyedi betöltési eljárásokat határozhat meg modelljeihez, megkerülve az alapértelmezett betöltési mechanizmusokat. Ez a rugalmasság különösen előnyös, ha nem szabványos modellekkel vagy egyedi következtetési csővezetékekkel dolgozik. Az invoke metódus testreszabható, így személyre szabható, hogy a modell hogyan dolgozza fel a bejövő kéréseket (elő- és utófeldolgozás). Ez a testreszabás elengedhetetlen lehet annak biztosításához, hogy a következtetési folyamat igazodjon a modell speciális igényeihez. Lásd a következő kódot:
A következő kód példát mutat az osztály használatára:
CustomPayloadTranslator
A SageMaker-végpontok meghívásakor az adatok különböző MIME-típusokkal rendelkező HTTP-terheléseken keresztül kerülnek elküldésre. Például a végpontra következtetés céljából küldött képet az ügyféloldalon bájtokká kell alakítani, és a HTTP hasznos adathordozón keresztül el kell küldeni a végponthoz. Amikor a végpont megkapja a hasznos terhet, vissza kell szerializálnia a bájtkarakterláncot a modell által elvárt adattípusra (más néven szerveroldali deszerializálás). Miután a modell befejezte az előrejelzést, az eredményeket bájtokká kell szerializálni, amelyeket a HTTP hasznos adaton keresztül vissza lehet küldeni a felhasználónak vagy az ügyfélnek. Amikor az ügyfél megkapja a válaszbájtadatokat, kliensoldali deszerializálást kell végrehajtania, hogy a bájtadatokat a várt adatformátumba, például JSON-ba konvertálja vissza. Minimum, konvertálnia kell az adatokat a következőkhöz (a következő ábra számozása szerint):
- Következtetési kérelem sorozatosítása (az ügyfél kezeli)
- Következtetési kérés deszerializálása (a szerver vagy az algoritmus kezeli)
- A modell meghívása a hasznos teher ellen
- Válasz hasznos teher visszaküldése
- Következtetési válasz sorozatosítása (a szerver vagy az algoritmus kezeli)
- Következtetési válasz deszerializálása (az ügyfél kezeli)
A következő diagram a szerializálás és a deszerializálás folyamatát mutatja be a meghívási folyamat során.
A következő kódrészletben egy példát mutatunk be CustomPayloadTranslator
ha további testreszabásra van szükség a szerializálás és a deszerializáció kezeléséhez a kliens és a szerver oldalon:
A demo-model-builder-pytorch.ipynb notebook, bemutatjuk, hogyan lehet egyszerűen telepíteni egy PyTorch-modellt egy SageMaker-végpontra a használatával ModelBuilder
a ... val CustomPayloadTranslator
és a InferenceSpec
osztály.
Stage modell a telepítéshez
Ha a modellt következtetésre vagy a modellnyilvántartásba szeretné helyezni, használhatja model.create()
or model.register()
. Az engedélyezett modell létrejön a szolgáltatáson, majd később telepítheti. Lásd a következő kódot:
Használjon egyedi konténereket
A SageMaker biztosítja előre elkészített Docker képek beépített algoritmusaiért és a képzéshez és következtetésekhez használt támogatott mély tanulási keretrendszerekért. Ha egy előre elkészített SageMaker tároló nem felel meg az összes követelménynek, bővítheti a meglévő képet, hogy megfeleljen igényeinek. Egy előre elkészített kép kiterjesztésével használhatja a mellékelt mély tanulási könyvtárakat és beállításokat anélkül, hogy a semmiből kellene képet létrehoznia. Az előre elkészített tárolók kiterjesztésével kapcsolatos további részletekért tekintse meg a SageMaker dokumentumot. ModelBuilder
támogatja a felhasználási eseteket, amikor saját konténereit hozza magával, amelyek az előre elkészített Docker konténereinkből vannak kibővítve.
Ebben az esetben a saját tárolókép használatához be kell állítania a mezőket image_uri
és a model_server
meghatározásakor ModelBuilder
:
Itt a image_uri
a fiókjában tárolt ARN tárolókép lesz Amazon Elastic Container Registry (Amazon ECR) adattár. Egy példa a következőképpen látható:
Amikor a image_uri
alatt van beállítva ModelBuilder
Az építési folyamat során kihagyja a kép automatikus észlelését, amint a kép URI-ja rendelkezésre áll. Ha model_server
nincs beállítva a ModelBuilderben, akkor egy érvényesítési hibaüzenetet fog kapni, például:
A bejegyzés megjelenése óta ModelBuilder
támogatja a saját konténerek hozását, amelyek a mi kínálatunkból származnak előre elkészített DLC-tároló képek vagy a modellszerverekkel épített konténerek, mint pl Deep Java Library (DJL), Szöveggenerálási következtetés (TGI), TorchServeés Triton következtetési szerver.
Egyéni függőségek
Amikor fut ModelBuilder.build()
, alapértelmezés szerint automatikusan rögzíti a Python-környezetet a requirements.txt
fájlt, és ugyanazt a függőséget telepíti a tárolóba. Néha azonban a helyi Python-környezet ütközik a tárolóban lévő környezettel. ModelBuilder
egyszerű módot biztosít a rögzített függőségek módosítására az ilyen függőségi ütközések kijavítása érdekében azáltal, hogy lehetővé teszi az egyéni konfigurációk megadását ModelBuilder
. Vegye figyelembe, hogy ez csak a TorchServe és a Triton esetében használható InferenceSpec
. Például megadhatja a bemeneti paraméter-függőségeket, amely egy Python-szótár, a ModelBuilderben az alábbiak szerint:
A következő mezőket határozzuk meg:
- auto – Megpróbálja-e automatikusan rögzíteni a környezet függőségeit.
- követelmények – A sajátodhoz vezető út füzére
requirements.txt
fájlt. (Ez opcionális.) - szokás – A hozzáadni vagy módosítani kívánt egyéb egyéni függőségek listája. (Ez opcionális.)
Ha ugyanaz a modul több helyen is meg van adva, custom
akkor a legmagasabb prioritás lesz requirements
és auto
legalacsonyabb prioritású lesz. Tegyük fel például, hogy az automatikus észlelés során ModelBuilder
érzékeli numpy==1.25
, És egy requirements.txt
fájl van megadva, amely meghatározza numpy>=1.24,<1.26
. Ezenkívül van egy egyéni függőség: custom = ["numpy==1.26.1"]
. Ebben az esetben, numpy==1.26.1
akkor lesz kiválasztva, amikor függőségeket telepítünk a tárolóba.
Tisztítsuk meg
Ha végzett a modellek tesztelésével, legjobb gyakorlatként törölje a végpontot a költségek megtakarítása érdekében, ha a végpontra már nincs szükség. Követheti a Tisztítsuk meg szakaszt mindegyik demó notebookban, vagy használja a következő kódot a demó által létrehozott modell és végpont törléséhez:
Következtetés
Az új SageMaker ModelBuilder képesség leegyszerűsíti az ML modellek üzembe helyezésének folyamatát a SageMakeren. Azáltal, hogy a színfalak mögött sok összetett részletet kezel, a ModelBuilder csökkenti az új felhasználók tanulási görbéjét, és maximalizálja a kihasználást a tapasztalt felhasználók számára. Csak néhány sornyi kóddal telepítheti a beépített keretrendszerrel rendelkező modelleket, mint például az XGBoost, PyTorch, Triton és Hugging Face, valamint a SageMaker JumpStart által biztosított modelleket a SageMaker robusztus, méretezhető végpontjaiba.
Arra biztatjuk a SageMaker összes felhasználóját, hogy próbálja ki ezt az új képességet, hivatkozva a ModelBuilder dokumentációs oldal. A ModelBuilder mostantól minden SageMaker-felhasználó számára elérhető, további költségek nélkül. Használja ki ezt az egyszerűsített munkafolyamatot a modellek gyorsabb üzembe helyezéséhez. Kíváncsian várjuk, hogy a ModelBuilder hogyan gyorsítja fel a modellfejlesztési életciklusát!
Külön köszönet Sirisha Upadhyayala-nak, Raymond Liunak, Gary Wangnak, Dhawal Patelnek, Deepak Gargnak és Ram Vegirajunak.
A szerzőkről
Melanie Li, PhD, az AWS vezető AI/ML specialistája, Sydney-ben, Ausztráliában. Segít a vállalati ügyfeleknek megoldásokat építeni a legkorszerűbb AI/ML eszközökkel az AWS-en, és útmutatást ad az ML-megoldások megtervezéséhez és megvalósításához a legjobb gyakorlatok alapján. Szabadidejében szereti felfedezni a természetet, családjával és barátaival tölteni az időt.
Marc Karp ML építész az Amazon SageMaker Service csapatánál. Arra összpontosít, hogy segítse az ügyfeleket az ML-munkaterhelések nagyszabású tervezésében, telepítésében és kezelésében. Szabadidejében szívesen utazik és új helyeket fedez fel.
Sam Edwards, felhőmérnök (AI/ML) az AWS Sydney-nél, a gépi tanulásra és az Amazon SageMakerre szakosodott. Szenvedélyesen segít ügyfeleinek a gépi tanulási munkafolyamatokkal kapcsolatos problémák megoldásában, és új megoldásokat hoz létre számukra. Munkán kívül szeret ütősportolni és utazni.
Raghu Ramesha az Amazon SageMaker Service csapatának vezető ML Solutions Architect. Arra összpontosít, hogy segítse az ügyfeleket az ML termelési munkaterhelések nagyarányú SageMaker-re való felépítésében, telepítésében és migrálásában. A gépi tanulás, a mesterséges intelligencia és a számítógépes látás tartományaira specializálódott, és az UT Dallas Egyetemen szerzett mesterfokozatot számítástechnikából. Szabadidejében szívesen utazik és fényképez.
Shiva Raaj Kotini fő termékmenedzserként dolgozik az Amazon SageMaker következtetési termékportfóliójában. A következtetések levonásához a SageMakerben a modell bevezetésére, a teljesítményhangolásra és az optimalizálásra összpontosít.
Mohan Gandhi az AWS vezető szoftvermérnöke. Az elmúlt 10 évben az AWS-nél dolgozott, és különféle AWS-szolgáltatásokon dolgozott, mint például az EMR, az EFA és az RDS. Jelenleg a SageMaker Inference Experience fejlesztésére összpontosít. Szabadidejében szeret túrázni és maratonozni.
- SEO által támogatott tartalom és PR terjesztés. Erősödjön még ma.
- PlatoData.Network Vertical Generative Ai. Erősítse meg magát. Hozzáférés itt.
- PlatoAiStream. Web3 Intelligence. Felerősített tudás. Hozzáférés itt.
- PlatoESG. Carbon, CleanTech, Energia, Környezet, Nap, Hulladékgazdálkodás. Hozzáférés itt.
- PlatoHealth. Biotechnológiai és klinikai vizsgálatok intelligencia. Hozzáférés itt.
- Forrás: https://aws.amazon.com/blogs/machine-learning/package-and-deploy-classical-ml-and-llms-easily-with-amazon-sagemaker-part-1-pysdk-improvements/
- :van
- :is
- :nem
- :ahol
- $ UP
- 1
- 10
- 100
- 11
- 114
- 12
- 125
- 13
- 14
- 15%
- 16
- 17
- 20
- 24
- 26%
- 7
- 8
- 9
- a
- ABC
- képesség
- Rólunk
- gyorsul
- gyorsítók
- hozzáférés
- elhelyezésére
- Szerint
- át
- tényleges
- hozzá
- mellett
- További
- Ezen kívül
- fejlett
- Előny
- Után
- ellen
- AI
- ai használati esetek
- AI / ML
- célok
- algoritmus
- algoritmusok
- Igazítás
- Minden termék
- lehetővé téve
- lehetővé teszi, hogy
- Is
- Bár
- amazon
- Amazon SageMaker
- Az Amazon Web Services
- között
- an
- és a
- bármilyen
- api
- megfelelő
- VANNAK
- AS
- társult
- At
- Ausztrália
- auto
- Automatizált
- automatikusan
- elérhető
- átlagos
- AWS
- vissza
- alapján
- BE
- mert
- óta
- előtt
- mögött
- a színfalak mögött
- előnyös
- Előnyök
- BEST
- legjobb gyakorlatok
- Jobb
- között
- mindkét
- Bringing
- Bring
- épít
- építész
- épült
- beépített
- by
- hívás
- hívás
- kéri
- TUD
- képességek
- képesség
- elfog
- rögzített
- fogások
- Rögzítése
- ami
- eset
- esetek
- változik
- Változások
- változó
- díj
- választás
- osztály
- vásárló
- felhő
- kód
- megjegyzés
- bonyolult
- bonyolultság
- összetevő
- alkatrészek
- számítógép
- Computer Science
- Számítógépes látás
- Configuration
- konfigurálása
- konfliktus
- Konfliktusok
- következetes
- Konzol
- Konténer
- Konténerek
- ellenőrzés
- megtérít
- átalakított
- konvertáló
- kijavítására
- Megfelelő
- kiadások
- teremt
- készítette
- létrehozása
- Jelenleg
- görbe
- szokás
- Ügyfelek
- testreszabás
- testre
- szabott
- Dallas
- dátum
- mély
- mély merülést
- mély tanulás
- Deepak
- alapértelmezett
- meghatározott
- Annak meghatározása,
- meghatározó
- Fok
- demó
- bizonyítani
- függőségek
- Függőség
- telepíteni
- telepített
- bevezetéséhez
- bevetés
- bevetések
- bevet
- Design
- részletes
- részletek
- Érzékelés
- Határozzuk meg
- meghatározó
- Fejlesztő
- fejlesztők
- Fejlesztés
- különböző
- közvetlenül
- megvitatni
- terjesztés
- merülés
- do
- Dokkmunkás
- dokumentum
- dokumentáció
- Nem
- domainek
- csinált
- ne
- alatt
- minden
- Korábban
- könnyebb
- könnyen
- eredményesen
- erőfeszítés
- erőfeszítés nélkül
- engedélyezve
- lehetővé teszi
- ösztönzése
- Endpoint
- mérnök
- Mérnökök
- biztosítására
- biztosítása
- Vállalkozás
- belépés
- Környezet
- hiba
- hibák
- alapvető
- példa
- példák
- létező
- várható
- elvárja
- tapasztalat
- tapasztalt
- feltárása
- Feltárása
- terjed
- kiterjedő
- Arc
- megkönnyítése
- család
- gyorsabb
- Funkció
- kevés
- Fields
- filé
- vezetéknév
- Rögzít
- Rugalmasság
- összpontosított
- koncentrál
- következik
- következő
- következik
- A
- formátum
- Előre
- Alapítvány
- Keretrendszer
- keretek
- Ingyenes
- barátok
- ból ből
- eleget tesz
- Tele
- teljesen
- funkció
- funkciók
- további
- garg
- Gary
- Gary Wang
- kapuzott
- generál
- generál
- generáció
- nemző
- Generatív AI
- kap
- szerzés
- GitHub
- megy
- nagy
- útmutatást
- fogantyú
- Kezelés
- megtörténik
- Legyen
- tekintettel
- he
- hallás
- segít
- segít
- segít
- neki
- magas szinten
- legnagyobb
- övé
- tart
- házigazdája
- tárhely
- tárhelyszolgáltatások
- Hogyan
- How To
- azonban
- HTML
- http
- HTTPS
- Kerékagy
- ID
- azonosítani
- Identitás
- ids
- if
- kép
- végrehajtási
- importál
- fejlesztések
- javítja
- javuló
- in
- beleértve
- Bejövő
- információ
- kezdetben
- bemenet
- bemenet
- telepíteni
- példa
- integráció
- interaktív
- bele
- bevezet
- Bevezetett
- Bevezetés
- hivatkozni
- kérdések
- IT
- ITS
- Jáva
- jpg
- json
- éppen
- Kulcs
- Ismer
- ismert
- nagy
- keresztnév
- a későbbiekben
- legutolsó
- indít
- indítás
- réteg
- tanulás
- könyvtárak
- könyvtár
- mint
- vonalak
- Lista
- él
- Láma
- kiszámításának
- betöltés
- helyi
- helyileg
- elhelyezkedés
- fakitermelés
- logika
- hosszabb
- néz
- keres
- szeret
- legalacsonyabb
- gép
- gépi tanulás
- csinál
- KÉSZÍT
- Gyártás
- kezelése
- sikerült
- menedzser
- kézikönyv
- sok
- mester
- Maximize
- maximalizálásával
- Lehet..
- mechanizmusok
- Memory design
- említett
- üzenet
- módszer
- vándorol
- minimális
- minimum
- ML
- MLOps
- Mód
- modell
- modellek
- módosítása
- Modulok
- több
- a legtöbb
- többszörös
- kell
- Természet
- elengedhetetlen
- Szükség
- szükséges
- igények
- Új
- új felhasználó
- nem
- Egyik sem
- megjegyezni
- jegyzetfüzet
- Most
- szám
- számozott
- tárgy
- objektumok
- of
- Ajánlatok
- on
- ONE
- csak
- -ra
- optimálisan
- optimalizálás
- Optimalizálja
- optimalizálása
- Opciók
- or
- Más
- mi
- ki
- teljesítmény
- kimenetek
- kívül
- saját
- csomag
- becsomagolt
- csomagolás
- oldal
- paraméter
- paraméterek
- rész
- különösen
- elhalad
- Múló
- szenvedélyes
- ösvény
- Teljesít
- teljesítmény
- engedélyek
- személyes
- phd
- fényképezés
- válogatott
- csővezeték
- Helyek
- Plató
- Platón adatintelligencia
- PlatoData
- játszótér
- játék
- pont
- portfolió
- állás
- hatalom
- gyakorlat
- gyakorlat
- előre
- előrejelzés
- Predictor
- előző
- Fő
- prioritás
- eljárások
- folyamat
- Folyamatok
- Termékek
- termék menedzser
- Termelés
- termelékenység
- ad
- feltéve,
- biztosít
- amely
- A megjelenés
- meglökött
- Piton
- pytorch
- gyorsan
- RAM
- kész
- kap
- kap
- csökkenti
- csökkentő
- utal
- iktató hivatal
- összefüggő
- távoli
- raktár
- kérni
- kéri
- szükség
- kötelező
- követelmények
- megköveteli,
- azok
- illetőleg
- válasz
- REST
- Eredmények
- visszatérés
- erős
- Szerep
- szerepek
- futás
- futás
- sagemaker
- SageMaker következtetés
- azonos
- Megtakarítás
- mentett
- azt mondják
- skálázhatóság
- skálázható
- Skála
- beolvasás
- jelenetek
- Tudomány
- tudósok
- kaparni
- forgatókönyv
- sdk
- sdks
- zökkenőmentes
- Rész
- szakaszok
- lát
- válasszuk
- kiválasztása
- MAGA
- idősebb
- küldött
- Series of
- szolgál
- szerver
- Szerverek
- szolgáltatás
- Szolgáltatások
- készlet
- beállítások
- felépítés
- ő
- előadás
- kirakat
- mutatott
- Műsorok
- oldal
- Egyszerű
- egyszerűsített
- egyszerűsíti
- egyszerűsítése
- egyszerűen
- sima
- töredék
- So
- szoftver
- Software Engineer
- Megoldások
- SOLVE
- néhány
- néha
- szakember
- specializált
- specializálódott
- különleges
- meghatározott
- költ
- Sport
- Színpad
- csúcs-
- Lépései
- Még mindig
- tárolás
- tárolni
- memorizált
- egyértelmű
- folyam
- egyszerűsíti
- Húr
- struktúra
- struktúrák
- stúdió
- ilyen
- Támogatott
- Támogatja
- kapcsoló
- sydney
- Szabó
- Vesz
- bevétel
- feladatok
- csapat
- tensorflow
- teszt
- Tesztelés
- szöveg
- Kösz
- hogy
- A
- azok
- Őket
- akkor
- Ott.
- Ezek
- ők
- ezt
- Keresztül
- idő
- nak nek
- jelképes
- szerszámok
- hagyományos
- forgalom
- Vonat
- Képzések
- transzformációk
- transzformátor
- átmenet
- átállított
- Fordítás
- Utazó
- Triton
- igaz
- bizakodó
- megpróbál
- hangolás
- kettő
- típus
- típusok
- mögöttes
- URL
- használ
- használt
- használó
- Felhasználók
- használ
- segítségével
- érvényesítés
- érték
- változó
- különféle
- keresztül
- látomás
- séta
- akar
- Út..
- módon
- we
- háló
- webes szolgáltatások
- JÓL
- amikor
- vajon
- ami
- míg
- lesz
- val vel
- nélkül
- Munka
- dolgozott
- munkafolyamat
- munkafolyamatok
- dolgozó
- művek
- lenne
- XGBoost
- év
- te
- A te
- zephyrnet