Amazon Sage Maker est un service entièrement géré qui permet aux développeurs et aux data scientists de créer, former et déployer rapidement et sans effort des modèles d'apprentissage automatique (ML) à n'importe quelle échelle. SageMaker facilite le déploiement de modèles en production directement via des appels API au service. Les modèles sont regroupés dans des conteneurs pour des déploiements robustes et évolutifs. Bien qu'il fournisse divers points d'entrée tels que le SDK SageMaker Python, les SDK AWS, la console SageMaker et Amazon SageMakerStudio notebooks pour simplifier le processus de formation et de déploiement de modèles ML à grande échelle, les clients recherchent toujours de meilleures façons de déployer leurs modèles pour les tests sur les terrains de jeu et d'optimiser les déploiements de production.
Nous lançons deux nouvelles façons de simplifier le processus de packaging et de déploiement de modèles à l'aide de SageMaker.
Dans cet article, nous présentons le nouveau SDK SageMaker Python ModelBuilder
expérience, qui vise à minimiser la courbe d'apprentissage pour les nouveaux utilisateurs de SageMaker comme les scientifiques des données, tout en aidant également les ingénieurs MLOps expérimentés à maximiser l'utilisation des services d'hébergement SageMaker. Il réduit la complexité de la configuration et du déploiement initiaux et fournit des conseils sur les meilleures pratiques pour tirer parti de toutes les capacités de SageMaker. Nous fournissons des informations détaillées et des exemples GitHub pour cette nouvelle fonctionnalité SageMaker.
L'autre nouveau lancement consiste à utiliser la nouvelle expérience de déploiement interactif dans SageMaker Studio. Nous en discutons dans la partie 2.
Le déploiement de modèles sur un point de terminaison SageMaker implique une série d'étapes pour préparer le modèle à être hébergé sur un point de terminaison SageMaker. Cela implique d'obtenir les artefacts du modèle dans le format et la structure corrects, de créer un code d'inférence et de spécifier des détails essentiels tels que l'URL de l'image du modèle. Service de stockage simple Amazon (Amazon S3) emplacement des artefacts de modèle, étapes de sérialisation et de désérialisation et éléments nécessaires Gestion des identités et des accès AWS (IAM) pour faciliter les autorisations d'accès appropriées. Ensuite, une configuration de point de terminaison nécessite de déterminer le type d'inférence et de configurer les paramètres respectifs tels que les types d'instances, le nombre et la répartition du trafic entre les variantes de modèle.
Pour aider davantage nos clients lors de l'utilisation de l'hébergement SageMaker, nous avons introduit le nouveau ModelBuilder
dans le SDK SageMaker Python, qui apporte les avantages clés suivants lors du déploiement de modèles sur les points de terminaison SageMaker :
- Unifie l’expérience de déploiement sur tous les frameworks – La nouvelle expérience fournit un flux de travail cohérent pour le déploiement de modèles construits à l'aide de différents frameworks tels que PyTorch, TensorFlow et XGBoost. Cela simplifie le processus de déploiement.
- Automatise le déploiement du modèle – Les tâches telles que la sélection des conteneurs appropriés, la capture des dépendances et la gestion de la sérialisation/désérialisation sont automatisées, réduisant ainsi les efforts manuels requis pour le déploiement.
- Fournit une transition en douceur du point de terminaison local au point de terminaison hébergé par SageMaker – Avec un minimum de modifications de code, les modèles peuvent facilement passer des tests locaux au déploiement sur un point de terminaison SageMaker. Les journaux en direct rendent le débogage transparent.
Dans l'ensemble, SageMaker ModelBuilder
simplifie et rationalise le processus d'empaquetage de modèles pour l'inférence SageMaker en gérant les détails de bas niveau et fournit des outils pour tester, valider et optimiser les points de terminaison. Cela améliore la productivité des développeurs et réduit les erreurs.
Dans les sections suivantes, nous approfondissons les détails de cette nouvelle fonctionnalité. Nous expliquons également comment déployer des modèles sur l'hébergement SageMaker à l'aide de ModelBuilder
, ce qui simplifie le processus. Nous vous présentons ensuite quelques exemples de différents frameworks permettant de déployer à la fois les modèles de ML traditionnels et les modèles de base qui alimentent les cas d'utilisation de l'IA générative.
Apprendre à connaître SageMaker ModelBuilder
Le nouveau système d’ ModelBuilder
est une classe Python axée sur la prise de modèles ML construits à l'aide de frameworks, comme XGBoost ou PyTorch, et sur leur conversion en modèles prêts à être déployés sur SageMaker. ModelBuilder
fournit une build()
fonction, qui génère les artefacts selon le serveur de modèles, et un deploy()
fonction à déployer localement ou sur un point de terminaison SageMaker. L'introduction de cette fonctionnalité simplifie l'intégration des modèles avec l'environnement SageMaker, en les optimisant en termes de performances et d'évolutivité. Le diagramme suivant montre comment ModelBuilder
travaille à un niveau élevé.
Classe ModelBuilder
Le Générateur de modèles La classe offre différentes options de personnalisation. Cependant, pour déployer le modèle de framework, le générateur de modèle attend simplement le modèle, l'entrée, la sortie et le rôle :
Générateur de schéma
Le Générateur de schéma La classe vous permet de définir l’entrée et la sortie de votre point de terminaison. Il permet au constructeur de schéma de générer les fonctions de marshaling correspondantes pour sérialiser et désérialiser l'entrée et la sortie. Le fichier de classe suivant fournit toutes les options de personnalisation :
Cependant, dans la plupart des cas, seuls des exemples d’entrées et de sorties fonctionneraient. Par exemple:
En fournissant des exemples d'entrée et de sortie, SchemaBuilder
peut déterminer automatiquement les transformations nécessaires, rendant le processus d'intégration plus simple. Pour les cas d'utilisation plus avancés, il est possible de fournir des fonctions de traduction personnalisées pour l'entrée et la sortie, garantissant ainsi que des structures de données plus complexes peuvent également être gérées efficacement. Nous le démontrons dans les sections suivantes en déployant différents modèles avec différents frameworks utilisant ModelBuilder
.
Expérience en mode local
Dans cet exemple, nous utilisons ModelBuilder
pour déployer le modèle XGBoost localement. Vous pouvez utiliser Mode pour basculer entre les tests locaux et le déploiement sur un point de terminaison SageMaker. Nous entraînons d'abord le modèle XGBoost (localement ou dans SageMaker) et stockons les artefacts du modèle dans le répertoire de travail :
Ensuite, nous créons un objet ModelBuilder en passant l'objet modèle réel, le SchemaBuilder
qui utilise l'exemple d'objets d'entrée et de sortie de test (les mêmes entrées et sorties que nous avons utilisées lors de la formation et du test du modèle) pour déduire la sérialisation nécessaire. Notez que nous utilisons Mode.LOCAL_CONTAINER
pour spécifier un déploiement local. Après cela, nous appelons le construire fonction pour identifier automatiquement l’image du conteneur de framework pris en charge ainsi que rechercher les dépendances. Voir le code suivant :
Enfin, on peut appeler le deploy
fonction dans l'objet modèle, qui fournit également une journalisation en direct pour un débogage plus facile. Vous n'avez pas besoin de spécifier le type ou le nombre d'instances, car le modèle sera déployé localement. Si vous avez fourni ces paramètres, ils seront ignorés. Cette fonction renverra l'objet prédicteur que nous pouvons utiliser pour faire une prédiction avec les données de test :
En option, vous pouvez également contrôler le chargement du modèle ainsi que le prétraitement et le post-traitement à l'aide de InferenceSpec
. Nous fournissons plus de détails plus loin dans cet article. En utilisant LOCAL_CONTAINER
est un excellent moyen de tester votre script localement avant de le déployer sur un point de terminaison SageMaker.
Reportez-vous à modèle-builder-xgboost.ipynb exemple pour tester le déploiement à la fois localement et sur un point de terminaison SageMaker à l'aide ModelBuilder
.
Déployer des modèles traditionnels sur les points de terminaison SageMaker
Dans les exemples suivants, nous montrons comment utiliser ModelBuilder
pour déployer des modèles ML traditionnels.
Modèles XGBoost
Semblable à la section précédente, vous pouvez déployer un modèle XGBoost sur un point de terminaison SageMaker en modifiant le mode
paramètre lors de la création du ModelBuilder
objet:
Notez que lors du déploiement sur les points de terminaison SageMaker, vous devez spécifier le type d'instance et le nombre d'instances lors de l'appel du deploy
la fonction.
Reportez-vous à modèle-builder-xgboost.ipynb exemple pour déployer un modèle XGBoost.
Modèles Triton
Vous pouvez utiliser ModelBuilder
pour servir des modèles PyTorch sur Serveur d'inférence Triton. Pour cela, vous devez préciser le model_server
paramètre comme ModelServer.TRITON
, passer un modèle et avoir un SchemaBuilder
objet, qui nécessite des exemples d’entrées et de sorties du modèle. ModelBuilder s'occupera du reste pour vous.
Reportez-vous à modèle-builder-triton.ipynb pour déployer un modèle avec Triton.
Modèles de visages câlins
Dans cet exemple, nous vous montrons comment déployer un modèle de transformateur pré-entraîné fourni par Hugging Face vers SageMaker. Nous voulons utiliser le Hugging Face pipeline
pour charger le modèle, nous créons donc une spécification d'inférence personnalisée pour ModelBuilder
:
Nous définissons également l'entrée et la sortie de la charge de travail d'inférence en définissant le SchemaBuilder
objet basé sur l'entrée et la sortie du modèle :
Ensuite, nous créons le ModelBuilder
objet et déployez le modèle sur un point de terminaison SageMaker en suivant la même logique que celle indiquée dans l'autre exemple :
Reportez-vous à modèle-builder-huggingface.ipynb pour déployer un modèle de pipeline Hugging Face.
Déployer des modèles de base sur les points de terminaison SageMaker
Dans les exemples suivants, nous montrons comment utiliser ModelBuilder
pour déployer des modèles de fondation. Tout comme pour les modèles mentionnés précédemment, tout ce qui est requis est l'ID du modèle.
Visage câlin
Si vous souhaitez déployer un modèle de base à partir de Visage câlin, tout ce que vous avez à faire est de transmettre l'ID de modèle pré-entraîné. Par exemple, l'extrait de code suivant déploie le méta-lama/Llama-2-7b-hf modéliser localement. Vous pouvez changer le mode en Mode.SAGEMAKER_ENDPOINT
à déployer sur les points de terminaison SageMaker.
Pour les modèles fermés sur Hugging Face Hub, vous devez demander l'accès via Hugging Face Hub et utiliser la clé associée en la passant comme variable d'environnement. HUGGING_FACE_HUB_TOKEN
. Certains modèles Hugging Face peuvent nécessiter de faire confiance au code à distance. Il peut également être défini comme variable d'environnement en utilisant HF_TRUST_REMOTE_CODE
. Par défaut, ModelBuilder
utilisera une inférence de génération de texte Hugging Face (TGI) comme conteneur sous-jacent pour les modèles Hugging Face. Si vous souhaitez utiliser AWS Large Model Inference (LMI) conteneurs, vous pouvez configurer le model_server
paramètre comme ModelServer.DJL_SERVING
lorsque vous configurez le ModelBuilder
objet.
Une caractéristique intéressante de ModelBuilder
est la possibilité d'exécuter le réglage local des paramètres du conteneur lorsque vous utilisez LOCAL_CONTAINER
mode. Cette fonctionnalité peut être utilisée en exécutant simplement tuned_model = model.tune()
.
Reportez-vous à démo-modèle-builder-huggingface-llama2.ipynb pour déployer un modèle Hugging Face Hub.
SageMaker JumpStart
Amazon SageMaker JumpStart propose également un certain nombre de modèles de base pré-entraînés. Tout comme pour le processus de déploiement d'un modèle depuis Hugging Face Hub, l'ID du modèle est requis. Déployer un modèle SageMaker JumpStart sur un point de terminaison SageMaker est aussi simple que d'exécuter le code suivant :
Pour tous les ID de modèle SageMaker JumpStart disponibles, reportez-vous à Algorithmes intégrés avec table modèle pré-formée. Faire référence à modèle-builder-jumpstart-falcon.ipynb pour déployer un modèle SageMaker JumpStart.
Composant d'inférence
ModelBulder
vous permet d'utiliser la nouvelle fonctionnalité de composant d'inférence dans SageMaker pour déployer des modèles. Pour plus d'informations sur les composants d'inférence, voir Réduisez les coûts de déploiement de modèles de 50 % en moyenne grâce aux dernières fonctionnalités de SageMaker. Vous pouvez utiliser des composants d'inférence pour le déploiement avec ModelBuilder
en précisant endpoint_type=EndpointType.INFERENCE_COMPONENT_BASED
dans le deploy()
méthode. Vous pouvez également utiliser le tune()
méthode, qui récupère le nombre optimal d’accélérateurs et le modifie si nécessaire.
Reportez-vous à composant-d'inférence-model-builder.ipynb pour déployer un modèle en tant que composant d'inférence.
Personnaliser la classe ModelBuilder
Le ModelBuilder
la classe vous permet de personnaliser le chargement du modèle à l'aide de InferenceSpec
.
De plus, vous pouvez contrôler la sérialisation et la désérialisation de la charge utile et des réponses et personnaliser le prétraitement et le post-traitement à l'aide de CustomPayloadTranslator
. De plus, lorsque vous devez étendre nos conteneurs prédéfinis pour le déploiement de modèles sur SageMaker, vous pouvez utiliser ModelBuilder
pour gérer le processus d’empaquetage du modèle. Dans la section suivante, nous fournissons plus de détails sur ces capacités.
InférenceSpécification
InférenceSpécification offre une couche supplémentaire de personnalisation. Il vous permet de définir comment le modèle est chargé et comment il gérera les demandes d'inférence entrantes. À travers InferenceSpec
, vous pouvez définir des procédures de chargement personnalisées pour vos modèles, en contournant les mécanismes de chargement par défaut. Cette flexibilité est particulièrement bénéfique lorsque vous travaillez avec des modèles non standard ou des pipelines d'inférence personnalisés. La méthode d'invocation peut être personnalisée, vous offrant ainsi la possibilité d'adapter la manière dont le modèle traite les demandes entrantes (prétraitement et post-traitement). Cette personnalisation peut être essentielle pour garantir que le processus d'inférence s'aligne sur les besoins spécifiques du modèle. Voir le code suivant :
Le code suivant montre un exemple d'utilisation de cette classe :
Traducteur CustomPayload
Lors de l'appel de points de terminaison SageMaker, les données sont envoyées via des charges utiles HTTP avec différents types MIME. Par exemple, une image envoyée au point de terminaison pour inférence doit être convertie en octets côté client et envoyée via la charge utile HTTP au point de terminaison. Lorsque le point de terminaison reçoit la charge utile, il doit désérialiser la chaîne d'octets vers le type de données attendu par le modèle (également appelé désérialisation côté serveur). Une fois la prédiction du modèle terminée, les résultats doivent être sérialisés en octets qui peuvent être renvoyés via la charge utile HTTP à l'utilisateur ou au client. Lorsque le client reçoit les données d'octet de réponse, il doit effectuer une désérialisation côté client pour reconvertir les données d'octets au format de données attendu, tel que JSON. Au minimum, vous devez convertir les données pour ce qui suit (tel que numéroté dans le schéma suivant) :
- Sérialisation des demandes d'inférence (gérées par le client)
- Désérialisation de la demande d'inférence (gérée par le serveur ou l'algorithme)
- Invoquer le modèle par rapport à la charge utile
- Renvoyer la charge utile de la réponse
- Sérialisation des réponses d'inférence (gérée par le serveur ou l'algorithme)
- Désérialisation de la réponse d'inférence (gérée par le client)
Le diagramme suivant montre le processus de sérialisation et de désérialisation pendant le processus d'appel.
Dans l'extrait de code suivant, nous montrons un exemple de CustomPayloadTranslator
lorsqu'une personnalisation supplémentaire est nécessaire pour gérer à la fois la sérialisation et la désérialisation côté client et côté serveur, respectivement :
Dans le démo-modèle-builder-pytorch.ipynb notebook, nous montrons comment déployer facilement un modèle PyTorch sur un point de terminaison SageMaker à l'aide de ModelBuilder
des CustomPayloadTranslator
et les terres parsemées de
InferenceSpec
classe.
Modèle d'étape pour le déploiement
Si vous souhaitez préparer le modèle pour l'inférence ou dans le registre des modèles, vous pouvez utiliser model.create()
or model.register()
. Le modèle activé est créé sur le service, puis vous pouvez le déployer ultérieurement. Voir le code suivant :
Utiliser des conteneurs personnalisés
SageMaker fournit images Docker prédéfinies pour ses algorithmes intégrés et les cadres d'apprentissage profond pris en charge utilisés pour la formation et l'inférence. Si un conteneur SageMaker prédéfini ne répond pas à toutes vos exigences, vous pouvez étendre l'image existante pour répondre à vos besoins. En étendant une image prédéfinie, vous pouvez utiliser les bibliothèques et paramètres d'apprentissage en profondeur inclus sans avoir à créer une image à partir de zéro. Pour plus de détails sur la façon d'étendre les conteneurs prédéfinis, reportez-vous au document SageMaker. ModelBuilder
prend en charge les cas d'utilisation lorsque vous apportez vos propres conteneurs étendus à partir de nos conteneurs Docker prédéfinis.
Pour utiliser votre propre image de conteneur dans ce cas, vous devez définir les champs image_uri
et les model_server
lors de la définition ModelBuilder
:
Ici le image_uri
sera l'ARN de l'image du conteneur qui est stocké dans le fichier de votre compte. Registre des conteneurs élastiques Amazon (Amazon ECR). Un exemple est présenté comme suit :
When the image_uri
est réglé, pendant le ModelBuilder
processus de construction, il ignorera la détection automatique de l’image lorsque l’URI de l’image est fourni. Si model_server
n'est pas défini dans ModelBuilder, vous recevrez un message d'erreur de validation, par exemple :
Dès la publication de cet article, ModelBuilder
prend en charge l'apport de vos propres conteneurs étendus à partir de notre images de conteneurs DLC prédéfinies ou des conteneurs construits avec les serveurs modèles comme Bibliothèque Java profonde (DJL), Inférence de génération de texte (TGI), TorcheServeet une Serveur d'inférence Triton.
Dépendances personnalisées
En cours d'exécution ModelBuilder.build()
, par défaut, il capture automatiquement votre environnement Python dans un requirements.txt
et installe la même dépendance dans le conteneur. Cependant, il arrive parfois que votre environnement Python local entre en conflit avec l'environnement du conteneur. ModelBuilder
fournit un moyen simple de modifier les dépendances capturées pour résoudre ces conflits de dépendances en vous permettant de fournir vos configurations personnalisées dans ModelBuilder
. Notez que ceci concerne uniquement TorchServe et Triton avec InferenceSpec
. Par exemple, vous pouvez spécifier les dépendances des paramètres d'entrée, qui sont un dictionnaire Python, dans ModelBuilder comme suit :
Nous définissons les champs suivants :
- auto – S'il faut essayer de capturer automatiquement les dépendances dans votre environnement.
- exigences – Une chaîne de chemin vers le vôtre
requirements.txt
déposer. (Ceci est facultatif.) - Customiser – Une liste de toutes les autres dépendances personnalisées que vous souhaitez ajouter ou modifier. (Ceci est facultatif.)
Si le même module est spécifié à plusieurs endroits, custom
aura la plus haute priorité, alors requirements
et une auto
aura la priorité la plus basse. Par exemple, disons que lors de la détection automatique, ModelBuilder
détecte numpy==1.25
Et un requirements.txt
un fichier est fourni qui spécifie numpy>=1.24,<1.26
. De plus, il existe une dépendance personnalisée : custom = ["numpy==1.26.1"]
. Dans ce cas, numpy==1.26.1
sera sélectionné lorsque nous installerons les dépendances dans le conteneur.
Nettoyer
Lorsque vous avez terminé de tester les modèles, il est recommandé de supprimer le point de terminaison pour réduire les coûts s'il n'est plus nécessaire. Vous pouvez suivre le Nettoyer dans chacun des blocs-notes de démonstration ou utilisez le code suivant pour supprimer le modèle et le point de terminaison créés par la démo :
Conclusion
La nouvelle fonctionnalité SageMaker ModelBuilder simplifie le processus de déploiement de modèles ML en production sur SageMaker. En gérant de nombreux détails complexes en coulisses, ModelBuilder réduit la courbe d'apprentissage pour les nouveaux utilisateurs et maximise l'utilisation pour les utilisateurs expérimentés. Avec seulement quelques lignes de code, vous pouvez déployer des modèles avec des frameworks intégrés tels que XGBoost, PyTorch, Triton et Hugging Face, ainsi que des modèles fournis par SageMaker JumpStart dans des points de terminaison robustes et évolutifs sur SageMaker.
Nous encourageons tous les utilisateurs de SageMaker à essayer cette nouvelle fonctionnalité en vous référant au Générateur de modèles page de documentation. ModelBuilder est désormais disponible pour tous les utilisateurs de SageMaker sans frais supplémentaires. Profitez de ce flux de travail simplifié pour déployer vos modèles plus rapidement. Nous sommes impatients de savoir comment ModelBuilder accélère le cycle de vie de votre développement de modèles !
Un merci spécial à Sirisha Upadhyayala, Raymond Liu, Gary Wang, Dhawal Patel, Deepak Garg et Ram Vegiraju.
À propos des auteurs
Mélanie Li, PhD, est un TAM spécialiste principal en IA/ML chez AWS basé à Sydney, en Australie. Elle aide les entreprises clientes à créer des solutions à l'aide d'outils IA/ML de pointe sur AWS et fournit des conseils sur l'architecture et la mise en œuvre de solutions ML avec les meilleures pratiques. Dans ses temps libres, elle aime explorer la nature et passer du temps avec sa famille et ses amis.
Marc Karpe est un architecte ML au sein de l'équipe Amazon SageMaker Service. Il se concentre sur l'aide aux clients pour la conception, le déploiement et la gestion des charges de travail ML à grande échelle. Dans ses temps libres, il aime voyager et explorer de nouveaux endroits.
Sam Edwards, est Cloud Engineer (AI/ML) chez AWS Sydney spécialisé dans l'apprentissage automatique et Amazon SageMaker. Il a pour passion d'aider les clients à résoudre les problèmes liés aux flux de travail d'apprentissage automatique et de créer de nouvelles solutions pour eux. En dehors du travail, il aime pratiquer des sports de raquette et voyager.
Raghu Ramesha est un architecte senior de solutions ML au sein de l'équipe Amazon SageMaker Service. Il s'efforce d'aider les clients à créer, déployer et migrer des charges de travail de production ML vers SageMaker à grande échelle. Il se spécialise dans les domaines de l'apprentissage automatique, de l'IA et de la vision par ordinateur, et est titulaire d'une maîtrise en informatique de l'UT Dallas. Dans ses temps libres, il aime voyager et photographier.
Shiva Raaj Kotini travaille en tant que chef de produit principal dans le portefeuille de produits d'inférence Amazon SageMaker. Il se concentre sur le déploiement de modèles, le réglage des performances et l'optimisation dans SageMaker pour l'inférence.
Mohan Ghandi est ingénieur logiciel senior chez AWS. Il travaille chez AWS depuis 10 ans et a travaillé sur divers services AWS tels que EMR, EFA et RDS. Actuellement, il se concentre sur l'amélioration de l'expérience d'inférence SageMaker. Dans ses temps libres, il aime faire de la randonnée et des marathons.
- Contenu propulsé par le référencement et distribution de relations publiques. Soyez amplifié aujourd'hui.
- PlatoData.Network Ai générative verticale. Autonomisez-vous. Accéder ici.
- PlatoAiStream. Intelligence Web3. Connaissance Amplifiée. Accéder ici.
- PlatonESG. Carbone, Technologie propre, Énergie, Environnement, Solaire, La gestion des déchets. Accéder ici.
- PlatoHealth. Veille biotechnologique et essais cliniques. Accéder ici.
- La source: https://aws.amazon.com/blogs/machine-learning/package-and-deploy-classical-ml-and-llms-easily-with-amazon-sagemaker-part-1-pysdk-improvements/
- :possède
- :est
- :ne pas
- :où
- $UP
- 1
- 10
- 100
- 11
- 114
- 12
- 125
- 13
- 14
- 15%
- 16
- 17
- 20
- 24
- 26%
- 7
- 8
- 9
- a
- abc
- capacité
- A Propos
- accélère
- accélérateurs
- accès
- accommoder
- Selon
- à travers
- présenter
- ajouter
- ajout
- Supplémentaire
- En outre
- Avancée
- Avantage
- Après
- à opposer à
- AI
- cas d'utilisation de l'IA
- AI / ML
- vise
- algorithme
- algorithmes
- Aligne
- Tous
- Permettre
- permet
- aussi
- Bien que
- Amazon
- Amazon Sage Maker
- Amazon Web Services
- parmi
- an
- et les
- tous
- api
- approprié
- SONT
- AS
- associé
- At
- Australie
- auto
- Automatisation
- automatiquement
- disponibles
- moyen
- AWS
- RETOUR
- basé
- BE
- car
- était
- before
- derrière
- Dans les coulisses
- avantageux
- avantages.
- LES MEILLEURS
- les meilleures pratiques
- Améliorée
- jusqu'à XNUMX fois
- tous les deux
- Apporter
- Apportez le
- construire
- constructeur
- construit
- intégré
- by
- Appelez-nous
- appel
- Appels
- CAN
- capacités
- aptitude
- capturer
- capturé
- captures
- Capturer
- les soins
- maisons
- cas
- Change
- Modifications
- en changeant
- charge
- le choix
- classe
- client
- le cloud
- code
- commentaire
- complexe
- complexité
- composant
- composants électriques
- ordinateur
- Informatique
- Vision par ordinateur
- configuration
- Configurer
- conflit
- conflits
- cohérent
- Console
- Contenant
- Conteneurs
- des bactéries
- convertir
- converti
- conversion
- correct
- Correspondant
- Costs
- engendrent
- créée
- La création
- Lecture
- courbe
- Customiser
- Clients
- personnalisation
- personnaliser
- sont adaptées
- Dallas
- données
- profond
- plongée profonde
- l'apprentissage en profondeur
- Deepak
- Réglage par défaut
- Vous permet de définir
- Définit
- définir
- Degré
- demo
- démontrer
- dépendances
- Dépendance
- déployer
- déployé
- déployer
- déploiement
- déploiements
- déploie
- Conception
- détaillé
- détails
- Détection
- Déterminer
- détermination
- Développeur
- mobiles
- Développement
- différent
- directement
- discuter
- distribution
- plongeon
- do
- Docker
- document
- Documentation
- Ne fait pas
- domaines
- fait
- Ne pas
- pendant
- chacun
- Plus tôt
- plus facilement
- même
- efficacement
- effort
- d'effort
- activé
- permet
- encourager
- Endpoint
- ingénieur
- Les ingénieurs
- assurer
- assurer
- Entreprise
- entrée
- Environment
- erreur
- Erreurs
- essential
- exemple
- exemples
- existant
- attendu
- attend
- d'experience
- expérimenté
- explorez
- Explorer
- étendre
- extension
- Visage
- faciliter
- famille
- plus rapide
- Fonctionnalité
- few
- Des champs
- Déposez votre dernière attestation
- Prénom
- Fixer
- Flexibilité
- concentré
- se concentre
- suivre
- Abonnement
- suit
- Pour
- le format
- Avant
- Fondation
- Framework
- cadres
- gratuitement ici
- amis
- De
- Remplir
- plein
- d’étiquettes électroniques entièrement
- fonction
- fonctions
- plus
- gargarisme
- Gary
- -- Gary Wang
- bloqué
- générer
- génère
- génération
- génératif
- IA générative
- obtenez
- obtention
- GitHub
- aller
- l'
- l'orientation
- manipuler
- Maniabilité
- arrive
- Vous avez
- ayant
- he
- entendre
- vous aider
- aider
- aide
- ici
- de haut niveau
- le plus élevé
- sa
- détient
- organisé
- hébergement
- services d'hébergement
- Comment
- How To
- Cependant
- HTML
- http
- HTTPS
- Moyeu
- ID
- identifier
- Identite
- ids
- if
- image
- la mise en œuvre
- importer
- améliorations
- améliore
- l'amélioration de
- in
- inclus
- Nouveau
- d'information
- initiale
- contribution
- entrées
- installer
- instance
- l'intégration
- Interactif
- développement
- introduire
- introduit
- Introduction
- invoqué
- vous aider à faire face aux problèmes qui vous perturbent
- IT
- SES
- Java
- jpg
- json
- juste
- ACTIVITES
- Savoir
- connu
- gros
- Nom
- plus tard
- Nouveautés
- lancer
- lancement
- couche
- apprentissage
- bibliothèques
- Bibliothèque
- comme
- lignes
- Liste
- le travail
- Flamme
- charge
- chargement
- locales
- localement
- emplacement
- enregistrement
- logique
- plus long
- Style
- recherchez-
- aime
- le plus bas
- click
- machine learning
- a prendre une
- FAIT DU
- Fabrication
- gérer
- gérés
- manager
- Manuel
- de nombreuses
- maîtrise
- Maximisez
- optimise
- Mai..
- mécanismes
- Mémoire
- mentionné
- message
- méthode
- émigrer
- minimal
- minimum
- ML
- MLOps
- Mode
- modèle
- numériques jumeaux (digital twin models)
- modifier
- Module
- PLUS
- (en fait, presque toutes)
- plusieurs
- must
- Nature
- nécessaire
- Besoin
- nécessaire
- Besoins
- Nouveauté
- nouveaux utilisateurs
- aucune
- Aucun
- noter
- cahier
- maintenant
- nombre
- numéroté
- objet
- objets
- of
- Offres Speciales
- on
- ONE
- uniquement
- sur
- optimaux
- à mettre en œuvre pour gérer une entreprise rentable. Ce guide est basé sur trois décennies d'expérience
- Optimiser
- l'optimisation
- Options
- or
- Autre
- nos
- ande
- sortie
- sorties
- au contrôle
- propre
- paquet
- emballé
- l'emballage
- page
- paramètre
- paramètres
- partie
- particulièrement
- pass
- En passant
- passionné
- chemin
- Effectuer
- performant
- autorisations
- personnel
- phd
- photographie
- choisi
- pipeline
- Des endroits
- Platon
- Intelligence des données Platon
- PlatonDonnées
- cour de récréation
- jouer
- des notes bonus
- portefeuille
- Post
- power
- pratique
- pratiques
- prévoir
- prédiction
- Predictor
- précédent
- Directeur
- priorité
- procédures
- processus
- les process
- Produit
- chef de produit
- Vidéo
- productivité
- fournir
- à condition de
- fournit
- aportando
- Publication
- Poussé
- Python
- pytorch
- vite.
- RAM
- solutions
- recevoir
- reçoit
- réduit
- réduire
- reportez-vous
- enregistrement
- en relation
- éloigné
- dépôt
- nécessaire
- demandes
- exigent
- conditions
- Exigences
- a besoin
- ceux
- respectivement
- réponse
- REST
- Résultats
- retourner
- robuste
- Rôle
- rôle
- Courir
- pour le running
- sagemaker
- Inférence SageMaker
- même
- Épargnez
- sauvé
- dire
- Évolutivité
- évolutive
- Escaliers intérieurs
- balayage
- Scènes
- Sciences
- scientifiques
- gratter
- scénario
- Sdk
- SDK
- fluide
- Section
- les sections
- sur le lien
- Sélectionner
- la sélection
- AUTO
- supérieur
- envoyé
- Série
- besoin
- serveur
- Serveurs
- service
- Services
- set
- Paramétres
- installation
- elle
- montrer
- vitrine
- montré
- Spectacles
- côté
- étapes
- simplifié
- simplifie
- simplifier
- simplement
- lisse
- Fragment
- So
- Logiciels
- Software Engineer
- Solutions
- RÉSOUDRE
- quelques
- parfois
- spécialiste
- spécialisé
- spécialise
- groupe de neurones
- spécifié
- passer
- Sports
- Étape
- state-of-the-art
- Étapes
- Encore
- storage
- Boutique
- stockée
- simple
- courant
- rationalise
- Chaîne
- structure
- structures
- studio
- tel
- Appareils
- Les soutiens
- Interrupteur
- sydney
- tailleur
- Prenez
- prise
- tâches
- équipe
- tensorflow
- tester
- Essais
- texte
- Merci
- qui
- Le
- leur
- Les
- puis
- Là.
- Ces
- l'ont
- this
- Avec
- fiable
- à
- jeton
- les outils
- traditionnel
- circulation
- Train
- Formation
- transformations
- transformateur
- transition
- transitionné
- Traduction
- Voyages
- Triton
- oui
- confiant
- Essai
- réglage
- deux
- type
- types
- sous-jacent
- URL
- utilisé
- d'utiliser
- Utilisateur
- utilisateurs
- Usages
- en utilisant
- validation
- Plus-value
- variable
- divers
- via
- vision
- marcher
- souhaitez
- Façon..
- façons
- we
- web
- services Web
- WELL
- quand
- que
- qui
- tout en
- sera
- comprenant
- sans
- activités principales
- travaillé
- workflow
- workflows
- de travail
- vos contrats
- pourra
- XGBoost
- années
- Vous n'avez
- Votre
- zéphyrnet