PyTorch est une infrastructure d'apprentissage automatique (ML) largement utilisée par les clients AWS pour diverses applications, telles que la vision par ordinateur, le traitement du langage naturel, la création de contenu, etc. Avec la récente version de PyTorch 2.0, les clients AWS peuvent désormais faire les mêmes choses qu'avec PyTorch 1.x, mais plus rapidement et à grande échelle avec des vitesses de formation améliorées, une utilisation réduite de la mémoire et des capacités distribuées améliorées. Plusieurs nouvelles technologies, notamment torch.compile, TorchDynamo, AOTAutograd, PrimTorch et TorchInductor ont été incluses dans la version PyTorch2.0. Faire référence à PyTorch 2.0 : notre version de nouvelle génération, plus rapide, plus pythonique et dynamique que jamais pour en savoir plus.
Cet article démontre les performances et la facilité d'exécution d'une formation et d'un déploiement de modèles ML distribués hautes performances à grande échelle à l'aide de PyTorch 2.0 sur AWS. Cet article décrit plus en détail une mise en œuvre étape par étape du réglage fin d'un modèle RoBERTa (Robustly Optimized BERT Pretraining Approach) pour l'analyse des sentiments à l'aide AMI Deep Learning AWS (AWS DLAMI) et Conteneurs AWS Deep Learning (DLC) sur Cloud de calcul élastique Amazon (Amazon EC2 p4d.24xlarge) avec une accélération observée de 42 % lorsqu'il est utilisé avec PyTorch 2.0 torch.compile + bf16 + AdamW fusionné. Le modèle affiné est ensuite déployé sur AWS Graviton-instance C7g EC2 basée sur Amazon Sage Maker avec une accélération observée de 10% par rapport à PyTorch 1.13.
La figure suivante montre un benchmark des performances de réglage fin d'un modèle RoBERTa sur Amazon EC2 p4d.24xlarge avec AWS PyTorch 2.0 DLAMI + DLC.
Reportez-vous à Inférence PyTorch 2.0 optimisée avec les processeurs AWS Graviton pour plus de détails sur les tests de performances d'inférence d'instance basés sur AWS Graviton pour PyTorch 2.0.
Prise en charge de PyTorch 2.0 sur AWS
La prise en charge de PyTorch2.0 ne se limite pas aux services et calculs présentés dans l'exemple de cas d'utilisation de cet article ; il s'étend à de nombreux autres sur AWS, dont nous discutons dans cette section.
Exigence de l'entreprise
De nombreux clients AWS, dans un ensemble diversifié d'industries, transforment leurs activités en utilisant l'intelligence artificielle (IA), en particulier dans le domaine de l'IA générative et des grands modèles de langage (LLM) conçus pour générer du texte de type humain. Ce sont essentiellement de grands modèles basés sur des techniques d'apprentissage en profondeur qui sont entraînés avec des centaines de milliards de paramètres. La croissance de la taille des modèles fait passer le temps de formation de quelques jours à des semaines, voire des mois dans certains cas. Cela entraîne une augmentation exponentielle des coûts de formation et d'inférence, ce qui nécessite plus que jamais un framework tel que PyTorch 2.0 avec prise en charge intégrée de la formation accélérée des modèles et l'infrastructure optimisée d'AWS adaptée aux charges de travail spécifiques et aux besoins de performance.
Choix de calcul
AWS fournit la prise en charge de PyTorch 2.0 sur le plus large choix d'options de calcul puissant, de mise en réseau à haut débit et de stockage hautes performances évolutives que vous pouvez utiliser pour n'importe quel projet ou application ML et personnaliser en fonction de vos exigences en matière de performances et de budget. Cela se manifeste dans le diagramme de la section suivante ; au niveau inférieur, nous fournissons une large sélection d'instances de calcul alimentées par les processeurs AWS Graviton, Nvidia, AMD et Intel.
Pour les déploiements de modèles, vous pouvez utiliser des processeurs basés sur ARM tels que l'instance basée sur AWS Graviton récemment annoncée qui fournit des performances d'inférence pour PyTorch 2.0 avec jusqu'à 3.5 fois la vitesse de Resnet50 par rapport à la version précédente de PyTorch, et jusqu'à 1.4 fois la vitesse vitesse pour BERT, faisant des instances basées sur AWS Graviton les instances optimisées pour le calcul les plus rapides sur AWS pour les solutions d'inférence de modèle basées sur CPU.
Choix de services ML
Pour utiliser le calcul AWS, vous pouvez choisir parmi un large éventail de services mondiaux basés sur le cloud pour le développement ML, le calcul et l'orchestration des flux de travail. Ce choix vous permet de vous aligner sur vos stratégies commerciales et cloud et d'exécuter des travaux PyTorch 2.0 sur la plate-forme de votre choix. Par exemple, si vous avez des restrictions sur site ou des investissements existants dans des produits open source, vous pouvez utiliser Amazon EC2, AWS ParallelClusterou AWS UltraCluster pour exécuter des charges de travail de formation distribuées basées sur une approche autogérée. Vous pouvez également utiliser un service entièrement géré comme SageMaker pour une infrastructure de formation optimisée en termes de coûts, entièrement gérée et à l'échelle de la production. SageMaker s'intègre également à divers outils MLOps, ce qui vous permet d'adapter le déploiement de votre modèle, de réduire les coûts d'inférence, de gérer les modèles plus efficacement en production et de réduire la charge opérationnelle.
De même, si vous avez des investissements Kubernetes existants, vous pouvez également utiliser Service Amazon Elastic Kubernetes (Amazon EKS) et Kubeflow sur AWS pour implémenter un pipeline ML pour la formation distribuée ou utiliser un service d'orchestration de conteneurs natif AWS comme Service de conteneur élastique Amazon (Amazon ECS) pour la formation et les déploiements de modèles. Les options pour créer votre plate-forme ML ne se limitent pas à ces services ; vous pouvez choisir en fonction de vos besoins organisationnels pour vos travaux PyTorch 2.0.
Activation de PyTorch 2.0 avec AWS DLAMI et AWS DLC
Pour utiliser la pile de services AWS et le calcul puissant susmentionnés, vous devez installer une version compilée optimisée du framework PyTorch2.0 et ses dépendances requises, dont beaucoup sont des projets indépendants, et les tester de bout en bout. Vous pouvez également avoir besoin de bibliothèques spécifiques au CPU pour les routines mathématiques accélérées, de bibliothèques spécifiques au GPU pour les routines mathématiques accélérées et de communication inter-GPU, et de pilotes GPU qui doivent être alignés avec le compilateur GPU utilisé pour compiler les bibliothèques GPU. Si vos tâches nécessitent une formation multi-nœuds à grande échelle, vous avez besoin d'un réseau optimisé capable de fournir la latence la plus faible et le débit le plus élevé. Après avoir construit votre pile, vous devez régulièrement analyser et corriger les vulnérabilités de sécurité et reconstruire et retester la pile après chaque mise à niveau de la version du framework.
AWS aide à réduire cette charge lourde en offrant un ensemble organisé et sécurisé de cadres, de dépendances et d'outils pour accélérer l'apprentissage en profondeur dans le cloud. DLAMI AWS et les DLC AWS. Ces conteneurs et images de machine prédéfinis et testés sont optimisés pour l'apprentissage en profondeur sur les types d'instances EC2 Accelerated Computing, ce qui vous permet d'évoluer vers plusieurs nœuds pour les charges de travail distribuées plus efficacement et plus facilement. Il comprend un pré-construit Adaptateur en tissu élastique (EFA), la pile GPU Nvidia et de nombreux frameworks d'apprentissage en profondeur (TensorFlow, MXNet et PyTorch avec la dernière version 2.0) pour une formation en apprentissage en profondeur distribué hautes performances. Vous n'avez pas besoin de passer du temps à installer et à dépanner des logiciels et des pilotes d'apprentissage en profondeur ou à créer une infrastructure ML, ni à supporter le coût récurrent de la correction de ces images pour les vulnérabilités de sécurité ou de la recréation des images après chaque nouvelle mise à niveau de la version du framework. Au lieu de cela, vous pouvez vous concentrer sur l'effort à plus forte valeur ajoutée des tâches de formation à grande échelle en un temps plus court et sur l'itération plus rapide de vos modèles ML.
Vue d'ensemble de la solution
Considérant que la formation sur GPU et l'inférence sur CPU est un cas d'utilisation populaire pour les clients AWS, nous avons inclus dans ce post une implémentation étape par étape d'une architecture hybride (comme illustré dans le diagramme suivant). Nous explorerons l'art du possible et utiliserons une instance P4 EC2 avec prise en charge BF16 initialisée avec Base GPU DLAMI, y compris les pilotes NVIDIA, CUDA, NCCL, la pile EFA et le DLC PyTorch2.0 pour affiner un modèle d'analyse des sentiments RoBERTa qui vous donne le contrôle et la flexibilité d'utiliser n'importe quelle bibliothèque open-source ou propriétaire. Ensuite, nous utilisons SageMaker pour une infrastructure d'hébergement de modèles entièrement gérée pour héberger notre modèle sur AWS Graviton3. Instances C7g. Nous avons choisi C7g sur SageMaker car il a été prouvé qu'il réduisait les coûts d'inférence jusqu'à 50 % par rapport aux instances EC2 comparables pour inférence en temps réel sur Sage Maker. Le schéma suivant illustre cette architecture.
La formation et l'hébergement du modèle dans ce cas d'utilisation consistent en les étapes suivantes :
- Lancez une instance EC2 Ubuntu basée sur GPU DLAMI dans votre VPC et connectez-vous à votre instance à l'aide de SSH.
- Après vous être connecté à votre instance EC2, téléchargez le DLC AWS PyTorch 2.0.
- Exécutez votre conteneur DLC avec un script de formation de modèle pour affiner le modèle RoBERTa.
- Une fois la formation du modèle terminée, regroupez le modèle enregistré, les scripts d'inférence et quelques fichiers de métadonnées dans un fichier tar que l'inférence SageMaker peut utiliser et téléchargez le package de modèle dans un Service de stockage simple Amazon (Amazon S3) seau.
- Déployez le modèle à l'aide de SageMaker et créez un point de terminaison d'inférence HTTPS. Le point de terminaison d'inférence SageMaker contient un équilibreur de charge et une ou plusieurs instances de votre conteneur d'inférence dans différentes zones de disponibilité. Vous pouvez déployer plusieurs versions du même modèle ou des modèles entièrement différents derrière ce point de terminaison unique. Dans cet exemple, nous hébergeons un seul modèle.
- Appelez le point de terminaison de votre modèle en lui envoyant des données de test et vérifiez la sortie d'inférence.
Dans les sections suivantes, nous présentons le réglage fin d'un modèle RoBERTa pour l'analyse des sentiments. RoBERTa est développé par Facebook AI, améliorant le modèle BERT populaire en modifiant les hyperparamètres clés et en pré-formation sur un corpus plus large. Cela conduit à des performances améliorées par rapport au BERT vanille.
Nous utilisons les transformateurs bibliothèque par Hugging Face pour obtenir le modèle RoBERTa pré-formé sur environ 124 millions de tweets, et nous l'affinons sur l'ensemble de données Twitter pour l'analyse des sentiments.
Pré-requis
Assurez-vous de remplir les conditions préalables suivantes :
- Vous avez un Compte AWS.
- Assurez-vous que vous êtes dans le
us-west-2
Région pour exécuter cet exemple. (Cet exemple est testé dansus-west-2
; cependant, vous pouvez courir dans n'importe quelle autre région.) - Créer un rôle avec le nom
sagemakerrole
. Ajouter des stratégies géréesAmazonSageMakerFullAccess
et lesAmazonS3FullAccess
pour permettre à SageMaker d'accéder aux compartiments S3. - Créer un rôle EC2 avec le nom
ec2_role
. Utilisez la règle d'autorisation suivante :
1. Lancez votre instance de développement
Nous créons une instance p4d.24xlarge qui propose 8 GPU NVIDIA A100 Tensor Core dans us-west-2
:
Lors de la sélection de l'AMI, suivez les notes de version pour exécuter cette commande à l'aide de Interface de ligne de commande AWS (AWS CLI) pour trouver l'ID AMI à utiliser dans us-west-2
:
Assurez-vous que la taille du volume racine gp3 est de 200 Gio.
Le chiffrement de volume EBS n'est pas activé par défaut. Envisagez de modifier cela lors du passage de cette solution en production.
2. Téléchargez un conteneur d'apprentissage en profondeur
Les DLC AWS sont disponibles sous forme d'images Docker dans Amazon Elastic Container Registry public, un service de registre d'images de conteneur AWS géré qui est sécurisé, évolutif et fiable. Chaque image Docker est conçue pour la formation ou l'inférence sur une version spécifique du framework d'apprentissage en profondeur, la version Python, avec prise en charge CPU ou GPU. Sélectionnez le framework PyTorch 2.0 dans la liste des Images des conteneurs d'apprentissage en profondeur.
Suivez les étapes suivantes pour télécharger votre DLC :
un. Connectez-vous en SSH à l'instance. Par défaut, le groupe de sécurité utilisé avec EC2 ouvre le port SSH à tous. Veuillez tenir compte de ceci si vous transférez cette solution en production :
Par défaut, le groupe de sécurité utilisé avec Amazon EC2 ouvre le port SSH à tous. Envisagez de modifier cela si vous transférez cette solution en production.
b. Définissez les variables d'environnement requises pour exécuter les étapes restantes de cette mise en œuvre :
Amazon ECR prend en charge les référentiels d'images publics avec des autorisations basées sur les ressources à l'aide de Gestion des identités et des accès AWS (IAM) afin que des utilisateurs ou des services spécifiques puissent accéder aux images.
c. Connectez-vous au registre DLC :
d. Tirez le dernier conteneur PyTorch 2.0 avec prise en charge GPU dans us-west-2
Si vous obtenez l'erreur "pas d'espace disponible sur l'appareil", assurez-vous que vous augmenter le volume EC2 EBS à 200 Gio, puis étendre le système de fichiers Linux.
3. Clonez les derniers scripts adaptés à PyTorch 2.0
Clonez les scripts avec le code suivant :
Comme nous utilisons l'API de transformateurs Hugging Face avec la dernière version 4.28.1, elle a déjà activé la prise en charge de PyTorch 2.0. Nous avons ajouté l'argument suivant à l'API d'entraînement dans train_sentiment.py
pour activer les nouvelles fonctionnalités de PyTorch 2.0 :
- Compilation de la torche - Bénéficiez d'une accélération moyenne de 43 % sur les GPU Nvidia A100 avec une seule ligne de changement.
- Type de données BF16 - Prise en charge d'un nouveau type de données (Brain Floating Point) pour les GPU Ampère ou plus récents.
- Optimiseur AdamW fusionné - Mise en œuvre fusionnée d'AdamW pour accélérer encore la formation. Cette méthode d'optimisation stochastique modifie l'implémentation typique de la décroissance du poids dans Adam en découplant la décroissance du poids de la mise à jour du gradient.
4. Créez une nouvelle image Docker avec des dépendances
Nous étendons l'image DLC PyTorch 2.0 pré-construite pour installer le transformateur Hugging Face et d'autres bibliothèques dont nous avons besoin pour affiner notre modèle. Cela vous permet d'utiliser les bibliothèques et les paramètres d'apprentissage en profondeur testés et optimisés inclus sans avoir à créer une image à partir de zéro. Voir le code suivant :
5. Commencez l'entraînement en utilisant le conteneur
Exécutez la commande Docker suivante pour commencer à affiner le modèle sur le tweet_eval
ensemble de données de sentiments. Nous utilisons les arguments du conteneur Docker (taille de la mémoire partagée, mémoire maximale verrouillée et taille de la pile) recommandé par Nvidia pour les charges de travail d'apprentissage en profondeur.
Vous devez vous attendre à la sortie suivante. Le script télécharge d'abord l'ensemble de données TweetEval, qui se compose de sept tâches hétérogènes dans Twitter, toutes encadrées comme une classification de tweet multi-classes. Les tâches incluent l'ironie, la haine, l'offensive, la position, les emoji, l'émotion et le sentiment.
Le script télécharge ensuite le modèle de base et démarre le processus de réglage fin. Les métriques de formation et d'évaluation sont rapportées à la fin de chaque époque.
Statistiques de performance
Avec PyTorch 2.0 et la dernière bibliothèque de transformateurs Hugging Face 4.28.1, nous avons observé une accélération de 42 % sur une seule instance p4d.24xlarge avec 8 GPU A100 de 40 Go. Les améliorations de performances proviennent d'une combinaison de torch.compile, du type de données BF16 et de l'optimiseur AdamW fusionné. Le code suivant est le résultat final de deux exécutions d'entraînement avec et sans nouvelles fonctionnalités :
6. Testez le modèle formé localement avant de préparer l'inférence SageMaker
Vous trouverez les fichiers suivants sous $ml_working_dir/saved_model/
Après l'entrainement:
Assurons-nous que nous pouvons exécuter l'inférence localement avant de préparer l'inférence SageMaker. Nous pouvons charger le modèle enregistré et exécuter l'inférence localement à l'aide de la test_trained_model.py
script:
Vous devriez vous attendre à la sortie suivante avec l'entrée « Les cas de Covid augmentent rapidement ! » :
7. Préparer l'archive du modèle pour l'inférence SageMaker
Sous le répertoire où se trouve le modèle, créez un nouveau répertoire appelé code
:
Dans le nouveau répertoire, créez le fichier inference.py
et ajoutez-y :
Au final, vous devriez avoir la structure de dossiers suivante :
Le modèle est prêt à être empaqueté et chargé sur Amazon S3 pour être utilisé avec l'inférence SageMaker :
8. Déployer le modèle sur une instance SageMaker AWS Graviton
Les nouvelles générations de processeurs offrent une amélioration significative des performances dans l'inférence ML grâce à des instructions intégrées spécialisées. Dans ce cas d'utilisation, nous utilisons l'infrastructure d'hébergement entièrement gérée SageMaker avec des instances C3g basées sur AWS Graviton7. AWS a également mesuré jusqu'à 50 % d'économies de coûts pour l'inférence PyTorch avec des instances EC3 C2g basées sur AWS Graviton7 sur Torch Hub ResNet50 et plusieurs modèles Hugging Face par rapport à des instances EC2 comparables.
Pour déployer les modèles sur les instances AWS Graviton, nous utilisons les DLC AWS qui prennent en charge PyTorch 2.0 et TorchServe 0.8.0, ou vous pouvez apportez vos propres contenants qui sont compatibles avec l'architecture ARMv8.2.
Nous utilisons le modèle que nous avons formé précédemment : s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. Si vous n'avez jamais utilisé SageMaker auparavant, passez en revue Premiers pas avec Amazon SageMaker.
Pour commencer, assurez-vous que le package SageMaker est à jour :
Comme il s'agit d'un exemple, créez un fichier appelé start_endpoint.py
et ajoutez le code suivant. Ce sera le script Python pour démarrer un point de terminaison d'inférence SageMaker avec le mode :
Nous utilisons ml.c7g.4xlarge pour l'instance et récupérons PT 2.0 avec une étendue d'image inference_graviton
. Il s'agit de notre instance AWS Graviton3.
Ensuite, nous créons le fichier qui exécute la prédiction. Nous les faisons en tant que scripts séparés afin de pouvoir exécuter les prédictions autant de fois que nous le souhaitons. Créer predict.py
avec le code suivant:
Avec les scripts générés, nous pouvons maintenant démarrer un point de terminaison, effectuer des prédictions sur le point de terminaison et nettoyer lorsque nous avons terminé :
9. Nettoyer
Enfin, nous voulons nettoyer cet exemple. Créez cleanup.py et ajoutez le code suivant :
Conclusion
Les DLAMI et les DLC AWS sont devenus la norme incontournable pour exécuter des charges de travail d'apprentissage en profondeur sur une large sélection de services de calcul et d'apprentissage automatique sur AWS. En plus d'utiliser des DLC spécifiques à l'infrastructure sur les services AWS ML, vous pouvez également utiliser une infrastructure unique sur Amazon EC2, ce qui supprime le travail lourd nécessaire aux développeurs pour créer et maintenir des applications d'apprentissage en profondeur. Faire référence à Notes de version pour DLAMI et les Images de conteneurs de Deep Learning disponibles pour commencer.
Cet article a montré l'une des nombreuses possibilités de former et de servir votre prochain modèle sur AWS et a discuté de plusieurs formats que vous pouvez adopter pour atteindre vos objectifs commerciaux. Essayez cet exemple ou utilisez nos autres services AWS ML pour augmenter la productivité des données de votre entreprise. Nous avons inclus un simple problème d'analyse des sentiments afin que les clients novices en ML puissent comprendre à quel point il est simple de démarrer avec PyTorch 2.0 sur AWS. Nous couvrirons des cas d'utilisation, des modèles et des technologies AWS plus avancés dans les prochains articles de blog.
À propos des auteurs
Kanwaljit Khurmi est architecte principal de solutions chez Amazon Web Services. Il travaille avec les clients AWS pour fournir des conseils et une assistance technique les aidant à améliorer la valeur de leurs solutions lors de l'utilisation d'AWS. Kanwaljit est spécialisé dans l'aide aux clients avec des applications conteneurisées et d'apprentissage automatique.
Michel Schneider est un développeur de systèmes, basé à Phoenix AZ. Il est membre des conteneurs Deep Learning, prenant en charge diverses images de conteneurs Framework, y compris Graviton Inference. Il se consacre à l'efficacité et à la stabilité des infrastructures.
Lai Wei est ingénieur logiciel senior chez Amazon Web Services. Il se concentre sur la création de cadres d'apprentissage en profondeur faciles à utiliser, hautes performances et évolutifs pour accélérer la formation de modèles distribués. En dehors du travail, il aime passer du temps avec sa famille, faire de la randonnée et skier.
- Contenu propulsé par le référencement et distribution de relations publiques. Soyez amplifié aujourd'hui.
- PlatoAiStream. Intelligence des données Web3. Connaissance Amplifiée. Accéder ici.
- Frapper l'avenir avec Adryenn Ashley. Accéder ici.
- Achetez et vendez des actions de sociétés PRE-IPO avec PREIPO®. Accéder ici.
- La source: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- :possède
- :est
- :ne pas
- :où
- $UP
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- accélérer
- accéléré
- accélérer
- Accepter
- accès
- à travers
- Action
- Adam
- ajouter
- ajoutée
- adopter
- Avancée
- Après
- à opposer à
- AI
- aligner
- aligné
- Tous
- permettre
- Permettre
- permet
- le long de
- déjà
- aussi
- Amazon
- Amazon EC2
- Amazon Web Services
- AMD
- montant
- an
- selon une analyse de l’Université de Princeton
- il analyse
- et les
- annoncé
- Une autre
- tous
- api
- Application
- applications
- une approche
- d'environ
- architecture
- SONT
- Réservé
- argument
- arguments
- artificiel
- intelligence artificielle
- Intelligence artificielle (AI)
- AS
- Assistance
- At
- disponibilité
- disponibles
- moyen
- AWS
- balancier
- base
- basé
- En gros
- BE
- car
- devenez
- était
- before
- commencer
- derrière
- référence
- repères
- Big
- milliards
- BIN
- Blog
- Blogue
- corps
- Bas et Leggings
- Cerveau
- vaste
- budget
- construire
- Développement
- construit
- intégré
- fardeau
- la performance des entreprises
- entreprises
- mais
- by
- Appelez-nous
- appelé
- appel
- CAN
- capacités
- maisons
- cas
- CD
- Change
- en changeant
- le choix
- Selectionnez
- classification
- client
- le cloud
- code
- COM
- combinaison
- vient
- Communication
- comparable
- par rapport
- compatible
- complet
- calcul
- ordinateur
- Vision par ordinateur
- informatique
- NOUS CONTACTER
- Considérer
- consiste
- Console
- Contenant
- Conteneurs
- contenu
- création de contenu
- des bactéries
- Core
- Prix
- les économies de coûts
- Costs
- pourriez
- couvrant
- engendrent
- créée
- création
- Lettres de créance
- organisée
- Courant
- Clients
- personnaliser
- données
- Date
- jours
- dévoué
- profond
- l'apprentissage en profondeur
- Réglage par défaut
- démontre
- Selon
- déployer
- déployé
- déploiement
- déploiements
- un
- détails
- développé
- Développeur
- mobiles
- Développement
- différent
- Digérer
- discuter
- discuté
- distribué
- formation distribuée
- plusieurs
- do
- Docker
- fait
- Ne pas
- download
- téléchargements
- driver
- conducteurs
- conduite
- deux
- Dynamic
- chacun
- Plus tôt
- facilité
- même
- Easy
- effet
- de manière efficace
- efficace
- efficacement
- effort
- non plus
- permettre
- activé
- chiffrement
- fin
- Endpoint
- ingénieur
- améliorée
- entièrement
- Environment
- époque
- erreur
- évaluer
- évaluation
- Pourtant, la
- JAMAIS
- Chaque
- exemple
- existant
- Développer vous
- attendre
- d'experience
- explorez
- exponentiel
- Exporter
- étendre
- S'étend
- .
- Visage
- famille
- plus rapide
- le plus rapide
- Fonctionnalités:
- few
- Figure
- Déposez votre dernière attestation
- Fichiers
- finale
- Trouvez
- Prénom
- s'adapter
- Flexibilité
- flottant
- Focus
- mettant l'accent
- suivre
- Abonnement
- Pour
- Framework
- cadres
- De
- d’étiquettes électroniques entièrement
- plus
- générer
- généré
- génération
- Les générations
- génératif
- IA générative
- obtenez
- Git
- GitHub
- Donner
- donne
- Global
- GPU
- GPU
- Réservation de groupe
- Croissance
- l'orientation
- Vous avez
- ayant
- he
- lourd
- levage de charges lourdes
- aider
- aide
- haute performance
- augmentation
- le plus élevé
- sa
- détient
- hôte
- hébergement
- Comment
- Cependant
- HTML
- http
- HTTPS
- Moyeu
- Des centaines
- Hybride
- ID
- Identite
- if
- illustre
- image
- satellite
- Mettre en oeuvre
- la mise en oeuvre
- importer
- améliorer
- amélioré
- amélioration
- améliorations
- l'amélioration de
- in
- comprendre
- inclus
- inclut
- Y compris
- Améliore
- croissant
- indépendant
- secteurs
- Infrastructure
- contribution
- installer
- Installé
- installer
- instance
- plutôt ;
- Des instructions
- Intègre
- Intel
- Intelligence
- développement
- Investissements
- IP
- ironie
- IT
- SES
- Emplois
- jpg
- json
- ACTIVITES
- Libellé
- langue
- gros
- grande échelle
- plus importantes
- Latence
- Nouveautés
- dernière version
- lancer
- Conduit
- apprentissage
- à gauche
- bibliothèques
- Bibliothèque
- lifting
- comme
- limité
- Gamme
- linux
- Liste
- charge
- localement
- situé
- fermé
- enregistrer
- vous connecter
- perte
- baisser
- le plus bas
- click
- machine learning
- maintenir
- a prendre une
- Fabrication
- gérer
- gérés
- de nombreuses
- math
- max
- Mai..
- Découvrez
- membre
- Mémoire
- fusionne
- Métadonnées
- méthode
- Métrique
- million
- ML
- MLOps
- Mode
- modèle
- numériques jumeaux (digital twin models)
- Modules
- mois
- PLUS
- en mouvement
- plusieurs
- prénom
- Nature
- Traitement du langage naturel
- nécessaire
- Besoin
- nécessaire
- Besoins
- négatif
- réseau et
- de mise en réseau
- Neutri
- Nouveauté
- Nouvelles fonctionnalités
- Les nouvelles technologies
- next
- nœuds
- Notes
- Remarquer..
- maintenant
- Nvidia
- objectifs
- of
- offensive
- code
- offrant
- Offres Speciales
- on
- ONE
- open source
- ouvre
- opérationnel
- à mettre en œuvre pour gérer une entreprise rentable. Ce guide est basé sur trois décennies d'expérience
- optimisé
- Options
- or
- orchestration
- organisationnel
- OS
- Autre
- Autres
- nos
- ande
- sortie
- au contrôle
- propre
- paquet
- emballé
- paramètres
- partie
- Pièce
- patcher
- performant
- autorisation
- autorisations
- phénix
- en particulier pendant la préparation
- choisi
- pipeline
- plateforme
- Platon
- Intelligence des données Platon
- PlatonDonnées
- veuillez cliquer
- Point
- politiques
- politique
- Populaire
- possibilités
- Post
- Poteaux
- alimenté
- solide
- prévoir
- prédiction
- Prédictions
- Préparer
- en train de préparer
- conditions préalables
- précédent
- Directeur
- Problème
- processus
- traitement
- processeurs
- Vidéo
- productivité
- Produits
- Projet
- projets
- propriétaire
- proven
- fournir
- fournit
- public
- mettre
- Python
- pytorch
- solutions
- récent
- récemment
- récurrent
- réduire
- région
- enregistrement
- régulièrement
- relatif
- libérer
- fiable
- restant
- Signalé
- exigent
- conditions
- Exigences
- a besoin
- ressource
- réponse
- restrictions
- résultat
- retourner
- Avis
- Rôle
- racine
- Courir
- pour le running
- sagemaker
- Inférence SageMaker
- même
- Épargnes
- évolutive
- Escaliers intérieurs
- balayage
- scikit-apprendre
- portée
- But
- gratter
- scripts
- Section
- les sections
- sécurisé
- sécurité
- sur le lien
- la sélection
- sélection
- envoi
- supérieur
- sentiment
- séparé
- besoin
- service
- Services
- Session
- set
- Paramétres
- installation
- sept
- plusieurs
- SHA256
- commun
- devrait
- vitrine
- montré
- montré
- Spectacles
- significative
- étapes
- unique
- Taille
- tailles
- So
- Logiciels
- Software Engineer
- sur mesure
- Solutions
- quelques
- l'espace
- spécialisé
- spécialise
- groupe de neurones
- spécifiquement
- vitesse
- vitesses
- passer
- Dépenses
- Stabilité
- empiler
- Standard
- Commencer
- j'ai commencé
- départs
- Déclaration
- statistiques
- étapes
- Étapes
- storage
- options de stockage
- les stratégies
- structure
- tel
- Support
- Appareils
- Appuyer
- Les soutiens
- combustion propre
- Système
- tâches
- Technique
- techniques
- Les technologies
- tensorflow
- tester
- examiné
- que
- qui
- La
- La Région
- leur
- Les
- puis
- Ces
- l'ont
- des choses
- this
- bien que?
- Avec
- débit
- étage
- fiable
- fois
- à
- les outils
- torche
- Train
- qualifié
- Formation
- transformateur
- transformateurs
- transformer
- Essai
- Tweet
- tweets
- deux
- type
- types
- débutante
- Ubuntu
- sous
- comprendre
- prochain
- Mises à jour
- a actualisé
- améliorer
- téléchargé
- Utilisation
- utilisé
- cas d'utilisation
- d'utiliser
- utilisateurs
- en utilisant
- utilitaire
- Plus-value
- variété
- divers
- vérifier
- version
- vision
- le volume
- vulnérabilités
- souhaitez
- we
- web
- services Web
- Semaines
- poids
- bienvenu
- quand
- qui
- largement
- sera
- comprenant
- sans
- activités principales
- workflow
- vos contrats
- écrire
- écriture
- X
- Vous n'avez
- Votre
- zéphyrnet
- zones