À l’ère du Big Data et de l’IA, les entreprises recherchent continuellement des moyens d’utiliser ces technologies pour acquérir un avantage concurrentiel. L’un des domaines les plus en vogue en matière d’IA à l’heure actuelle est l’IA générative, et pour cause. L'IA générative propose des solutions puissantes qui repoussent les limites du possible en termes de créativité et d'innovation. Au cœur de ces solutions de pointe se trouve un modèle de base (FM), un modèle d'apprentissage automatique très avancé, pré-entraîné sur de grandes quantités de données. Beaucoup de ces modèles de base ont montré une capacité remarquable à comprendre et à générer du texte de type humain, ce qui en fait un outil précieux pour une variété d'applications, de la création de contenu à l'automatisation du support client.
Cependant, ces modèles ne sont pas sans défis. Ils sont exceptionnellement volumineux et nécessitent de grandes quantités de données et de ressources informatiques pour être formés. De plus, l’optimisation du processus de formation et le calibrage des paramètres peuvent être un processus complexe et itératif, nécessitant une expertise et une expérimentation minutieuse. Cela peut constituer un obstacle pour de nombreuses organisations qui cherchent à créer leurs propres modèles de fondation. Pour relever ce défi, de nombreux clients envisagent d’affiner les modèles de fondations existants. Il s'agit d'une technique populaire permettant d'ajuster une petite partie des paramètres du modèle pour des applications spécifiques tout en préservant les connaissances déjà codées dans le modèle. Il permet aux organisations d'utiliser la puissance de ces modèles tout en réduisant les ressources nécessaires à la personnalisation d'un domaine ou d'une tâche spécifique.
Il existe deux approches principales pour affiner les modèles de base : le réglage fin traditionnel et le réglage fin efficace en fonction des paramètres. Le réglage fin traditionnel implique la mise à jour de tous les paramètres du modèle pré-entraîné pour une tâche spécifique en aval. D'un autre côté, le réglage fin efficace des paramètres inclut une variété de techniques qui permettent de personnaliser un modèle sans mettre à jour tous les paramètres du modèle d'origine. L’une de ces techniques s’appelle l’adaptation de bas rang (LoRA). Cela implique d'ajouter de petits modules spécifiques à une tâche au modèle pré-entraîné et de les entraîner tout en gardant le reste des paramètres fixes, comme le montre l'image suivante.
La source: IA générative sur AWS (O'Reilly, 2023)
LoRA a récemment gagné en popularité pour plusieurs raisons. Il offre une formation plus rapide, des besoins en mémoire réduits et la possibilité de réutiliser des modèles pré-entraînés pour plusieurs tâches en aval. Plus important encore, le modèle de base et l'adaptateur peuvent être stockés séparément et combinés à tout moment, ce qui facilite le stockage, la distribution et le partage de versions affinées. Cependant, cela introduit un nouveau défi : comment gérer correctement ces nouveaux types de modèles affinés. Faut-il combiner le modèle de base et l'adaptateur ou les garder séparés ? Dans cet article, nous passons en revue les meilleures pratiques pour gérer les modèles LoRA affinés sur Amazon Sage Maker pour répondre à cette question émergente.
Travailler avec des FM sur le registre de modèles SageMaker
Dans cet article, nous passons en revue un exemple de bout en bout de réglage fin du grand modèle de langage (LLM) Llama2 à l'aide de la méthode QLoRA. QLoRA combine les avantages d'un réglage fin efficace des paramètres avec une quantification 4 bits/8 bits pour réduire davantage les ressources nécessaires pour affiner un FM pour une tâche ou un cas d'utilisation spécifique. Pour cela, nous utiliserons le modèle Llama7 pré-entraîné à 2 milliards de paramètres et l'affinerons sur l'ensemble de données databricks-dolly-15k. Les LLM comme Llama2 ont des milliards de paramètres et sont pré-entraînés sur d'énormes ensembles de données textuelles. Le réglage fin adapte un LLM à une tâche en aval en utilisant un ensemble de données plus petit. Cependant, la mise au point de grands modèles est coûteuse en termes de calcul. C'est pourquoi nous utiliserons la méthode QLoRA pour quantifier les poids lors du réglage fin afin de réduire ce coût de calcul.
Dans nos exemples, vous trouverez deux carnets (llm-finetune-combined-with-registry.ipynb
et les llm-finetune-separate-with-registry.ipynb
). Chacun fonctionne d'une manière différente pour gérer les modèles LoRA affinés, comme illustré dans le diagramme suivant :
- Tout d'abord, nous téléchargeons le modèle Llama2 pré-entraîné avec 7 milliards de paramètres à l'aide de SageMaker Studio Notebooks. Les LLM, comme Llama2, ont montré des performances de pointe sur les tâches de traitement du langage naturel (NLP) lorsqu'ils ont été affinés sur des données spécifiques à un domaine.
- Ensuite, nous affinons Llama2 sur l'ensemble de données databricks-dolly-15k à l'aide de la méthode QLoRA. QLoRA réduit le coût de calcul du réglage fin en quantifiant les poids du modèle.
- Lors du réglage fin, nous intégrons SageMaker Experiments Plus à l'API Transformers pour enregistrer automatiquement des métriques telles que le gradient, la perte, etc.
- Nous versionnons ensuite le modèle Llama2 affiné dans SageMaker Model Registry en utilisant deux approches :
- Stockage du modèle complet
- Stockage de l'adaptateur et du modèle de base séparément.
- Enfin, nous hébergeons les modèles Llama2 affinés à l'aide du service Deep Java Library (DJL) sur un point de terminaison SageMaker en temps réel.
Dans les sections suivantes, nous approfondirons chacune de ces étapes, pour démontrer la flexibilité de SageMaker pour différents flux de travail LLM et comment ces fonctionnalités peuvent aider à améliorer les opérations de vos modèles.
Pré-requis
Remplissez les conditions préalables suivantes pour commencer à expérimenter le code.
- Créer un Domaine SageMaker Studio: Amazon SageMaker Studio, en particulier Studio Notebooks, est utilisé pour lancer la tâche de réglage fin de Llama2, puis enregistrer et afficher les modèles dans Registre de modèles SageMaker. Expériences SageMaker est également utilisé pour afficher et comparer les journaux de tâches de réglage fin de Llama2 (perte d'entraînement/perte de test/etc.).
- Créer un compartiment Amazon Simple Storage Service (S3): L'accès à un compartiment S3 pour stocker les artefacts de formation et les poids de modèle est requis. Pour obtenir des instructions, reportez-vous à Créer un bucket. L'exemple de code utilisé pour cet article utilisera le compartiment S3 par défaut de SageMaker, mais vous pouvez le personnaliser pour utiliser n'importe quel compartiment S3 pertinent.
- Configurer des collections de modèles (autorisations IAM) : mettez à jour votre rôle d'exécution SageMaker avec les autorisations sur les groupes de ressources comme indiqué sous Guide du développeur de collections de registres de modèles pour implémenter le regroupement de registres modèles à l'aide de collections de modèles.
- Acceptez les conditions générales de Llama2 : vous devrez accepter le contrat de licence d'utilisateur final et la politique d'utilisation acceptable pour l'utilisation du modèle de base Llama2.
Les exemples sont disponibles dans le GitHub référentiel. Les fichiers de notebook sont testés à l'aide de notebooks Studio exécutés sur le noyau PyTorch 2.0.0 Python 3.10 optimisé pour le GPU et le type d'instance ml.g4dn.xlarge.
Expériences et intégration de rappel
Expériences Amazon SageMaker vous permet d'organiser, de suivre, de comparer et d'évaluer des expériences d'apprentissage automatique (ML) et des versions de modèles à partir de n'importe quel environnement de développement intégré (IDE), y compris les notebooks Jupyter locaux, à l'aide du SDK SageMaker Python ou de boto3. Il offre la flexibilité d'enregistrer les métriques, paramètres, fichiers, artefacts de votre modèle, de tracer des graphiques à partir des différentes métriques, de capturer diverses métadonnées, de les rechercher et de prendre en charge la reproductibilité du modèle. Les data scientists peuvent comparer rapidement les performances et les hyperparamètres pour l'évaluation du modèle via des graphiques et des tableaux visuels. Ils peuvent également utiliser SageMaker Experiments pour télécharger les graphiques créés et partager l'évaluation du modèle avec leurs parties prenantes.
La formation des LLM peut être un processus lent, coûteux et itératif. Il est très important pour un utilisateur de suivre l'expérimentation LLM à grande échelle afin d'éviter une expérience de réglage de modèle incohérente. API du transformateur HuggingFace permettre aux utilisateurs de suivre les métriques pendant les tâches de formation via Rappels. Les rappels sont des morceaux de code « en lecture seule » qui peuvent personnaliser le comportement de la boucle d'entraînement dans PyTorch Trainer et qui peuvent inspecter l'état de la boucle d'entraînement pour obtenir des rapports de progression, se connecter à TensorBoard ou SageMaker Experiments Plus via une logique personnalisée (qui est incluse dans le cadre de de cette base de code).
Vous pouvez importer le code de rappel SageMaker Experiments inclus dans le référentiel de code de cet article, comme indiqué dans le bloc de code suivant :
Ce rappel enregistrera automatiquement les informations suivantes dans SageMaker Experiments dans le cadre de l'exécution de la formation :
- Paramètres d'entraînement et hyper-paramètres
- Perte de formation et de validation du modèle à l'étape, à l'époque et à la finale
- Artefacts d'entrée et de sortie du modèle (ensemble de données d'entraînement, ensemble de données de validation, emplacement de sortie du modèle, débogueur d'entraînement, etc.)
Le graphique suivant montre des exemples de graphiques que vous pouvez afficher en utilisant ces informations.
Cela vous permet de comparer facilement plusieurs exécutions à l'aide de la fonction Analyser de SageMaker Experiments. Vous pouvez sélectionner les expériences que vous souhaitez comparer et elles rempliront automatiquement les graphiques de comparaison.
Enregistrez des modèles affinés dans les collections du registre de modèles
Collections de registres modèles est une caractéristique de Registre de modèles SageMaker qui vous permet de regrouper les modèles enregistrés qui sont liés les uns aux autres et de les organiser en hiérarchies pour améliorer la découverte des modèles à grande échelle. Nous utiliserons les collections de registres de modèles pour suivre le modèle de base et les variantes affinées.
Méthode de copie complète du modèle
La première méthode combine le modèle de base et l'adaptateur LoRA et enregistre le modèle entièrement affiné. Le code suivant illustre le processus de fusion de modèles et enregistre le modèle combiné à l'aide de model.save_pretrained()
.
La combinaison de l'adaptateur LoRA et du modèle de base en un seul artefact de modèle après un réglage précis présente des avantages et des inconvénients. Le modèle combiné est autonome et peut être géré et déployé indépendamment sans avoir besoin du modèle de base d'origine. Le modèle peut être suivi comme sa propre entité avec un nom de version reflétant le modèle de base et les données de réglage fin. On peut adopter une nomenclature en utilisant base_model_name
+ affiné dataset_name
organiser les groupes modèles. Facultativement, les collections de modèles pourraient associer les modèles originaux et affinés, mais cela n'est peut-être pas nécessaire puisque le modèle combiné est indépendant. L'extrait de code suivant vous montre comment enregistrer le modèle affiné.
Vous pouvez utiliser l'estimateur de formation pour enregistrer le modèle dans Model Registry.
À partir de Model Registry, vous pouvez récupérer le package de modèle et déployer ce modèle directement.
Cependant, cette approche présente des inconvénients. La combinaison des modèles entraîne une inefficacité du stockage et une redondance puisque le modèle de base est dupliqué dans chaque version affinée. À mesure que la taille des modèles et le nombre de modèles affinés augmentent, les besoins de stockage augmentent de manière exponentielle. En prenant le modèle llama2 7b comme exemple, le modèle de base fait environ 13 Go et le modèle affiné est de 13.6 Go. 96 % du modèle doit être dupliqué après chaque réglage fin. De plus, la distribution et le partage de fichiers de modèles très volumineux deviennent également plus difficiles et présentent des défis opérationnels, car les coûts de transfert et de gestion des fichiers augmentent avec l'augmentation de la taille du modèle et les tâches de réglage fin.
Adaptateur séparé et méthode de base
La deuxième méthode se concentre sur la séparation des poids de base et des poids d'adaptateur en les enregistrant en tant que composants de modèle distincts et en les chargeant séquentiellement au moment de l'exécution.
L'enregistrement des poids de la base et de l'adaptateur présente des avantages et des inconvénients, similaires à la méthode de copie complète du modèle. L’un des avantages est qu’il permet d’économiser de l’espace de stockage. Les poids de base, qui constituent le composant le plus important d'un modèle affiné, ne sont enregistrés qu'une seule fois et peuvent être réutilisés avec d'autres poids adaptateurs adaptés à différentes tâches. Par exemple, les poids de base de Llama2-7B sont d'environ 13 Go, mais chaque tâche de réglage fin n'a besoin de stocker qu'environ 0.6 Go de poids d'adaptateur, ce qui représente une économie d'espace de 95 %. Un autre avantage est que les poids de base peuvent être gérés séparément des poids d'adaptateur à l'aide d'un registre de modèles de poids de base uniquement. Cela peut être utile pour les domaines SageMaker qui fonctionnent en mode VPC uniquement sans passerelle Internet, car les pondérations de base sont accessibles sans avoir à passer par Internet.
Créer un groupe de packages de modèles pour les poids de base
Créer un groupe de packages modèles pour les poids QLoRA
Le code suivant montre comment baliser les poids QLoRA avec le type d'ensemble de données/tâche, enregistrer les poids delta affinés dans un registre de modèles distinct et suivre les poids delta séparément.
L'extrait suivant montre une vue du registre des modèles où les modèles sont divisés en poids de base et en poids affinés.
La gestion des modèles, des ensembles de données et des tâches pour les LLM hyper-personnalisés peut rapidement devenir écrasante. Collections de registres de modèles SageMaker peut vous aider à regrouper des modèles associés et à les organiser dans une hiérarchie pour améliorer la découverte des modèles. Cela facilite le suivi des relations entre les pondérations de base, les pondérations des adaptateurs et les ensembles de données de tâches de réglage fin. Vous pouvez également créer des relations et des liens complexes entre les modèles.
Créez une nouvelle collection et ajoutez les poids de votre modèle de base à cette collection
Liez tous vos poids Delta d’adaptateur LoRA affinés à cette collection par tâche et/ou ensemble de données
Cela entraînera une hiérarchie de collections liée par type de modèle/tâche et par l'ensemble de données utilisé pour affiner le modèle de base.
Cette méthode de séparation des modèles de base et d'adaptateur présente certains inconvénients. Un inconvénient est la complexité du déploiement du modèle. Étant donné qu'il existe deux artefacts de modèle distincts, vous avez besoin d'étapes supplémentaires pour reconditionner le modèle au lieu de le déployer directement à partir du registre de modèles. Dans l’exemple de code suivant, téléchargez et reconditionnez d’abord la dernière version du modèle de base.
Ensuite, téléchargez et reconditionnez les derniers poids d'adaptateur LoRA affinés.
Puisque vous utiliserez le service DJL avec deepspeed pour héberger le modèle, votre répertoire d'inférence devrait ressembler à ce qui suit.
Enfin, regroupez le code d'inférence personnalisé, le modèle de base et l'adaptateur LoRA dans un seul fichier .tar.gz pour le déploiement.
Nettoyer
Nettoyez vos ressources en suivant les instructions de la section de nettoyage du bloc-notes. Faire référence à Tarification d'Amazon SageMaker pour plus de détails sur le coût des instances d’inférence.
Conclusion
Cet article vous a présenté les meilleures pratiques pour gérer les modèles LoRA affinés sur Amazon SageMaker. Nous avons abordé deux méthodes principales : combiner les poids de la base et de l'adaptateur en un seul modèle autonome et séparer les poids de la base et de l'adaptateur. Les deux approches comportent des compromis, mais la séparation des pondérations permet d'optimiser le stockage et permet des techniques avancées de gestion de modèles telles que les collections de registres de modèles SageMaker. Cela vous permet de créer des hiérarchies et des relations entre les modèles pour améliorer l'organisation et la visibilité. Nous vous encourageons à essayer l'exemple de code sur GitHub référentiel d'expérimenter vous-même ces méthodes. À mesure que l’IA générative progresse rapidement, suivre les meilleures pratiques de gestion des modèles vous aidera à suivre les expériences, à trouver le modèle adapté à votre tâche et à gérer efficacement les LLM spécialisés à grande échelle.
Bibliographie
À propos des auteurs
James Wu est un architecte de solution spécialiste senior AI/ML chez AWS. aider les clients à concevoir et à créer des solutions d'IA/ML. Le travail de James couvre un large éventail de cas d'utilisation du ML, avec un intérêt principal pour la vision par ordinateur, l'apprentissage en profondeur et la mise à l'échelle du ML dans l'entreprise. Avant de rejoindre AWS, James a été architecte, développeur et leader technologique pendant plus de 10 ans, dont 6 ans en ingénierie et 4 ans dans les secteurs du marketing et de la publicité.
Pranav Murthy est architecte de solutions spécialisées en IA/ML chez AWS. Il se concentre sur l'aide aux clients pour créer, former, déployer et migrer des charges de travail d'apprentissage automatique (ML) vers SageMaker. Il a précédemment travaillé dans l'industrie des semi-conducteurs en développant de grands modèles de vision par ordinateur (CV) et de traitement du langage naturel (NLP) pour améliorer les processus des semi-conducteurs. Pendant son temps libre, il aime jouer aux échecs et voyager.
Mécit Gungor est un architecte de solutions spécialisé AI/ML chez AWS qui aide les clients à concevoir et à créer des solutions AI/ML à grande échelle. Il couvre un large éventail de cas d'utilisation de l'IA/ML pour les clients des télécommunications et se concentre actuellement sur l'IA générative, les LLM et l'optimisation de la formation et de l'inférence. On le trouve souvent en randonnée dans la nature ou en train de jouer à des jeux de société avec ses amis pendant son temps libre.
Shelbee Eigenbrode est architecte principal de solutions spécialisées en IA et en apprentissage automatique chez Amazon Web Services (AWS). Elle travaille dans la technologie depuis 24 ans et couvre plusieurs industries, technologies et rôles. Elle se concentre actuellement sur la combinaison de son expérience DevOps et ML dans le domaine des MLOps pour aider les clients à fournir et gérer des charges de travail ML à grande échelle. Avec plus de 35 brevets délivrés dans divers domaines technologiques, elle est passionnée par l'innovation continue et l'utilisation des données pour générer des résultats commerciaux. Shelbee est co-créatrice et formatrice de la spécialisation Practical Data Science sur Coursera. Elle est également codirectrice de Women In Big Data (WiBD), chapitre de Denver. Dans ses temps libres, elle aime passer du temps avec sa famille, ses amis et ses chiens hyperactifs.
- Contenu propulsé par le référencement et distribution de relations publiques. Soyez amplifié aujourd'hui.
- PlatoData.Network Ai générative verticale. Autonomisez-vous. Accéder ici.
- PlatoAiStream. Intelligence Web3. Connaissance Amplifiée. Accéder ici.
- PlatonESG. Carbone, Technologie propre, Énergie, Environnement, Solaire, La gestion des déchets. Accéder ici.
- PlatoHealth. Veille biotechnologique et essais cliniques. Accéder ici.
- La source: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :possède
- :est
- :ne pas
- :où
- $UP
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- capacité
- A Propos
- Accepter
- acceptable
- accès
- accédé
- à travers
- adaptation
- s'adapte
- ajouter
- ajoutant
- Supplémentaire
- En outre
- propos
- adopter
- Avancée
- Avantage
- avantages
- Numérique
- Après
- contrat
- AI
- IA à droite
- AI / ML
- Tous
- permettre
- permet
- déjà
- aussi
- Amazon
- Amazon Sage Maker
- Amazon SageMakerStudio
- Service de stockage simple Amazon (S3)
- Amazon Web Services
- Amazon Web Services (AWS)
- quantités
- an
- il analyse
- et les
- Une autre
- tous
- api
- applications
- une approche
- approches
- ,
- d'environ
- SONT
- domaines
- AS
- Associé(e)
- At
- automatiquement
- Automation
- disponibles
- AWS
- RETOUR
- fond
- obstacles
- base
- BE
- car
- devenez
- devient
- était
- humain
- avantages.
- LES MEILLEURS
- les meilleures pratiques
- jusqu'à XNUMX fois
- Big
- Big Data
- Milliards
- milliards
- Block
- planche
- Jeux de société
- tous les deux
- frontières
- construire
- la performance des entreprises
- mais
- by
- rappels
- appelé
- CAN
- aptitude
- capturer
- prudent
- maisons
- cas
- challenge
- globaux
- Chapitre
- Charts
- Échecs
- classe
- clair
- code
- Base de code
- collection
- collections
- combiner
- combiné
- moissonneuses-batteuses
- combinant
- Sociétés
- comparer
- Comparaison
- compétitif
- complexe
- complexité
- composant
- composants électriques
- calcul
- calcul
- ordinateur
- Vision par ordinateur
- conditions
- considérant
- contenu
- création de contenu
- continuellement
- continu
- Core
- Prix
- pourriez
- couvert
- Housses
- engendrent
- créée
- création
- notre créativité
- Lecture
- Customiser
- des clients
- Support à la clientèle
- Clients
- personnalisation
- personnaliser
- En investissant dans une technologie de pointe, les restaurants peuvent non seulement rester compétitifs dans un marché en constante évolution, mais aussi améliorer significativement l'expérience de leurs clients.
- données
- science des données
- ensembles de données
- profond
- l'apprentissage en profondeur
- profond
- Réglage par défaut
- de la
- livrer
- Delta
- démontrer
- Denver
- déployer
- déployé
- déployer
- déploiement
- Conception
- détails
- Développeur
- développement
- Développement
- différent
- difficile
- directement
- Commande
- distribuer
- distribuer
- plongeon
- domaine
- domaines
- download
- désavantages
- motivation
- pendant
- chacun
- plus facilement
- même
- Edge
- efficace
- efficacement
- d'autre
- économies émergentes.
- permet
- encourager
- end-to-end
- Endpoint
- ENGINEERING
- Entreprise
- entité
- Environment
- époque
- Ère
- etc
- évaluer
- évaluation
- exemple
- exemples
- exceptionnellement
- exécution
- existant
- cher
- d'experience
- expérience
- expériences
- nous a permis de concevoir
- exponentielle
- Visage
- Échec
- famille
- plus rapide
- Fonctionnalité
- Fonctionnalités:
- Déposez votre dernière attestation
- Fichiers
- Trouvez
- fin
- Prénom
- fixé
- Flexibilité
- se concentre
- mettant l'accent
- Abonnement
- Pour
- trouvé
- Fondation
- gratuitement ici
- amis
- De
- plein
- fonction
- plus
- avenir
- Gain
- gagné
- Games
- porte
- générateur
- génératif
- IA générative
- Go
- aller
- Bien
- GPU
- accordée
- graphique
- graphiques
- Réservation de groupe
- Groupes
- main
- manipuler
- Vous avez
- ayant
- he
- vous aider
- aider
- aide
- ici
- hiérarchie
- très
- sa
- hôte
- les plus en vogue
- Comment
- How To
- Cependant
- HTML
- HTTPS
- Étreindre
- illustre
- image
- Mettre en oeuvre
- la mise en oeuvre
- importer
- important
- surtout
- importations
- améliorer
- in
- inclus
- inclut
- Y compris
- Améliore
- Augmente
- croissant
- indépendant
- indépendamment
- secteurs
- industrie
- inefficacité
- gonfle
- d'information
- Innovation
- contribution
- instance
- plutôt ;
- Des instructions
- intégrer
- des services
- intérêt
- Internet
- développement
- Introduit
- IT
- SES
- Jacques
- Java
- Emploi
- Emplois
- joindre
- jpg
- XNUMX éléments à
- en gardant
- ACTIVITES
- coup de pied
- spécialisées
- langue
- gros
- le plus grand
- Nouveautés
- leader
- Conduit
- apprentissage
- Allons-y
- Niveau
- Bibliothèque
- Licence
- se trouve
- comme
- aime
- LINK
- lié
- Listé
- LLM
- charge
- chargement
- locales
- emplacement
- enregistrer
- enregistrement
- logique
- Style
- ressembler
- recherchez-
- perte
- click
- machine learning
- Entrée
- FAIT DU
- Fabrication
- gérer
- gérés
- gestion
- les gérer
- de nombreuses
- Stratégie
- Publicité et Marketing
- massif
- Mai..
- Mémoire
- aller
- fusion
- Métadonnées
- méthode
- méthodes
- Métrique
- émigrer
- ML
- MLOps
- Mode
- modèle
- numériques jumeaux (digital twin models)
- Modules
- PLUS
- plusieurs
- prénom
- Nature
- Traitement du langage naturel
- nécessaire
- Besoin
- besoin
- Besoins
- Nouveauté
- nlp
- cahier
- maintenant
- nombre
- of
- de rabais
- Offres Speciales
- souvent
- on
- une fois
- ONE
- uniquement
- opérationnel
- Opérations
- à mettre en œuvre pour gérer une entreprise rentable. Ce guide est basé sur trois décennies d'expérience
- Optimiser
- optimisé
- l'optimisation
- or
- organisation
- organisations
- original
- Autre
- nos
- les résultats
- sortie
- plus de
- Overcome
- accablant
- propre
- paquet
- paramètre
- paramètres
- partie
- passion
- Brevets
- chemin
- pour cent
- performant
- autorisations
- pièces
- Platon
- Intelligence des données Platon
- PlatonDonnées
- jouer
- plus
- politique
- Populaire
- popularité
- partieInvestir dans des appareils économes en énergie et passer à l'éclairage
- possible
- Post
- power
- solide
- Méthode
- pratiques
- conditions préalables
- cadeaux
- conservation
- empêcher
- précédemment
- primaire
- Directeur
- Avant
- processus
- les process
- traitement
- Progrès
- correctement
- propriétés
- fournit
- Push
- Python
- pytorch
- question
- vite.
- gamme
- rapidement
- en temps réel
- raison
- Les raisons
- récemment
- réduire
- Prix Réduit
- réduit
- réduire
- reportez-vous
- reflétant
- vous inscrire
- inscrit
- enregistrement
- en relation
- Les relations
- pertinent
- remarquables
- Rapports
- dépôt
- exigent
- conditions
- Exigences
- Resources
- REST
- résultat
- réutiliser
- bon
- Rôle
- rôle
- Courir
- pour le running
- fonctionne
- d'exécution
- sagemaker
- Épargnez
- sauvé
- économie
- Épargnes
- Escaliers intérieurs
- mise à l'échelle
- Sciences
- scientifiques
- Sdk
- Rechercher
- Deuxièmement
- Section
- les sections
- recherche
- semi-conducteur
- supérieur
- séparé
- séparation
- service
- Services
- service
- plusieurs
- Partager
- partage
- elle
- devrait
- montré
- Spectacles
- similaires
- étapes
- depuis
- unique
- Taille
- lent
- petit
- faibles
- Fragment
- sur mesure
- Solutions
- quelques
- Identifier
- Space
- enjambant
- spécialiste
- spécialisé
- groupe de neurones
- spécifiquement
- passer
- scission
- parties prenantes
- Commencer
- Région
- state-of-the-art
- Statut
- étapes
- Étapes
- Encore
- storage
- Boutique
- stockée
- studio
- tel
- Support
- TAG
- prise
- Tâche
- tâches
- technique
- techniques
- Les technologies
- Technologie
- télécommunication
- conditions
- examiné
- texte
- qui
- Le
- leur
- Les
- puis
- Là.
- Ces
- l'ont
- this
- Avec
- fiable
- à
- ensemble
- outil
- torche
- suivre
- traditionnel
- Train
- Formation
- transférer
- transformateur
- transformateurs
- Voyages
- oui
- Essai
- régler
- écoute
- réglage
- deux
- type
- types
- sous
- compréhension
- Mises à jour
- la mise à jour
- téléchargé
- URL
- utilisé
- cas d'utilisation
- d'utiliser
- Utilisateur
- utilisateurs
- en utilisant
- validation
- Précieux
- Plus-value
- variété
- divers
- Vaste
- version
- versions
- très
- via
- Voir
- vision
- visuel
- marcher
- marcha
- souhaitez
- était
- Façon..
- façons
- we
- web
- services Web
- quand
- qui
- tout en
- why
- large
- Large gamme
- sera
- comprenant
- dans les
- sans
- Femme
- activités principales
- travaillé
- workflows
- vos contrats
- années
- Vous n'avez
- Votre
- vous-même
- zéphyrnet