PyTorch is een machine learning (ML)-framework dat veel wordt gebruikt door AWS-klanten voor een verscheidenheid aan toepassingen, zoals computervisie, natuurlijke taalverwerking, het maken van inhoud en meer. Met de recente release van PyTorch 2.0 kunnen AWS-klanten nu dezelfde dingen doen als met PyTorch 1.x, maar sneller en op schaal met verbeterde trainingssnelheden, lager geheugengebruik en verbeterde gedistribueerde mogelijkheden. Verschillende nieuwe technologieën, waaronder torch.compile, TorchDynamo, AOTAutograd, PrimTorch en TorchInductor, zijn opgenomen in de PyTorch2.0-release. Verwijzen naar PyTorch 2.0: Onze release van de volgende generatie die sneller, Pythonischer en dynamischer is dan ooit voor meer info.
Dit bericht demonstreert de prestaties en het gemak van het uitvoeren van grootschalige, krachtige gedistribueerde ML-modeltraining en -implementatie met PyTorch 2.0 op AWS. Dit bericht gaat verder door een stapsgewijze implementatie van het verfijnen van een RoBERTa-model (Robustly Optimized BERT Pretraining Approach) voor sentimentanalyse met behulp van AWS AMI's voor diepgaand leren (AWS DLAMI) en AWS diepe leercontainers (DLC's) aan Amazon Elastic Compute-cloud (Amazon EC2 p4d.24xlarge) met een waargenomen versnelling van 42% bij gebruik met PyTorch 2.0 torch.compile + bf16 + gefuseerde AdamW. Vervolgens wordt het verfijnde model ingezet AWS Graviton-gebaseerde C7g EC2-instantie op Amazon Sage Maker met een waargenomen versnelling van 10% in vergelijking met PyTorch 1.13.
De volgende afbeelding toont een prestatiebenchmark van het afstemmen van een RoBERTa-model op Amazon EC2 p4d.24xlarge met AWS PyTorch 2.0 DLAMI + DLC.
Verwijzen naar Geoptimaliseerde PyTorch 2.0-inferentie met AWS Graviton-processors voor meer informatie over op AWS Graviton gebaseerde instantie-inferentieprestatiebenchmarks voor PyTorch 2.0.
Ondersteuning voor PyTorch 2.0 op AWS
PyTorch2.0-ondersteuning is niet beperkt tot de services en rekenkracht die worden getoond in het voorbeeld van een use-case in dit bericht; het strekt zich uit tot vele anderen op AWS, die we in deze sectie bespreken.
Zakelijke vereiste
Veel AWS-klanten, in uiteenlopende sectoren, transformeren hun bedrijf door kunstmatige intelligentie (AI) te gebruiken, met name op het gebied van generatieve AI en grote taalmodellen (LLM's) die zijn ontworpen om mensachtige tekst te genereren. Dit zijn in feite grote modellen gebaseerd op deep learning-technieken die zijn getraind met honderden miljarden parameters. Door de groei in modelgroottes neemt de trainingstijd toe van dagen naar weken, en in sommige gevallen zelfs maanden. Dit zorgt voor een exponentiële toename van training- en inferentiekosten, waarvoor meer dan ooit een framework zoals PyTorch 2.0 vereist is met ingebouwde ondersteuning van versnelde modeltraining en de geoptimaliseerde infrastructuur van AWS die is afgestemd op de specifieke workloads en prestatiebehoeften.
Keuze van rekenen
AWS biedt PyTorch 2.0-ondersteuning voor de breedste keuze aan krachtige rekenkracht, snelle netwerken en schaalbare krachtige opslagopties die u kunt gebruiken voor elk ML-project of elke toepassing en die u kunt aanpassen aan uw prestatie- en budgetvereisten. Dit komt tot uiting in het diagram in de volgende sectie; in het onderste niveau bieden we een brede selectie van rekeninstances die worden aangedreven door AWS Graviton-, Nvidia-, AMD- en Intel-processors.
Voor modelimplementaties kunt u ARM-gebaseerde processors gebruiken, zoals de onlangs aangekondigde AWS Graviton-gebaseerde instantie die inferentieprestaties biedt voor PyTorch 2.0 met tot 3.5 keer de snelheid voor Resnet50 in vergelijking met de vorige PyTorch-release, en tot 1.4 keer de snelheid snelheid voor BERT, waardoor AWS Graviton-gebaseerde instances de snelste compute-geoptimaliseerde instances op AWS zijn voor CPU-gebaseerde modelinferentie-oplossingen.
Keuze uit ML-services
Om AWS-computing te gebruiken, kunt u kiezen uit een breed scala aan wereldwijde cloudgebaseerde services voor ML-ontwikkeling, compute en workfloworkestratie. Met deze keuze kunt u afstemmen op uw bedrijfs- en cloudstrategieën en PyTorch 2.0-taken uitvoeren op het platform van uw keuze. Als u bijvoorbeeld lokale beperkingen heeft of bestaande investeringen in open-sourceproducten, kunt u Amazon EC2 gebruiken, AWS ParallelClusterof AWS Ultracluster om gedistribueerde trainingsworkloads uit te voeren op basis van een zelfbeheerde aanpak. U kunt ook een volledig beheerde service zoals SageMaker gebruiken voor een kostengeoptimaliseerde, volledig beheerde trainingsinfrastructuur op productieschaal. SageMaker kan ook worden geïntegreerd met verschillende MLOps-tools, waarmee u uw modelimplementatie kunt schalen, gevolgtrekkingskosten kunt verlagen, modellen effectiever kunt beheren in productie en de operationele belasting kunt verminderen.
Evenzo, als u bestaande Kubernetes-investeringen heeft, kunt u ook gebruiken Amazon Elastic Kubernetes-service (Amazon EKS) en Kubeflow op AWS om een ML-pijplijn te implementeren voor gedistribueerde training of om een AWS-native containerorkestratieservice zoals Amazon Elastic Container-service (Amazon ECS) voor modeltraining en implementaties. Opties om uw ML-platform te bouwen zijn niet beperkt tot deze services; u kunt kiezen en kiezen, afhankelijk van uw organisatorische vereisten voor uw PyTorch 2.0-taken.
PyTorch 2.0 inschakelen met AWS DLAMI en AWS DLC
Om de bovengenoemde stapel AWS-services en krachtige rekenkracht te gebruiken, moet u een geoptimaliseerde gecompileerde versie van het PyTorch2.0-framework en de vereiste afhankelijkheden installeren, waarvan vele onafhankelijke projecten zijn, en deze end-to-end testen. Mogelijk hebt u ook CPU-specifieke bibliotheken nodig voor versnelde wiskundige routines, GPU-specifieke bibliotheken voor versnelde wiskundige en inter-GPU-communicatieroutines, en GPU-stuurprogramma's die moeten worden uitgelijnd met de GPU-compiler die wordt gebruikt om de GPU-bibliotheken te compileren. Als uw taken grootschalige training met meerdere knooppunten vereisen, hebt u een geoptimaliseerd netwerk nodig dat de laagste latentie en de hoogste doorvoer kan bieden. Nadat u uw stack hebt opgebouwd, moet u deze regelmatig scannen en patchen op beveiligingsproblemen, en de stack opnieuw opbouwen en opnieuw testen na elke upgrade van de frameworkversie.
AWS helpt dit zware werk te verminderen door een samengestelde en veilige set van frameworks, afhankelijkheden en tools aan te bieden om deep learning in de cloud te versnellen AWS DLAMI's en AWS DLC's. Deze vooraf gebouwde en geteste machine-images en containers zijn geoptimaliseerd voor diepgaand leren op EC2 Accelerated Computing Instance-typen, waardoor u efficiënter en gemakkelijker kunt uitschalen naar meerdere knooppunten voor gedistribueerde workloads. Het omvat een pre-built Elastische stofadapter (EFA), Nvidia GPU-stack en veel deep learning-frameworks (TensorFlow, MXNet en PyTorch met de nieuwste release van 2.0) voor hoogwaardige gedistribueerde deep learning-training. U hoeft geen tijd te besteden aan het installeren en oplossen van problemen met deep learning-software en stuurprogramma's of het bouwen van ML-infrastructuur, noch hoeft u de terugkerende kosten te maken voor het patchen van deze afbeeldingen voor beveiligingsproblemen of het opnieuw maken van de afbeeldingen na elke nieuwe upgrade van de frameworkversie. In plaats daarvan kunt u zich richten op de grotere waardetoevoegende inspanning van het trainen van taken op schaal in een kortere tijd en het sneller herhalen van uw ML-modellen.
Overzicht oplossingen
Aangezien training op GPU en inferentie op CPU een populaire use case is voor AWS-klanten, hebben we als onderdeel van dit bericht een stapsgewijze implementatie van een hybride architectuur opgenomen (zoals weergegeven in het volgende diagram). We zullen de kunst van het mogelijke verkennen en een P4 EC2-instantie gebruiken met BF16-ondersteuning geïnitialiseerd met Base GPU DLAMI inclusief NVIDIA-stuurprogramma's, CUDA, NCCL, EFA-stack en PyTorch2.0 DLC voor het verfijnen van een RoBERTa-model voor sentimentanalyse dat geeft u controle en flexibiliteit om open-source of propriëtaire bibliotheken te gebruiken. Vervolgens gebruiken we SageMaker voor een volledig beheerde modelhostinginfrastructuur om ons model op AWS Graviton3-gebaseerd te hosten C7g-exemplaren. We kozen voor C7g op SageMaker omdat bewezen is dat het de inferentiekosten tot 50% verlaagt in vergelijking met vergelijkbare EC2-exemplaren voor real-time gevolgtrekking op SalieMaker. Het volgende diagram illustreert deze architectuur.
De modeltraining en hosting in deze use case bestaat uit de volgende stappen:
- Start een op GPU DLAMI gebaseerde EC2 Ubuntu-instantie in uw VPC en maak verbinding met uw instantie via SSH.
- Nadat u zich hebt aangemeld bij uw EC2-instantie, downloadt u de AWS PyTorch 2.0 DLC.
- Voer uw DLC-container uit met een modeltrainingsscript om het RoBERTa-model te verfijnen.
- Nadat de modeltraining is voltooid, verpakt u het opgeslagen model, de inferentiescripts en enkele metagegevensbestanden in een tar-bestand dat SageMaker inferentie kan gebruiken en uploadt u het modelpakket naar een Amazon eenvoudige opslagservice (Amazon S3) emmer.
- Implementeer het model met behulp van SageMaker en maak een HTTPS-inferentie-eindpunt. Het SageMaker-inferentie-eindpunt bevat een load balancer en een of meer instanties van uw inferentiecontainer in verschillende beschikbaarheidszones. U kunt meerdere versies van hetzelfde model of geheel verschillende modellen achter dit ene eindpunt implementeren. In dit voorbeeld hosten we een enkel model.
- Roep uw modeleindpunt aan door het testgegevens te sturen en de gevolgtrekkingsuitvoer te verifiëren.
In de volgende secties laten we zien hoe we een RoBERTa-model kunnen verfijnen voor sentimentanalyse. RoBERTa is ontwikkeld door Facebook AI en verbetert het populaire BERT-model door belangrijke hyperparameters aan te passen en vooraf te trainen op een groter corpus. Dit leidt tot verbeterde prestaties in vergelijking met vanille BERT.
We maken gebruik van de transformers bibliotheek door Hugging Face om het RoBERTa-model voorgetraind te krijgen op ongeveer 124 miljoen tweets, en we verfijnen het op de Twitter-dataset voor sentimentanalyse.
Voorwaarden
Zorg dat je aan de volgende voorwaarden voldoet:
- Je hebt een AWS-account.
- Zorg ervoor dat u zich in het
us-west-2
Regio om dit voorbeeld uit te voeren. (Dit voorbeeld is getest inus-west-2
; je kunt echter in elke andere regio hardlopen.) - Maak een rol met de naam
sagemakerrole
. Beheerd beleid toevoegenAmazonSageMakerFullAccess
enAmazonS3FullAccess
om SageMaker toegang te geven tot S3-buckets. - Maak een EC2-rol aan met de naam
ec2_role
. Gebruik het volgende toestemmingsbeleid:
1. Start uw ontwikkelingsinstantie
We maken een p4d.24xlarge-instantie die 8 NVIDIA A100 Tensor Core GPU's biedt in us-west-2
:
Volg bij het selecteren van de AMI de release notes om deze opdracht uit te voeren met behulp van de AWS-opdrachtregelinterface (AWS CLI) om de AMI-ID te vinden die moet worden gebruikt us-west-2
:
Zorg ervoor dat de grootte van het gp3-rootvolume 200 GiB is.
EBS-volumeversleuteling is standaard niet ingeschakeld. Overweeg dit te wijzigen wanneer u deze oplossing naar productie verplaatst.
2. Download een Deep Learning-container
AWS DLC's zijn beschikbaar als Docker-images in Amazon Elastic Container Registry Openbaar, een beheerde AWS-registratieservice voor containerimages die veilig, schaalbaar en betrouwbaar is. Elke Docker-image is gebouwd voor training of gevolgtrekking op een specifieke deep learning-frameworkversie, Python-versie, met CPU- of GPU-ondersteuning. Selecteer het PyTorch 2.0-framework in de lijst met beschikbare Deep Learning Containers-afbeeldingen.
Voer de volgende stappen uit om uw DLC te downloaden:
A. SSH naar de instantie. Standaard opent de beveiligingsgroep die wordt gebruikt met EC2 de SSH-poort voor iedereen. Houd hier rekening mee als u deze oplossing naar productie verplaatst:
Standaard stelt de beveiligingsgroep die wordt gebruikt met Amazon EC2 de SSH-poort open voor iedereen. Overweeg dit te wijzigen als u deze oplossing naar productie verplaatst.
B. Stel de omgevingsvariabelen in die nodig zijn om de resterende stappen van deze implementatie uit te voeren:
Amazon ECR ondersteunt openbare beeldopslagplaatsen met op bronnen gebaseerde machtigingen met behulp van AWS Identiteits- en toegangsbeheer (IAM) zodat specifieke gebruikers of services toegang hebben tot afbeeldingen.
C. Meld u aan bij het DLC-register:
D. Haal de nieuwste PyTorch 2.0-container met GPU-ondersteuning binnen us-west-2
Als je de foutmelding "geen ruimte meer op het apparaat" krijgt, zorg er dan voor dat je toename het EC2 EBS-volume naar 200 GiB en dan verlengen het Linux-bestandssysteem.
3. Kloon de nieuwste scripts aangepast aan PyTorch 2.0
Kloon de scripts met de volgende code:
Omdat we de Hugging Face-transformators-API gebruiken met de nieuwste versie 4.28.1, is PyTorch 2.0-ondersteuning al ingeschakeld. We hebben het volgende argument toegevoegd aan de trainer-API in train_sentiment.py
om nieuwe PyTorch 2.0-functies in te schakelen:
- Fakkel compileren - Ervaar een gemiddelde versnelling van 43% op Nvidia A100 GPU's met een enkele wijzigingsregel.
- BF16-gegevenstype - Ondersteuning voor nieuw gegevenstype (Brain Floating Point) voor Ampere of nieuwere GPU's.
- Gefuseerde AdamW-optimizer – Gefuseerde AdamW-implementatie om training verder te versnellen. Deze stochastische optimalisatiemethode wijzigt de typische implementatie van gewichtsverval in Adam door gewichtsverval los te koppelen van de gradiëntupdate.
4. Bouw een nieuwe Docker-image met afhankelijkheden
We breiden de vooraf gebouwde PyTorch 2.0 DLC-image uit om de Hugging Face-transformator en andere bibliotheken te installeren die we nodig hebben om ons model te verfijnen. Hierdoor kunt u de meegeleverde, geteste en geoptimaliseerde deep learning-bibliotheken en -instellingen gebruiken zonder een geheel nieuwe afbeelding te hoeven maken. Zie de volgende code:
5. Begin met trainen met behulp van de container
Voer de volgende Docker-opdracht uit om te beginnen met het verfijnen van het model op de tweet_eval
sentiment dataset. We gebruiken de Docker-containerargumenten (gedeelde geheugengrootte, maximaal vergrendeld geheugen en stapelgrootte) aanbevolen door Nvidia voor deep learning-workloads.
U kunt de volgende uitvoer verwachten. Het script downloadt eerst de TweetEval-dataset, die bestaat uit zeven heterogene taken in Twitter, allemaal omkaderd als tweetclassificatie met meerdere klassen. De taken omvatten ironie, haat, aanstootgevend, houding, emoji, emotie en sentiment.
Het script downloadt vervolgens het basismodel en start het afstemmingsproces. Aan het einde van elk tijdvak worden trainings- en evaluatiestatistieken gerapporteerd.
Prestatiestatistieken
Met PyTorch 2.0 en de nieuwste Hugging Face-transformatorbibliotheek 4.28.1 zagen we een versnelling van 42% op een enkele p4d.24xlarge-instantie met 8 A100 40GB GPU's. Prestatieverbeteringen komen van een combinatie van torch.compile, het BF16-gegevenstype en de gefuseerde AdamW-optimizer. De volgende code is het eindresultaat van twee trainingsruns met en zonder nieuwe functies:
6. Test het getrainde model lokaal voordat u zich voorbereidt op SageMaker-inferentie
U vindt de volgende bestanden onder $ml_working_dir/saved_model/
na het trainen:
Laten we ervoor zorgen dat we inferentie lokaal kunnen uitvoeren voordat we ons voorbereiden op SageMaker-inferentie. We kunnen het opgeslagen model laden en deductie lokaal uitvoeren met behulp van de test_trained_model.py
script:
Je zou de volgende uitvoer moeten verwachten met de invoer "Covid-gevallen nemen snel toe!":
7. Bereid het model tarball voor op SageMaker-inferentie
Maak onder de directory waar het model zich bevindt een nieuwe directory met de naam code
:
Maak het bestand aan in de nieuwe map inference.py
en voeg er het volgende aan toe:
Uiteindelijk zou u de volgende mappenstructuur moeten hebben:
Het model is klaar om te worden verpakt en geüpload naar Amazon S3 voor gebruik met SageMaker-inferentie:
8. Implementeer het model op een SageMaker AWS Graviton-instantie
Nieuwe generaties CPU's bieden een aanzienlijke prestatieverbetering in ML-inferentie dankzij gespecialiseerde ingebouwde instructies. In deze use case gebruiken we de volledig beheerde hostinginfrastructuur van SageMaker met op AWS Graviton3 gebaseerde C7g-instances. AWS heeft ook tot 50% kostenbesparing gemeten voor PyTorch-inferentie met AWS Graviton3-gebaseerde EC2 C7g-instanties over Torch Hub ResNet50 en meerdere Hugging Face-modellen in vergelijking met vergelijkbare EC2-instanties.
Om de modellen te implementeren in AWS Graviton-instanties, gebruiken we AWS DLC's die ondersteuning bieden voor PyTorch 2.0 en TorchServe 0.8.0, of u kunt neem je eigen bakjes mee die compatibel zijn met de ARMv8.2-architectuur.
We gebruiken het model dat we eerder hebben getraind: s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. Als u SageMaker nog niet eerder hebt gebruikt, controleer dan Ga aan de slag met Amazon SageMaker.
Zorg er om te beginnen voor dat het SageMaker-pakket up-to-date is:
Omdat dit een voorbeeld is, maakt u een bestand met de naam start_endpoint.py
en voeg de volgende code toe. Dit wordt het Python-script om een SageMaker-inferentie-eindpunt te starten met de modus:
We gebruiken ml.c7g.4xlarge voor de instantie en halen PT 2.0 op met een afbeeldingsbereik inference_graviton
. Dit is onze AWS Graviton3-instantie.
Vervolgens maken we het bestand dat de voorspelling uitvoert. We doen deze als afzonderlijke scripts, zodat we de voorspellingen zo vaak kunnen uitvoeren als we willen. Creëren predict.py
met de volgende code:
Met de gegenereerde scripts kunnen we nu een eindpunt starten, voorspellingen doen tegen het eindpunt en opruimen als we klaar zijn:
9. Opruimen
Ten slotte willen we dit voorbeeld opruimen. Maak cleanup.py aan en voeg de volgende code toe:
Conclusie
AWS DLAMI's en DLC's zijn de standaard geworden voor het uitvoeren van deep learning-workloads op een brede selectie van compute- en ML-services op AWS. Naast het gebruik van framework-specifieke DLC's op AWS ML-services, kunt u ook een enkel framework gebruiken op Amazon EC2, waardoor het zware werk dat ontwikkelaars nodig hebben om deep learning-applicaties te bouwen en te onderhouden, wordt weggenomen. Verwijzen naar Releaseopmerkingen voor DLAMI en Beschikbare Deep Learning Containers-afbeeldingen om aan de slag te gaan.
Dit bericht toonde een van de vele mogelijkheden om uw volgende model op AWS te trainen en te bedienen en besprak verschillende indelingen die u kunt gebruiken om uw zakelijke doelstellingen te bereiken. Probeer dit voorbeeld eens of gebruik onze andere AWS ML-services om de dataproductiviteit voor uw bedrijf uit te breiden. We hebben een eenvoudig sentimentanalyseprobleem toegevoegd, zodat klanten die nieuw zijn bij ML kunnen begrijpen hoe eenvoudig het is om aan de slag te gaan met PyTorch 2.0 op AWS. We zullen meer geavanceerde use-cases, modellen en AWS-technologieën behandelen in komende blogposts.
Over de auteurs
Kanwaljit Khurmi is een Principal Solutions Architect bij Amazon Web Services. Hij werkt samen met de AWS-klanten om begeleiding en technische assistentie te bieden om hen te helpen de waarde van hun oplossingen te verbeteren bij het gebruik van AWS. Kanwaljit is gespecialiseerd in het helpen van klanten met container- en machine learning-applicaties.
Mike Schneider is een systeemontwikkelaar, gevestigd in Phoenix AZ. Hij is lid van Deep Learning-containers en ondersteunt verschillende Framework-containerimages, waaronder Graviton Inference. Hij is toegewijd aan infrastructuurefficiëntie en stabiliteit.
Lai Wei is Senior Software Engineer bij Amazon Web Services. Hij richt zich op het bouwen van gebruiksvriendelijke, krachtige en schaalbare deep learning-frameworks voor het versnellen van gedistribueerde modeltraining. Buiten zijn werk brengt hij graag tijd door met zijn gezin, wandelen en skiën.
- Door SEO aangedreven content en PR-distributie. Word vandaag nog versterkt.
- PlatoAiStream. Web3 gegevensintelligentie. Kennis versterkt. Toegang hier.
- De toekomst slaan met Adryenn Ashley. Toegang hier.
- Koop en verkoop aandelen in PRE-IPO-bedrijven met PREIPO®. Toegang hier.
- Bron: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- : heeft
- :is
- :niet
- :waar
- $UP
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- versnellen
- versneld
- versnellen
- ACCEPTEREN
- toegang
- over
- Actie
- Adam
- toevoegen
- toegevoegd
- adopteren
- vergevorderd
- Na
- tegen
- AI
- richten
- uitgelijnd
- Alles
- toelaten
- Het toestaan
- toestaat
- langs
- al
- ook
- Amazone
- Amazon EC2
- Amazon Web Services
- AMD
- bedragen
- an
- analyse
- analyseren
- en
- aangekondigd
- Nog een
- elke
- api
- Aanvraag
- toepassingen
- nadering
- ongeveer
- architectuur
- ZIJN
- GEBIED
- argument
- argumenten
- kunstmatig
- kunstmatige intelligentie
- Kunstmatige intelligentie (AI)
- AS
- Hulp
- At
- beschikbaarheid
- Beschikbaar
- gemiddelde
- AWS
- balancer
- baseren
- gebaseerde
- Eigenlijk
- BE
- omdat
- worden
- geweest
- vaardigheden
- beginnen
- achter
- criterium
- benchmarks
- Groot
- miljarden
- BIN
- Blog
- Blog Posts
- lichaam
- Onder
- Hersenen
- breed
- begroting
- bouw
- Gebouw
- bebouwd
- ingebouwd
- last
- bedrijfsdeskundigen
- ondernemingen
- maar
- by
- Bellen
- Dit betekent dat we onszelf en onze geliefden praktisch vergiftigen.
- bellen
- CAN
- mogelijkheden
- geval
- gevallen
- CD
- verandering
- veranderende
- keuze
- Kies
- classificatie
- klant
- Cloud
- code
- COM
- combinatie van
- komt
- Communicatie
- vergelijkbaar
- vergeleken
- verenigbaar
- compleet
- Berekenen
- computer
- Computer visie
- computergebruik
- Verbinden
- Overwegen
- bestaat uit
- troosten
- Containers
- containers
- content
- content creatie
- onder controle te houden
- Kern
- Kosten
- kostenbesparingen
- Kosten
- kon
- aan het bedekken
- en je merk te creëren
- aangemaakt
- het aanmaken
- Geloofsbrieven
- curated
- Actueel
- Klanten
- aan te passen
- gegevens
- Datum
- dagen
- toegewijd aan
- deep
- diepgaand leren
- Standaard
- demonstreert
- Afhankelijk
- implementeren
- ingezet
- inzet
- implementaties
- ontworpen
- gegevens
- ontwikkelde
- Ontwikkelaar
- ontwikkelaars
- Ontwikkeling
- anders
- Verteren
- bespreken
- besproken
- verdeeld
- gedistribueerde training
- diversen
- do
- havenarbeider
- gedaan
- Dont
- Download
- downloads
- bestuurder
- chauffeurs
- aandrijving
- twee
- dynamisch
- elk
- Vroeger
- gemak
- gemakkelijk
- En het is heel gemakkelijk
- effect
- effectief
- doeltreffendheid
- efficiënt
- inspanning
- beide
- in staat stellen
- ingeschakeld
- encryptie
- einde
- Endpoint
- ingenieur
- verbeterde
- geheel
- Milieu
- tijdperk
- fout
- schatten
- evaluatie
- Zelfs
- OOIT
- Alle
- voorbeeld
- bestaand
- Uitvouwen
- verwachten
- ervaring
- Verken
- exponentiële
- exporteren
- verlengen
- strekt
- stof
- Gezicht
- familie
- sneller
- snelste
- Voordelen
- weinig
- Figuur
- Dien in
- Bestanden
- finale
- VIND DE PLEK DIE PERFECT VOOR JOU IS
- Voornaam*
- geschikt
- Flexibiliteit
- drijvend
- Focus
- gericht
- volgen
- volgend
- Voor
- Achtergrond
- frameworks
- oppompen van
- geheel
- verder
- voortbrengen
- gegenereerde
- generatie
- generaties
- generatief
- generatieve AI
- krijgen
- Git
- GitHub
- Geven
- geeft
- Globaal
- GPU
- GPU's
- Groep
- leiding
- Hebben
- met
- he
- zwaar
- zwaar tillen
- het helpen van
- helpt
- hoge performantie
- hoger
- hoogst
- zijn
- houdt
- gastheer
- Hosting
- Hoe
- Echter
- HTML
- http
- HTTPS
- Naaf
- Honderden
- Hybride
- ID
- Identiteit
- if
- illustreert
- beeld
- afbeeldingen
- uitvoeren
- uitvoering
- importeren
- verbeteren
- verbeterd
- verbetering
- verbeteringen
- het verbeteren van
- in
- omvatten
- inclusief
- omvat
- Inclusief
- Laat uw omzet
- meer
- onafhankelijk
- industrieën
- Infrastructuur
- invoer
- installeren
- geïnstalleerd
- installeren
- instantie
- verkrijgen in plaats daarvan
- instructies
- integreert
- Intel
- Intelligentie
- in
- Investeringen
- IP
- ironie
- IT
- HAAR
- Vacatures
- jpg
- json
- sleutel
- label
- taal
- Groot
- grootschalig
- groter
- Wachttijd
- laatste
- nieuwste release
- lancering
- Leads
- leren
- links
- bibliotheken
- Bibliotheek
- facelift
- als
- Beperkt
- Lijn
- linux
- Lijst
- laden
- plaatselijk
- gelegen
- opgesloten
- inloggen
- Log in
- uit
- te verlagen
- laagste
- machine
- machine learning
- onderhouden
- maken
- maken
- beheer
- beheerd
- veel
- wiskunde
- max
- Mei..
- Maak kennis met
- lid
- Geheugen
- samenvoegingen
- Metadata
- methode
- Metriek
- miljoen
- ML
- MLops
- Mode
- model
- modellen
- Modules
- maanden
- meer
- bewegend
- meervoudig
- naam
- Naturel
- Natural Language Processing
- noodzakelijk
- Noodzaak
- nodig
- behoeften
- negatief
- netwerk
- netwerken
- Neutraal
- New
- Nieuwe mogelijkheden
- Nieuwe technologieën
- volgende
- knooppunten
- Opmerkingen
- Merk op..
- nu
- Nvidia
- doelstellingen
- of
- aanvallend
- bieden
- het aanbieden van
- Aanbod
- on
- EEN
- open source
- opent
- operationele
- optimalisatie
- geoptimaliseerde
- Opties
- or
- orkestratie
- organisatorische
- OS
- Overige
- Overig
- onze
- uit
- uitgang
- buiten
- het te bezitten.
- pakket
- verpakt
- parameters
- deel
- Patch
- patchen
- prestatie
- toestemming
- permissies
- Feniks
- kiezen
- uitgekozen
- pijpleiding
- platform
- Plato
- Plato gegevensintelligentie
- PlatoData
- dan
- punt
- beleidsmaatregelen door te lezen.
- beleidsmaatregelen
- Populair
- mogelijkheden
- Post
- Berichten
- aangedreven
- krachtige
- voorspellen
- voorspelling
- Voorspellingen
- Voorbereiden
- voorbereiding
- vereisten
- vorig
- Principal
- probleem
- verwerking
- processors
- productie
- produktiviteit
- Producten
- project
- projecten
- gepatenteerd
- bewezen
- zorgen voor
- biedt
- publiek
- zetten
- Python
- pytorch
- klaar
- recent
- onlangs
- terugkerend
- verminderen
- regio
- register
- regelmatig
- relatief
- los
- betrouwbaar
- resterende
- gemeld
- vereisen
- nodig
- Voorwaarden
- vereist
- hulpbron
- antwoord
- beperkingen
- resultaat
- terugkeer
- beoordelen
- Rol
- wortel
- lopen
- lopend
- sagemaker
- SageMaker Inferentie
- dezelfde
- Bespaar geld
- schaalbare
- Scale
- aftasten
- scikit-leren
- omvang
- partituur
- krassen
- scripts
- sectie
- secties
- beveiligen
- veiligheid
- zien
- selecteren
- selectie
- verzending
- senior
- sentiment
- apart
- dienen
- service
- Diensten
- Sessie
- reeks
- settings
- setup
- zeven
- verscheidene
- SHA256
- gedeeld
- moet
- showcase
- vertoonde
- getoond
- Shows
- aanzienlijke
- Eenvoudig
- single
- Maat
- maten
- So
- Software
- Software Engineer
- oplossing
- Oplossingen
- sommige
- Tussenruimte
- gespecialiseerde
- specialiseert
- specifiek
- specifiek
- snelheid
- snelheden
- besteden
- Uitgaven
- Stabiliteit
- stack
- standaard
- begin
- gestart
- starts
- Statement
- statistiek
- Stap voor
- Stappen
- mediaopslag
- opslag opties
- strategieën
- structuur
- dergelijk
- ondersteuning
- ondersteunde
- Ondersteuning
- steunen
- system
- Systems
- op maat gemaakt
- taken
- Technisch
- technieken
- Technologies
- tensorflow
- proef
- getest
- neem contact
- dat
- De
- De omgeving
- hun
- Ze
- harte
- Deze
- ze
- spullen
- dit
- toch?
- Door
- doorvoer
- rij
- niet de tijd of
- keer
- naar
- tools
- fakkel
- Trainen
- getraind
- Trainingen
- transformator
- transformers
- transformeren
- proberen
- tweet
- tweets
- X
- twee
- type dan:
- types
- typisch
- Ubuntu
- voor
- begrijpen
- komende
- bijwerken
- bijgewerkt
- upgrade
- geüpload
- Gebruik
- .
- use case
- gebruikt
- gebruikers
- gebruik
- utility
- waarde
- variëteit
- divers
- controleren
- versie
- visie
- volume
- kwetsbaarheden
- willen
- we
- web
- webservices
- weken
- gewicht
- welkom
- wanneer
- welke
- wijd
- wil
- Met
- zonder
- Mijn werk
- workflow
- Bedrijven
- schrijven
- het schrijven van
- X
- You
- Your
- zephyrnet
- zones