Generatieve AI-modellen hebben de afgelopen maanden een snelle groei doorgemaakt vanwege de indrukwekkende mogelijkheden voor het creëren van realistische tekst, afbeeldingen, code en audio. Van deze modellen vallen de Stable Diffusion-modellen op vanwege hun unieke kracht bij het creëren van afbeeldingen van hoge kwaliteit op basis van tekstaanwijzingen. Stabiele diffusie kan een grote verscheidenheid aan afbeeldingen van hoge kwaliteit genereren, waaronder realistische portretten, landschappen en zelfs abstracte kunst. En net als andere generatieve AI-modellen vereisen Stable Diffusion-modellen krachtige rekenkracht om gevolgtrekkingen met lage latentie te kunnen maken.
In dit bericht laten we zien hoe u Stable Diffusion-modellen kunt gebruiken en hoge prestaties kunt bereiken tegen de laagste kosten Amazon Elastic Compute-cloud (Amazon EC2) gebruikt Amazon EC2 Inf2-instanties Mogelijk gemaakt door AWS Inferentie2. We bekijken de architectuur van een stabiel diffusiemodel en doorlopen de stappen voor het samenstellen van een stabiel diffusiemodel met behulp van AWS-neuron en het implementeren ervan op een Inf2-instantie. Ook bespreken we de optimalisaties die de Neuron SDK automatisch doorvoert om de prestaties te verbeteren. U kunt zowel Stable Diffusion 2.1 als 1.5 versies op AWS Inferentia2 kosteneffectief uitvoeren. Ten slotte laten we zien hoe u een Stable Diffusion-model kunt implementeren op een Inf2-instantie met Amazon Sage Maker.
De Stable Diffusion 2.1-modelgrootte in floating point 32 (FP32) is 5 GB en 2.5 GB in bfoat16 (BF16). Eén enkele inf2.xlarge-instantie heeft één AWS Inferentia2-accelerator met 32 GB HBM-geheugen. Het Stable Diffusion 2.1-model past op een enkele inf2.xlarge-instantie. Stable Diffusion is een tekst-naar-afbeelding-model dat u kunt gebruiken om afbeeldingen met verschillende stijlen en inhoud te maken door simpelweg een tekstprompt als invoer op te geven. Voor meer informatie over de architectuur van het Stable Diffusion-model raadpleegt u Creëer afbeeldingen van hoge kwaliteit met Stable Diffusion-modellen en implementeer ze kostenefficiënt met Amazon SageMaker.
Hoe de Neuron SDK de prestaties van stabiele diffusie optimaliseert
Voordat we het Stable Diffusion 2.1-model op AWS Inferentia2-instanties kunnen implementeren, moeten we de modelcomponenten compileren met behulp van de Neuron-SDK. De Neuron SDK, die een deep learning-compiler, runtime en tools bevat, compileert en optimaliseert automatisch deep learning-modellen, zodat ze efficiënt kunnen draaien op Inf2-instanties en de volledige prestaties van de AWS Inferentia2-accelerator kunnen extraheren. We hebben voorbeelden beschikbaar voor het Stable Diffusion 2.1-model op de GitHub repo. Dit notebook biedt een end-to-end voorbeeld van hoe u een Stable Diffusion-model compileert, de gecompileerde Neuron-modellen opslaat en deze in de runtime laadt voor gevolgtrekking.
Wij gebruiken StableDiffusionPipeline
van het knuffelgezicht diffusers
bibliotheek om het model te laden en te compileren. Vervolgens compileren we alle componenten van het model voor Neuron torch_neuronx.trace()
en sla het geoptimaliseerde model op als TorchScript. Compilatieprocessen kunnen behoorlijk geheugenintensief zijn en vereisen een aanzienlijke hoeveelheid RAM. Om dit te omzeilen, maken we, voordat we elk model traceren, een deepcopy
van het deel van de pijpleiding dat wordt getraceerd. Hierna verwijderen we het pijplijnobject uit het geheugen met behulp van del pipe
. Deze techniek is vooral handig bij het compileren op instances met weinig RAM.
Daarnaast voeren we ook optimalisaties uit op de Stable Diffusion-modellen. UNet bevat het meest rekenintensieve aspect van de gevolgtrekking. De UNet-component werkt op invoertensors met een batchgrootte van twee, en genereert een overeenkomstige uitvoertensor, ook met een batchgrootte van twee, om een enkel beeld te produceren. De elementen binnen deze batches zijn geheel onafhankelijk van elkaar. We kunnen van dit gedrag profiteren om een optimale latentie te verkrijgen door één batch op elke Neuron-kern uit te voeren. We compileren het UNet voor één batch (door invoertensoren te gebruiken met één batch) en gebruiken vervolgens de torch_neuronx.DataParallel
API om dit enkele batchmodel op elke kern te laden. De uitvoer van deze API is een naadloze module met twee batches: we kunnen de invoer van twee batches doorgeven aan de UNet, en er wordt een uitvoer met twee batches geretourneerd, maar intern draaien de twee single-batch-modellen op de twee Neuron-kernen . Deze strategie optimaliseert het gebruik van bronnen en vermindert de latentie.
Compileer en implementeer een stabiel diffusiemodel op een Inf2 EC2-instantie
Om het Stable Diffusion-model te compileren en te implementeren op een Inf2 EC2-instantie, meldt u zich aan bij de AWS-beheerconsole en maak een inf2.8xlarge-instantie. Houd er rekening mee dat een inf2.8xlarge-instantie alleen vereist is voor de compilatie van het model, omdat voor de compilatie een hoger hostgeheugen nodig is. Het Stable Diffusion-model kan worden gehost op een inf2.xlarge-instantie. U kunt de nieuwste AMI met Neuron-bibliotheken vinden met behulp van het volgende AWS-opdrachtregelinterface (AWS CLI) -opdracht:
Voor dit voorbeeld hebben we een EC2-instantie gemaakt met behulp van de Deep Learning AMI Neuron PyTorch 1.13 (Ubuntu 20.04). U kunt vervolgens een JupyterLab-labomgeving maken door verbinding te maken met het exemplaar en de volgende stappen uit te voeren:
Er bevindt zich een notitieboekje met alle stappen voor het compileren en hosten van het model GitHub.
Laten we eens kijken naar de compilatiestappen voor een van de tekstcoderingsblokken. Andere blokken die deel uitmaken van de Stable Diffusion-pijplijn kunnen op dezelfde manier worden samengesteld.
De eerste stap is het laden van het vooraf getrainde model vanuit Hugging Face. De StableDiffusionPipeline.from_pretrained
methode laadt het vooraf getrainde model in ons pijplijnobject, pipe
. Wij maken dan een deepcopy
van de tekstencoder uit onze pijplijn, waardoor deze effectief wordt gekloond. De del pipe
De opdracht wordt vervolgens gebruikt om het oorspronkelijke pijplijnobject te verwijderen, waardoor het geheugen vrijkomt dat erdoor werd verbruikt. Hier kwantificeren we het model naar BF16-gewichten:
Deze stap omvat het omwikkelen van onze tekstencoder met de NeuronTextEncoder
wikkel. De uitvoer van een gecompileerde tekstcoderingsmodule zal zijn van dict
. Wij converteren het naar een list
typ met behulp van deze wrapper:
We initialiseren de PyTorch-tensor emb
met enkele waarden. De emb
tensor wordt gebruikt als voorbeeldinvoer voor de torch_neuronx.trace
functie. Deze functie traceert onze tekstencoder en compileert deze in een formaat dat is geoptimaliseerd voor Neuron. Het directorypad voor het gecompileerde model wordt samengesteld door join COMPILER_WORKDIR_ROOT
met de submap text_encoder
:
De gecompileerde tekstencoder wordt opgeslagen met behulp van torch.jit.save
. Het wordt opgeslagen onder de bestandsnaam model.pt in het text_encoder
directory van de werkruimte van onze compiler:
De notitieboekje omvat soortgelijke stappen om andere componenten van het model te compileren: UNet, VAE-decoder en VAE post_quant_conv
. Nadat u alle modellen heeft gecompileerd, kunt u het model als volgt laden en uitvoeren:
- Definieer de paden voor de gecompileerde modellen.
- Laad een vooraf getrainde
StableDiffusionPipeline
model, waarbij de configuratie is gespecificeerd om het gegevenstype bfloat16 te gebruiken. - Laad het UNet-model op twee Neuron-kernen met behulp van de
torch_neuronx.DataParallel
API. Hierdoor kan parallelle inferentie van gegevens worden uitgevoerd, wat de modelprestaties aanzienlijk kan versnellen. - Laad de resterende delen van het model (
text_encoder
,decoder
enpost_quant_conv
) op een enkele neuronkern.
Vervolgens kunt u de pijplijn uitvoeren door invoertekst als aanwijzingen op te geven. Hieronder volgen enkele afbeeldingen die door het model voor de aanwijzingen zijn gegenereerd:
- Portret van renaud sechan, pen en inkt, ingewikkelde lijntekeningen, door craig mullins, ruan jia, kentaro miura, greg rutkowski, loundraw
- Portret van oude mijnwerker in 19e eeuw, prachtig schilderij, met zeer gedetailleerde schmink door greg rutkowski
- Een kasteel midden in een bos
Host Stable Diffusion 2.1 op AWS Inferentia2 en SageMaker
Voor het hosten van stabiele diffusiemodellen met SageMaker is ook compilatie met de Neuron SDK vereist. U kunt de compilatie van tevoren of tijdens runtime voltooien met behulp van LMI-containers (Large Model Inference). Compilatie vooraf zorgt voor snellere laadtijden van modellen en heeft de voorkeur.
SageMaker LMI-containers bieden twee manieren om het model te implementeren:
- Een optie zonder code waarbij we alleen een
serving.properties
bestand met de vereiste configuraties - Breng uw eigen inferentiescript mee
We bekijken beide oplossingen en bespreken de configuraties en het inferentiescript (model.py
). In dit bericht demonstreren we de implementatie met behulp van een vooraf gecompileerd model dat is opgeslagen in een Amazon eenvoudige opslagservice (Amazon S3) bak. U kunt dit vooraf samengestelde model gebruiken voor uw implementaties.
Configureer het model met een meegeleverd script
In deze sectie laten we zien hoe u de LMI-container kunt configureren om de stabiele diffusiemodellen te hosten. De SD2.1-notebook beschikbaar op GitHub. De eerste stap is het maken van het modelconfiguratiepakket volgens de volgende mapstructuur. Ons doel is om de minimale modelconfiguraties te gebruiken die nodig zijn om het model te hosten. De benodigde mapstructuur is als volgt:
Vervolgens maken we het serveren.eigenschappen bestand met de volgende parameters:
De parameters specificeren het volgende:
- optie.model_id – De LMI-containers gebruiken s5cmd om het model vanaf de S3-locatie te laden en daarom moeten we de locatie opgeven waar onze gecompileerde gewichten zich bevinden.
- optie.entryPoint – Om de ingebouwde handlers te gebruiken, specificeren we de klasse Transformers-neuronx. Als u een aangepast inferentiescript heeft, moet u dat in plaats daarvan opgeven.
- optie.dtype – Hiermee wordt aangegeven dat de gewichten in een specifiek formaat moeten worden geladen. Voor dit bericht gebruiken we BF16, wat onze geheugenvereisten verder verlaagt ten opzichte van FP32 en daardoor onze latentie verlaagt.
- optie.tensor_parallel_degree – Deze parameter specificeert het aantal versnellers dat we voor dit model gebruiken. De AWS Inferentia2-chipversneller heeft twee Neuron-kernen en als we een waarde van 2 opgeven, betekent dit dat we één versneller gebruiken (twee kernen). Dit betekent dat we nu meerdere werknemers kunnen creëren om de doorvoer van het eindpunt te vergroten.
- optie.motor – Dit is ingesteld op Python om aan te geven dat we voor deze hosting geen andere compilers zoals DeepSpeed of Faster Transformer zullen gebruiken.
Neem je eigen schrift mee
Als u uw eigen aangepaste inferentiescript wilt gebruiken, moet u de option.entryPoint
oppompen van serving.properties
. De LMI-container zoekt in dat geval naar een model.py
bestand op dezelfde locatie als het serving.properties
en gebruik dat om de gevolgtrekking uit te voeren.
Maak uw eigen inferentiescript (model.py)
Het maken van uw eigen inferentiescript is relatief eenvoudig met behulp van de LMI-container. De container vereist uw model.py
bestand om een implementatie van de volgende methode te hebben:
Laten we enkele van de kritieke gebieden van de bijgevoegd notitieboekje, die de functie 'Bring your own script' demonstreert.
Vervang de cross_attention
module met de geoptimaliseerde versie:
Dit zijn de namen van het gecompileerde gewichtsbestand dat we hebben gebruikt bij het maken van de compilaties. U kunt de bestandsnamen gerust wijzigen, maar zorg ervoor dat de bestandsnamen voor uw gewichten overeenkomen met wat u hier opgeeft.
Vervolgens moeten we ze laden met behulp van de Neuron SDK en deze instellen in de daadwerkelijke modelgewichten. Houd er bij het laden van de UNet-geoptimaliseerde gewichten rekening mee dat we ook het aantal Neuron-kernen specificeren waarop we deze moeten laden. Hier laden we naar een enkele versneller met twee kernen:
Als u de gevolgtrekking uitvoert met een prompt, wordt het pipe-object aangeroepen om een afbeelding te genereren.
Maak het SageMaker-eindpunt
We gebruiken Boto3 API's om een SageMaker-eindpunt te creëren. Voer de volgende stappen uit:
- Maak de tarball met alleen de portie en de optionele
model.py
bestanden en upload deze naar Amazon S3. - Maak het model met behulp van de afbeeldingscontainer en de model-tarball die eerder is geüpload.
- Maak de eindpuntconfiguratie met behulp van de volgende sleutelparameters:
- Gebruik een
ml.inf2.xlarge
aanleg. - Zet de
ContainerStartupHealthCheckTimeoutInSeconds
naar 240 om ervoor te zorgen dat de statuscontrole begint nadat het model is geïmplementeerd. - Zet de
VolumeInGB
naar een grotere waarde, zodat deze kan worden gebruikt voor het laden van modelgewichten van 32 GB.
- Gebruik een
Een SageMaker-model maken
Nadat u het model.tar.gz-bestand hebt gemaakt en naar Amazon S3 hebt geüpload, moeten we een SageMaker-model maken. We gebruiken de LMI-container en het modelartefact uit de vorige stap om het SageMaker-model te maken. Met SageMaker kunnen we verschillende omgevingsvariabelen aanpassen en injecteren. Voor deze workflow kunnen we alles op de standaard laten staan. Zie de volgende code:
Maak het modelobject, dat in wezen een lockdown-container creëert die op de instantie wordt geladen en wordt gebruikt voor gevolgtrekking:
Een SageMaker-eindpunt maken
In deze demo gebruiken we een ml.inf2.xlarge-instantie. We moeten de VolumeSizeInGB
parameters om de nodige schijfruimte te bieden om het model en de gewichten te laden. Deze parameter is van toepassing op instanties die de Amazon elastische blokwinkel (Amazon EBS) volumeopzetstuk. We kunnen de time-out voor het downloaden van het model en de gezondheidscontrole voor het opstarten van de container op een hogere waarde laten staan, waardoor de container voldoende tijd heeft om de gewichten uit Amazon S3 te halen en in de AWS Inferentia2-accelerators te laden. Voor meer details, zie CreateEndpointConfig.
Ten slotte maken we een SageMaker-eindpunt:
Roep het modeleindpunt aan
Dit is een generatief model, dus we geven de prompt door die het model gebruikt om de afbeelding te genereren. De payload is van het type JSON:
Benchmarking van het stabiele diffusiemodel op Inf2
We hebben een paar tests uitgevoerd om het Stable Diffusion-model te benchmarken met het gegevenstype BF 16 op Inf2, en we zijn in staat latentiecijfers af te leiden die sommige van de andere versnellers voor Stable Diffusion evenaren of zelfs overtreffen. Dit, in combinatie met de lagere kosten van AWS Inferentia2-chips, maakt dit een uiterst waardevol voorstel.
De volgende cijfers zijn afkomstig van het Stable Diffusion-model dat is geïmplementeerd op een inf2.xl-instantie. Voor meer informatie over de kosten verwijzen wij u naar Amazon EC2 Inf2-instanties.
Model | Resolutie | Data type | Iteraties | P95 Latentie (ms) | Inf2.xl On-Demand kosten per uur | Inf2.xl (kosten per afbeelding) |
Stabiele verspreiding 1.5 | 512 × 512 | bf16 | 50 | 2,427.4 | $0.76 | $0.0005125 |
Stabiele verspreiding 1.5 | 768 × 768 | bf16 | 50 | 8,235.9 | $0.76 | $0.0017387 |
Stabiele verspreiding 1.5 | 512 × 512 | bf16 | 30 | 1,456.5 | $0.76 | $0.0003075 |
Stabiele verspreiding 1.5 | 768 × 768 | bf16 | 30 | 4,941.6 | $0.76 | $0.0010432 |
Stabiele verspreiding 2.1 | 512 × 512 | bf16 | 50 | 1,976.9 | $0.76 | $0.0004174 |
Stabiele verspreiding 2.1 | 768 × 768 | bf16 | 50 | 6,836.3 | $0.76 | $0.0014432 |
Stabiele verspreiding 2.1 | 512 × 512 | bf16 | 30 | 1,186.2 | $0.76 | $0.0002504 |
Stabiele verspreiding 2.1 | 768 × 768 | bf16 | 30 | 4,101.8 | $0.76 | $0.0008659 |
Conclusie
In dit bericht zijn we diep ingegaan op de compilatie, optimalisatie en implementatie van het Stable Diffusion 2.1-model met behulp van Inf2-instanties. We hebben ook de implementatie van stabiele diffusiemodellen gedemonstreerd met behulp van SageMaker. Inf2-instanties leveren ook geweldige prijs-kwaliteitverhouding voor Stable Diffusion 1.5. Voor meer informatie over waarom Inf2-instanties geweldig zijn voor generatieve AI en grote taalmodellen, raadpleegt u Amazon EC2 Inf2-instanties voor goedkope, krachtige generatieve AI-inferentie zijn nu algemeen beschikbaar. Voor prestatiedetails, zie Inf2-prestaties. Bekijk meer voorbeelden op de GitHub repo.
Speciale dank aan Matthew Mcclain, Beni Hegedus, Kamran Khan, Shruti Koparkar en Qing Lan voor het beoordelen en leveren van waardevolle input.
Over de auteurs
Vivek Gangasani is een Senior Machine Learning Solutions Architect bij Amazon Web Services. Hij werkt samen met machine learning-startups om AI/ML-applicaties op AWS te bouwen en te implementeren. Momenteel richt hij zich op het leveren van oplossingen voor MLOps, ML-inferentie en low-code ML. Hij heeft aan projecten gewerkt in verschillende domeinen, waaronder natuurlijke taalverwerking en computervisie.
KC Tung is Senior Solution Architect bij AWS Annapurna Labs. Hij is gespecialiseerd in training van grote deep learning-modellen en implementatie op grote schaal in de cloud. Hij heeft een Ph.D. in moleculaire biofysica van het University of Texas Southwestern Medical Center in Dallas. Hij heeft gesproken op AWS Summits en AWS Reinvent. Tegenwoordig helpt hij klanten bij het trainen en implementeren van grote PyTorch- en TensorFlow-modellen in de AWS-cloud. Hij is de auteur van twee boeken: Leer TensorFlow Enterprise en TensorFlow 2 zakreferentie.
Rupinder Grewal is een Sr Ai/ML Specialist Solutions Architect bij AWS. Hij richt zich momenteel op het bedienen van modellen en MLOps op SageMaker. Voorafgaand aan deze functie heeft hij gewerkt als Machine Learning Engineer voor het bouwen en hosten van modellen. Naast zijn werk speelt hij graag tennis en fietst hij graag op bergpaden.
- Door SEO aangedreven content en PR-distributie. Word vandaag nog versterkt.
- PlatoData.Network Verticale generatieve AI. Versterk jezelf. Toegang hier.
- PlatoAiStream. Web3-intelligentie. Kennis versterkt. Toegang hier.
- PlatoESG. Automotive / EV's, carbon, CleanTech, Energie, Milieu, Zonne, Afvalbeheer. Toegang hier.
- BlockOffsets. Eigendom voor milieucompensatie moderniseren. Toegang hier.
- Bron: https://aws.amazon.com/blogs/machine-learning/maximize-stable-diffusion-performance-and-lower-inference-costs-with-aws-inferentia2/
- : heeft
- :is
- :niet
- :waar
- $UP
- 1
- 10
- 100
- 12
- 13
- 14
- 16
- 20
- 32
- 7
- 8
- 9
- a
- in staat
- Over
- SAMENVATTING
- versneller
- versnellers
- Bereiken
- daadwerkelijk
- Extra
- Voordeel
- Na
- vooruit
- AI
- AI / ML
- streven
- Alles
- toestaat
- ook
- Amazone
- Amazon EC2
- Amazon Web Services
- onder
- bedragen
- an
- en
- api
- APIs
- toepasselijk
- toepassingen
- architectuur
- ZIJN
- gebieden
- Kunst
- AS
- verschijning
- At
- audio
- auteur
- webmaster.
- Beschikbaar
- AWS
- gebaseerde
- BE
- prachtige
- omdat
- geweest
- vaardigheden
- gedrag
- wezen
- criterium
- Betere
- Biofysica
- Blok
- Blokken
- Boeken
- zowel
- brengen
- bouw
- Gebouw
- ingebouwd
- maar
- by
- CAN
- mogelijkheden
- geval
- Centreren
- Eeuw
- verandering
- controle
- spaander
- chips
- klasse
- Cloud
- Steenkool
- code
- compleet
- bestanddeel
- componenten
- Berekenen
- computer
- Computer visie
- computergebruik
- Configuratie
- Wij verbinden
- geconsumeerd
- Containers
- containers
- content
- converteren
- Kern
- Overeenkomend
- Kosten
- Kosten
- gepaard
- Craig
- en je merk te creëren
- aangemaakt
- creëert
- Wij creëren
- kritisch
- Op dit moment
- gewoonte
- Klanten
- aan te passen
- Dallas
- gegevens
- deep
- diepgaand leren
- Standaard
- leveren
- het leveren van
- demonstratie
- tonen
- gedemonstreerd
- demonstreert
- implementeren
- ingezet
- het inzetten
- inzet
- implementaties
- gedetailleerd
- gegevens
- anders
- Verspreiding
- bespreken
- domeinen
- duif
- Download
- Tekeningen
- twee
- gedurende
- elk
- Vroeger
- effectief
- efficiënt
- geeft je de mogelijkheid
- eind tot eind
- Endpoint
- ingenieur
- verzekeren
- geheel
- Milieu
- in wezen
- Zelfs
- alles
- onderzoeken
- voorbeeld
- voorbeelden
- overtreffen
- het ervaren van
- extract
- uiterst
- Gezicht
- sneller
- voelen
- weinig
- Dien in
- Bestanden
- VIND DE PLEK DIE PERFECT VOOR JOU IS
- Voornaam*
- geschikt
- drijvend
- gericht
- richt
- volgend
- volgt
- Voor
- formaat
- Gratis
- oppompen van
- vol
- functie
- verder
- algemeen
- voortbrengen
- gegenereerde
- het genereren van
- generatief
- generatieve AI
- krijgen
- Geven
- Go
- groot
- Hebben
- he
- Gezondheid
- helpt
- hier
- Hoge
- hoge performantie
- hoogwaardige
- hoger
- zeer
- houdt
- gastheer
- gehost
- Hosting
- Hoe
- How To
- HTML
- http
- HTTPS
- IDX
- if
- beeld
- afbeeldingen
- uitvoering
- indrukwekkend
- verbeteren
- in
- omvat
- Inclusief
- Laat uw omzet
- onafhankelijk
- aangeven
- informatie
- injecteren
- invoer
- ingangen
- installeren
- instantie
- verkrijgen in plaats daarvan
- inwendig
- in
- oproept
- IT
- HAAR
- JIT
- aansluiting
- jpg
- json
- voor slechts
- sleutel
- laboratorium
- Labs
- Landschap
- taal
- Groot
- groter
- Wachttijd
- laatste
- LEARN
- leren
- Verlof
- bibliotheken
- Bibliotheek
- als
- Lijn
- linux
- laden
- het laden
- ladingen
- gelegen
- plaats
- lockdown
- logging
- Kijk
- Laag
- Low-cost
- te verlagen
- laagste
- machine
- machine learning
- maken
- MERKEN
- management
- Match
- Matthew
- Maximaliseren
- middel
- medisch
- Geheugen
- methode
- Midden
- mijnwerker
- minimaal
- ML
- MLops
- model
- modellen
- Module
- moleculair
- maanden
- meer
- meest
- Berg
- MS
- meervoudig
- naam
- namen
- Naturel
- Natural Language Processing
- noodzakelijk
- Noodzaak
- nodig
- notitieboekje
- nu
- aantal
- nummers
- Nvidia
- object
- of
- Oud
- on
- On-Demand
- EEN
- Slechts
- naar
- exploiteert
- optimale
- optimalisatie
- geoptimaliseerde
- Optimaliseert
- Keuze
- or
- origineel
- OS
- Overige
- onze
- uit
- uitgang
- buiten
- over
- het te bezitten.
- pakket
- schilderij
- Parallel
- parameter
- parameters
- deel
- vooral
- onderdelen
- passeren
- pad
- voor
- Uitvoeren
- prestatie
- uitgevoerd
- Foto's
- pijp
- pijpleiding
- Plato
- Plato gegevensintelligentie
- PlatoData
- spelen
- punt
- portretten
- Post
- aangedreven
- krachtige
- bij voorkeur
- cadeautjes
- vorig
- prijs
- Voorafgaand
- processen
- verwerking
- produceren
- projecten
- vastgoed
- voorstel
- zorgen voor
- mits
- het verstrekken van
- Python
- pytorch
- RAM
- snel
- realistisch
- recent
- vermindert
- relatief
- resterende
- verwijderen
- vervangen
- vereisen
- nodig
- Voorwaarden
- vereist
- hulpbron
- Retourneren
- herzien
- concurrent
- Rol
- lopen
- lopend
- sagemaker
- dezelfde
- Bespaar
- Scale
- sdk
- naadloos
- sectie
- zien
- senior
- Diensten
- serveer-
- reeks
- tonen
- teken
- aanzienlijke
- aanzienlijk
- gelijk
- evenzo
- Eenvoudig
- eenvoudigweg
- single
- Maat
- So
- oplossing
- Oplossingen
- sommige
- bron
- Tussenruimte
- specialist
- specialiseert
- specifiek
- gespecificeerd
- snelheid
- gesproken
- stabiel
- staan
- starts
- startup
- Startups
- Stap voor
- Stappen
- mediaopslag
- opgeslagen
- eenvoudig
- Strategie
- sterkte
- structuur
- Toppen
- Ondersteuning
- zeker
- Nemen
- tensorflow
- testen
- Texas
- Bedankt
- dat
- De
- hun
- Ze
- harte
- daarom
- Deze
- ze
- dit
- Door
- doorvoer
- niet de tijd of
- keer
- naar
- vandaag
- tools
- fakkel
- Tracing
- Trainen
- Trainingen
- transformator
- twee
- type dan:
- Ubuntu
- voor
- unieke
- universiteit-
- geüpload
- us
- .
- gebruikt
- toepassingen
- gebruik
- waardevol
- waarde
- Values
- variëteit
- divers
- versie
- versies
- visie
- volume
- vs
- willen
- was
- manieren
- we
- web
- webservices
- Wat
- wanneer
- welke
- Waarom
- breed
- wil
- Met
- binnen
- Mijn werk
- werkte
- werknemers
- workflow
- Bedrijven
- You
- Your
- zephyrnet