Generativni modeli umetne inteligence so v zadnjih mesecih doživeli hitro rast zaradi svojih impresivnih zmogljivosti pri ustvarjanju realističnega besedila, slik, kode in zvoka. Med temi modeli modeli Stable Diffusion izstopajo po svoji edinstveni moči pri ustvarjanju visokokakovostnih slik na podlagi besedilnih pozivov. Stabilna difuzija lahko ustvari široko paleto visokokakovostnih slik, vključno z realističnimi portreti, pokrajinami in celo abstraktno umetnostjo. Tako kot drugi generativni modeli umetne inteligence tudi modeli stabilne difuzije zahtevajo zmogljivo računalništvo, da zagotovijo sklepanje z nizko zakasnitvijo.
V tej objavi prikazujemo, kako lahko izvajate modele stabilne difuzije in dosežete visoko zmogljivost z najnižjimi stroški v Amazonski elastični računalniški oblak (Amazon EC2) z uporabo Primerov Amazon EC2 Inf2 powered by AWS Inferentia2. Ogledamo si arhitekturo modela stabilne difuzije in se sprehodimo skozi korake sestavljanja modela stabilne difuzije z uporabo AWS nevron in njegovo uvajanje v primerek Inf2. Razpravljamo tudi o optimizacijah, ki jih Neuron SDK samodejno izvede za izboljšanje učinkovitosti. Različici Stable Diffusion 2.1 in 1.5 lahko izvajate na AWS Inferentia2 stroškovno učinkovito. Nazadnje pokažemo, kako lahko uvedete model stabilne difuzije v primerek Inf2 s Amazon SageMaker.
Velikost modela Stable Diffusion 2.1 v plavajoči vejici 32 (FP32) je 5 GB in 2.5 GB v bfoat16 (BF16). En primerek inf2.xlarge ima en pospeševalnik AWS Inferentia2 z 32 GB pomnilnika HBM. Model Stable Diffusion 2.1 se lahko prilega enemu primerku inf2.xlarge. Stable Diffusion je model pretvorbe besedila v sliko, ki ga lahko uporabite za ustvarjanje slik različnih slogov in vsebine tako, da preprosto zagotovite besedilni poziv kot vnos. Če želite izvedeti več o arhitekturi modela Stable Diffusion, glejte Ustvarite visokokakovostne slike z modeli Stable Diffusion in jih stroškovno učinkovito uvedite z Amazon SageMaker.
Kako Neuron SDK optimizira zmogljivost stabilne difuzije
Preden lahko uvedemo model Stable Diffusion 2.1 na primerkih AWS Inferentia2, moramo prevesti komponente modela z uporabo Neuron SDK. Neuron SDK, ki vključuje prevajalnik globokega učenja, čas izvajanja in orodja, prevaja in samodejno optimizira modele globokega učenja, tako da se lahko učinkovito izvajajo na primerkih Inf2 in izvlečejo polno zmogljivost pospeševalnika AWS Inferentia2. Na voljo imamo primere za model Stable Diffusion 2.1 na GitHub repo. Ta prenosni računalnik predstavlja primer od konca do konca, kako prevesti model stabilne difuzije, shraniti prevedene modele nevronov in jih naložiti v izvajalno okolje za sklepanje.
Mi uporabljamo StableDiffusionPipeline
iz Objemljivega obraza diffusers
knjižnico za nalaganje in prevajanje modela. Nato sestavimo vse komponente modela za uporabo Neurona torch_neuronx.trace()
in shranite optimizirani model kot TorchScript. Postopki prevajanja so lahko precej pomnilniško intenzivni in zahtevajo precejšnjo količino RAM-a. Da bi se temu izognili, pred sledenjem vsakemu modelu ustvarimo a deepcopy
dela cevovoda, ki ga sledimo. Po tem izbrišemo objekt cevovoda iz pomnilnika z uporabo del pipe
. Ta tehnika je še posebej uporabna pri prevajanju na primerkih z malo RAM-a.
Poleg tega izvajamo tudi optimizacije modelov stabilne difuzije. UNet ima računsko najbolj intenziven vidik sklepanja. Komponenta UNet deluje na vhodnih tenzorjih, ki imajo serijsko velikost dve, pri čemer generira ustrezen izhodni tenzor prav tako s serijsko velikostjo dve, da ustvari eno samo sliko. Elementi znotraj teh sklopov so popolnoma neodvisni drug od drugega. To vedenje lahko izkoristimo, da dosežemo optimalno zakasnitev, tako da zaženemo eno serijo na vsakem jedru nevrona. UNet prevedemo za en paket (z uporabo vhodnih tenzorjev z enim paketom), nato uporabimo torch_neuronx.DataParallel
API za nalaganje tega posameznega paketnega modela v vsako jedro. Izhod tega API-ja je neprekinjen dvopaketni modul: v UNet lahko posredujemo vhode dveh serij in vrne se dvopaketni izhod, toda interno se oba enopaketna modela izvajata na dveh jedrih Neuron . Ta strategija optimizira uporabo virov in zmanjša zakasnitev.
Prevedite in razmestite model Stable Diffusion na primerku Inf2 EC2
Če želite prevesti in razmestiti model Stable Diffusion na primerku Inf2 EC2, se podpišite na Konzola za upravljanje AWS in ustvarite primerek inf2.8xlarge. Upoštevajte, da je primerek inf2.8xlarge potreben le za prevajanje modela, ker prevajanje zahteva večji pomnilnik gostitelja. Model Stable Diffusion lahko gostuje na primerku inf2.xlarge. Najnovejši AMI s knjižnicami Neuron lahko najdete z naslednjim Vmesnik ukazne vrstice AWS (AWS CLI) ukaz:
Za ta primer smo ustvarili primerek EC2 z uporabo Deep Learning AMI Neuron PyTorch 1.13 (Ubuntu 20.04). Nato lahko ustvarite laboratorijsko okolje JupyterLab tako, da se povežete s primerkom in izvedete naslednje korake:
Na voljo je prenosni računalnik z vsemi koraki za sestavljanje in gostovanje modela GitHub.
Oglejmo si korake prevajanja za enega od blokov kodirnika besedila. Druge bloke, ki so del cevovoda Stable Diffusion, je mogoče sestaviti podobno.
Prvi korak je nalaganje predhodno usposobljenega modela iz Hugging Face. The StableDiffusionPipeline.from_pretrained
metoda naloži predhodno usposobljen model v naš objekt cevovoda, pipe
. Nato ustvarimo a deepcopy
kodirnika besedila iz našega cevovoda in ga učinkovito klonira. The del pipe
ukaz se nato uporabi za brisanje prvotnega objekta cevovoda, s čimer se sprosti pomnilnik, ki ga je zasedel. Tukaj kvantiziramo model na uteži BF16:
Ta korak vključuje ovijanje našega kodirnika besedila z NeuronTextEncoder
ovoj. Izhod prevedenega modula kodirnika besedila bo dict
. Pretvorimo ga v a list
vnesite s tem ovojom:
Inicializiramo tenzor PyTorch emb
z nekaterimi vrednostmi. The emb
tenzor se uporablja kot primer vnosa za torch_neuronx.trace
funkcijo. Ta funkcija sledi našemu kodirniku besedila in ga prevede v format, optimiziran za Neuron. Pot do imenika za prevedeni model je sestavljena z združevanjem COMPILER_WORKDIR_ROOT
s podimenikom text_encoder
:
Prevedeni kodirnik besedila se shrani z uporabo torch.jit.save
. Shranjen je pod imenom datoteke model.pt v text_encoder
imenik delovnega prostora našega prevajalnika:
O prenosnik vključuje podobne korake za prevajanje drugih komponent modela: UNet, dekoder VAE in VAE post_quant_conv
. Ko prevedete vse modele, lahko naložite in zaženete model po naslednjih korakih:
- Določite poti za prevedene modele.
- Naložite predhodno usposobljeno
StableDiffusionPipeline
model, s konfiguracijo, določeno za uporabo podatkovnega tipa bfloat16. - Naložite model UNet na dve jedri Neuron z uporabo
torch_neuronx.DataParallel
API. To omogoča izvajanje vzporednega sklepanja podatkov, kar lahko znatno pospeši delovanje modela. - Naložite preostale dele modela (
text_encoder
,decoder
inpost_quant_conv
) na eno samo nevronsko jedro.
Nato lahko zaženete cevovod tako, da vnesete vhodno besedilo kot pozive. Sledi nekaj slik, ki jih je ustvaril model za pozive:
- Portret renauda sechana, pero in črnilo, zapletene črtne risbe, avtorji craig mullins, ruan jia, kentaro miura, greg rutkowski, loundraw
- Portret starega premogovnika v 19. stoletju, čudovita slika z zelo podrobno poslikavo obraza Grega Rutkowskega
- Grad sredi gozda
Gostovanje Stable Diffusion 2.1 na AWS Inferentia2 in SageMaker
Gostovanje modelov Stable Diffusion s SageMaker zahteva tudi kompilacijo z Neuron SDK. Prevajanje lahko dokončate pred časom ali med izvajanjem z uporabo vsebnikov Large Model Inference (LMI). Prevajanje pred časom omogoča hitrejše nalaganje modela in je prednostna možnost.
Vsebniki SageMaker LMI ponujajo dva načina za namestitev modela:
- Možnost brez kode, kjer samo zagotovimo a
serving.properties
datoteko z zahtevanimi konfiguracijami - S seboj prinesite svoj sklepni scenarij
Ogledamo si obe rešitvi in pregledamo konfiguracije in sklepni skript (model.py
). V tej objavi prikazujemo uvajanje z uporabo vnaprej prevedenega modela, shranjenega v Preprosta storitev shranjevanja Amazon (Amazon S3) vedro. Ta vnaprej prevedeni model lahko uporabite za svoje uvedbe.
Konfigurirajte model s priloženim skriptom
V tem razdelku pokažemo, kako konfigurirati vsebnik LMI za gostovanje modelov stabilne difuzije. Prenosnik SD2.1, ki je na voljo na GitHub. Prvi korak je ustvariti konfiguracijski paket modela glede na naslednjo strukturo imenika. Naš cilj je uporabiti minimalne konfiguracije modela, potrebne za gostovanje modela. Potrebna struktura imenika je naslednja:
Nato ustvarimo serviranje.lastnosti datoteka z naslednjimi parametri:
Parametri določajo naslednje:
- option.model_id – Vsebniki LMI uporabljajo s5cmd za nalaganje modela z lokacije S3, zato moramo določiti lokacijo, kjer so naše prevedene uteži.
- option.entryPoint – Za uporabo vgrajenih upravljavcev določimo razred transformers-neuronx. Če imate skript sklepanja po meri, ga morate zagotoviti namesto tega.
- option.dtype – To določa nalaganje uteži v določeni velikosti. Za to objavo uporabljamo BF16, ki dodatno zmanjša naše pomnilniške zahteve v primerjavi s FP32 in zaradi tega zmanjša našo zakasnitev.
- možnost.tensor_parallel_degree – Ta parameter določa število pospeševalnikov, ki jih uporabljamo za ta model. Čipni pospeševalnik AWS Inferentia2 ima dve jedri Neuron, zato določitev vrednosti 2 pomeni, da uporabljamo en pospeševalnik (dve jedri). To pomeni, da lahko zdaj ustvarimo več delavcev, da povečamo prepustnost končne točke.
- možnost.motor – To je nastavljeno na Python, kar pomeni, da za to gostovanje ne bomo uporabljali drugih prevajalnikov, kot sta DeepSpeed ali Faster Transformer.
Prinesite svoj scenarij
Če želite prinesti lasten skript sklepanja po meri, morate odstraniti option.entryPoint
iz serving.properties
. Vsebnik LMI bo v tem primeru iskal a model.py
datoteko na istem mestu kot serving.properties
in to uporabite za izvajanje sklepanja.
Ustvarite lasten sklepni skript (model.py)
Ustvarjanje lastnega sklepnega skripta je razmeroma preprosto z uporabo vsebnika LMI. Posoda zahteva vašo model.py
datoteka, da ima implementacijo naslednje metode:
Oglejmo si nekaj kritičnih področij priložen zvezek, ki prikazuje funkcijo prinašanja lastnega skripta.
Zamenjajte cross_attention
modul z optimizirano različico:
To so imena prevedenih datotek z utežmi, ki smo jih uporabili pri ustvarjanju kompilacij. Imena datotek lahko spremenite, vendar se prepričajte, da se imena datotek z utežmi ujemajo s tem, kar ste tukaj navedli.
Nato jih moramo naložiti s pomočjo Neuron SDK in jih nastaviti v dejanskih utežeh modela. Pri nalaganju uteži, optimiziranih za UNet, upoštevajte, da določamo tudi število nevronskih jeder, na katera jih moramo naložiti. Tukaj naložimo en sam pospeševalnik z dvema jedroma:
Izvajanje sklepanja s pozivom prikliče predmet cevi za ustvarjanje slike.
Ustvarite končno točko SageMaker
Za ustvarjanje končne točke SageMaker uporabljamo API-je Boto3. Izvedite naslednje korake:
- Ustvarite arhiv samo s serviranjem in neobveznim
model.py
datoteke in jih naložite v Amazon S3. - Ustvarite model z uporabo vsebnika slik in prej naloženega arhiva modela.
- Ustvarite konfiguracijo končne točke z uporabo naslednjih ključnih parametrov:
- Uporabite
ml.inf2.xlarge
na primer. - Kompleti
ContainerStartupHealthCheckTimeoutInSeconds
do 240, da zagotovite, da se zdravstveni pregled začne po uvedbi modela. - Kompleti
VolumeInGB
na večjo vrednost, tako da se lahko uporabi za nalaganje uteži modela, ki so velike 32 GB.
- Uporabite
Ustvarite model SageMaker
Ko ustvarite datoteko model.tar.gz in jo naložite v Amazon S3, moramo ustvariti model SageMaker. Za izdelavo modela SageMaker uporabimo vsebnik LMI in artefakt modela iz prejšnjega koraka. SageMaker nam omogoča prilagajanje in vstavljanje različnih spremenljivk okolja. Za ta potek dela lahko vse pustimo privzeto. Oglejte si naslednjo kodo:
Ustvarite objekt modela, ki v bistvu ustvari vsebnik za zaklepanje, ki se naloži v primerek in se uporablja za sklepanje:
Ustvarite končno točko SageMaker
V tej predstavitvi uporabljamo primerek ml.inf2.xlarge. Nastaviti moramo VolumeSizeInGB
parametrov za zagotovitev potrebnega prostora na disku za nalaganje modela in uteži. Ta parameter se uporablja za primerke, ki podpirajo Trgovina z elastičnimi bloki Amazon (Amazon EBS) nastavek za volumen. Časovno omejitev prenosa modela in preverjanje stanja zagona vsebnika lahko pustimo na višji vrednosti, kar bo vsebniku dalo dovolj časa, da potegne uteži iz Amazon S3 in naloži v pospeševalnike AWS Inferentia2. Za več podrobnosti glejte UstvariEndpointConfig.
Nazadnje ustvarimo končno točko SageMaker:
Prikličite končno točko modela
To je generativni model, zato posredujemo poziv, ki ga model uporablja za ustvarjanje slike. Tovor je vrste JSON:
Primerjava modela stabilne difuzije na Inf2
Izvedli smo nekaj testov za primerjavo modela Stable Diffusion s podatkovnim tipom BF 16 na Inf2 in lahko izpeljemo številke zakasnitve, ki tekmujejo ali presegajo nekatere druge pospeševalnike za Stable Diffusion. Zaradi tega, skupaj z nižjimi stroški čipov AWS Inferentia2, je to izjemno dragocena ponudba.
Naslednje številke so iz modela stabilne difuzije, ki je nameščen na primerku inf2.xl. Za več informacij o stroških glejte Primerki Amazon EC2 Inf2.
Model | Resolucija | Vrsta podatkov | Ponovitve | P95 Zakasnitev (ms) | Inf2.xl Cena na zahtevo na uro | Inf2.xl (Cena na sliko) |
Stabilna difuzija 1.5 | 512 × 512 | bf16 | 50 | 2,427.4 | $0.76 | $0.0005125 |
Stabilna difuzija 1.5 | 768 × 768 | bf16 | 50 | 8,235.9 | $0.76 | $0.0017387 |
Stabilna difuzija 1.5 | 512 × 512 | bf16 | 30 | 1,456.5 | $0.76 | $0.0003075 |
Stabilna difuzija 1.5 | 768 × 768 | bf16 | 30 | 4,941.6 | $0.76 | $0.0010432 |
Stabilna difuzija 2.1 | 512 × 512 | bf16 | 50 | 1,976.9 | $0.76 | $0.0004174 |
Stabilna difuzija 2.1 | 768 × 768 | bf16 | 50 | 6,836.3 | $0.76 | $0.0014432 |
Stabilna difuzija 2.1 | 512 × 512 | bf16 | 30 | 1,186.2 | $0.76 | $0.0002504 |
Stabilna difuzija 2.1 | 768 × 768 | bf16 | 30 | 4,101.8 | $0.76 | $0.0008659 |
zaključek
V tej objavi smo se poglobili v kompilacijo, optimizacijo in uvajanje modela Stable Diffusion 2.1 z uporabo primerkov Inf2. Prikazali smo tudi uvajanje modelov Stable Diffusion z uporabo SageMakerja. Primerki Inf2 zagotavljajo tudi odlično cenovno zmogljivost za Stable Diffusion 1.5. Če želite izvedeti več o tem, zakaj so primerki Inf2 odlični za generativne AI in velike jezikovne modele, glejte Primerki Amazon EC2 Inf2 za nizkocenovne in visoko zmogljive generativne sklepe z umetno inteligenco so zdaj splošno na voljo. Za podrobnosti o delovanju glejte Zmogljivost Inf2. Oglejte si dodatne primere na GitHub repo.
Posebna zahvala Matthewu Mcclainu, Beni Hegedusu, Kamranu Khanu, Shrutiju Koparkarju in Qing Lanu za pregled in zagotavljanje dragocenih prispevkov.
O avtorjih
Vivek Gangasani je višji arhitekt rešitev za strojno učenje pri Amazon Web Services. Sodeluje z zagonskimi podjetji strojnega učenja pri gradnji in uvajanju aplikacij AI/ML na AWS. Trenutno je osredotočen na zagotavljanje rešitev za MLOps, sklepanje ML in ML z nizko kodo. Delal je na projektih na različnih področjih, vključno z obdelavo naravnega jezika in računalniškim vidom.
KC Tung je višji arhitekt rešitev v AWS Annapurna Labs. Specializiran je za usposabljanje in uvajanje velikih modelov globokega učenja v oblaku. Ima doktorat znanosti. doktor molekularne biofizike iz Southwestern medicinskega centra Univerze v Teksasu v Dallasu. Govoril je na AWS Summits in AWS Reinvent. Danes strankam pomaga pri usposabljanju in uvajanju velikih modelov PyTorch in TensorFlow v oblaku AWS. Je avtor dveh knjig: Spoznajte TensorFlow Enterprise in TensorFlow 2 Pocket Reference.
Rupinder Grewal je Sr Ai/ML Specialist Solutions Architect pri AWS. Trenutno se osredotoča na streženje modelov in MLO na SageMakerju. Pred to vlogo je delal kot inženir strojnega učenja za gradnjo in gostovanje modelov. Izven službe rad igra tenis in kolesari po gorskih poteh.
- Distribucija vsebine in PR s pomočjo SEO. Okrepite se še danes.
- PlatoData.Network Vertical Generative Ai. Opolnomočite se. Dostopite tukaj.
- PlatoAiStream. Web3 Intelligence. Razširjeno znanje. Dostopite tukaj.
- PlatoESG. Avtomobili/EV, Ogljik, CleanTech, Energija, Okolje, sončna energija, Ravnanje z odpadki. Dostopite tukaj.
- BlockOffsets. Posodobitev okoljskega offset lastništva. Dostopite tukaj.
- vir: https://aws.amazon.com/blogs/machine-learning/maximize-stable-diffusion-performance-and-lower-inference-costs-with-aws-inferentia2/
- :ima
- : je
- :ne
- :kje
- $GOR
- 1
- 10
- 100
- 12
- 13
- 14
- 16
- 20
- 32
- 7
- 8
- 9
- a
- Sposobna
- O meni
- POVZETEK
- plin
- pospeševalniki
- Doseči
- dejanska
- Dodatne
- Prednost
- po
- naprej
- AI
- AI / ML
- Cilj
- vsi
- omogoča
- Prav tako
- Amazon
- Amazon EC2
- Amazon Web Services
- med
- znesek
- an
- in
- API
- API-ji
- primerno
- aplikacije
- Arhitektura
- SE
- območja
- Umetnost
- AS
- vidik
- At
- audio
- Avtor
- samodejno
- Na voljo
- AWS
- temeljijo
- BE
- lepa
- ker
- bilo
- pred
- vedenje
- počutje
- merilo
- Boljše
- Biofizika
- Block
- Bloki
- knjige
- tako
- prinašajo
- izgradnjo
- Building
- vgrajeno
- vendar
- by
- CAN
- Zmogljivosti
- primeru
- center
- Stoletje
- spremenite
- preveriti
- čip
- čipi
- razred
- Cloud
- Premog
- Koda
- dokončanje
- komponenta
- deli
- Izračunajte
- računalnik
- Računalniška vizija
- računalništvo
- konfiguracija
- Povezovanje
- porabi
- Posoda
- Zabojniki
- vsebina
- pretvorbo
- Core
- Ustrezno
- strošek
- stroški
- skupaj
- Craig
- ustvarjajo
- ustvaril
- ustvari
- Ustvarjanje
- kritično
- Trenutno
- po meri
- Stranke, ki so
- prilagodite
- Dallas
- datum
- globoko
- globoko učenje
- privzeto
- poda
- dostavo
- demo
- izkazati
- Dokazano
- dokazuje,
- razporedi
- razporejeni
- uvajanja
- uvajanje
- razmestitve
- podrobno
- Podrobnosti
- drugačen
- Difuzija
- razpravlja
- domen
- golob
- prenesi
- Risbe
- 2
- med
- vsak
- prej
- učinkovito
- učinkovito
- elementi
- konec koncev
- Končna točka
- inženir
- zagotovitev
- popolnoma
- okolje
- v bistvu
- Tudi
- vse
- preučiti
- Primer
- Primeri
- presega
- doživlja
- ekstrakt
- izredno
- Obraz
- hitreje
- občutek
- Nekaj
- file
- datoteke
- Najdi
- prva
- fit
- plavajoči
- osredotočena
- Osredotoča
- po
- sledi
- za
- format
- brezplačno
- iz
- polno
- funkcija
- nadalje
- splošno
- ustvarjajo
- ustvarila
- ustvarjajo
- generativno
- Generativna AI
- dobili
- Daj
- Go
- veliko
- Rast
- Imajo
- he
- Zdravje
- Pomaga
- tukaj
- visoka
- visokozmogljivo
- visoka kvaliteta
- več
- zelo
- drži
- gostitelj
- gostila
- gostovanje
- Kako
- Kako
- HTML
- http
- HTTPS
- idx
- if
- slika
- slike
- Izvajanje
- Impresivno
- izboljšanje
- in
- vključuje
- Vključno
- Povečajte
- Neodvisni
- Navedite
- Podatki
- injicirati
- vhod
- vhodi
- namestitev
- primer
- Namesto
- interno
- v
- prikliče
- IT
- ITS
- JIT
- pridružil
- jpg
- json
- samo
- Ključne
- lab
- Labs
- Pokrajina
- jezik
- velika
- večja
- Latenca
- Zadnji
- UČITE
- učenje
- pustite
- knjižnice
- Knjižnica
- kot
- vrstica
- linux
- obremenitev
- nalaganje
- obremenitve
- nahaja
- kraj aktivnosti
- lockdown
- sečnja
- Poglej
- nizka
- nizkimi stroški
- nižje
- najnižja
- stroj
- strojno učenje
- Znamka
- IZDELA
- upravljanje
- Stave
- Matthew
- Povečajte
- pomeni
- medicinski
- Spomin
- Metoda
- Bližnji
- rudar
- minimalna
- ML
- MLOps
- Model
- modeli
- Moduli
- molekularno
- mesecev
- več
- Najbolj
- Mountain
- MS
- več
- Ime
- Imena
- naravna
- Obdelava Natural Language
- potrebno
- Nimate
- potrebna
- prenosnik
- zdaj
- Številka
- številke
- Nvidia
- predmet
- of
- Staro
- on
- Na zahtevo
- ONE
- samo
- na
- deluje
- optimalna
- optimizacija
- optimizirana
- Optimizira
- Možnost
- or
- izvirno
- OS
- Ostalo
- naši
- ven
- izhod
- zunaj
- več
- lastne
- paket
- Slika
- vzporedno
- parameter
- parametri
- del
- zlasti
- deli
- mimo
- pot
- za
- Izvedite
- performance
- opravljeno
- slike
- cevi
- plinovod
- platon
- Platonova podatkovna inteligenca
- PlatoData
- igranje
- Točka
- portreti
- Prispevek
- poganja
- močan
- prednostno
- darila
- prejšnja
- Cena
- Predhodna
- Procesi
- obravnavati
- proizvodnjo
- projekti
- Lastnosti
- predlog
- zagotavljajo
- če
- zagotavljanje
- Python
- pitorha
- RAM
- hitro
- realistična
- nedavno
- zmanjšuje
- relativno
- Preostalih
- odstrani
- zamenjajte
- zahteva
- obvezna
- Zahteve
- zahteva
- vir
- vrne
- pregledovanje
- Tekmec
- vloga
- Run
- tek
- sagemaker
- Enako
- Shrani
- Lestvica
- SDK
- brezšivne
- Oddelek
- glej
- višji
- Storitve
- služijo
- nastavite
- Prikaži
- podpisati
- pomemben
- bistveno
- Podoben
- podobno
- Enostavno
- preprosto
- sam
- Velikosti
- So
- Rešitev
- rešitve
- nekaj
- vir
- Vesolje
- specialist
- specializirano
- specifična
- določeno
- hitrost
- govorijo
- stabilna
- stati
- začne
- zagon
- Ustanavljanjem
- Korak
- Koraki
- shranjevanje
- shranjeni
- naravnost
- Strategija
- moč
- Struktura
- Vrhovi
- Podpora
- Preverite
- Bodite
- tensorflo
- testi
- texas
- Hvala
- da
- O
- njihove
- Njih
- POTEM
- zato
- te
- jih
- ta
- skozi
- pretočnost
- čas
- krat
- do
- danes
- orodja
- baklo
- Sledenje
- Vlak
- usposabljanje
- transformator
- dva
- tip
- Ubuntu
- pod
- edinstven
- univerza
- naložili
- us
- uporaba
- Rabljeni
- uporablja
- uporabo
- dragocene
- vrednost
- Vrednote
- raznolikost
- različnih
- različica
- različice
- Vizija
- Obseg
- vs
- želeli
- je
- načini
- we
- web
- spletne storitve
- Kaj
- kdaj
- ki
- zakaj
- široka
- bo
- z
- v
- delo
- delal
- delavci
- potek dela
- deluje
- Vi
- Vaša rutina za
- zefirnet