V dobi velikih podatkov in umetne inteligence podjetja nenehno iščejo načine za uporabo teh tehnologij za pridobitev konkurenčne prednosti. Eno najbolj vročih področij umetne inteligence trenutno je generativna umetna inteligenca, in to z dobrim razlogom. Generative AI ponuja zmogljive rešitve, ki premikajo meje možnega v smislu ustvarjalnosti in inovativnosti. V jedru teh najsodobnejših rešitev leži temeljni model (FM), zelo napreden model strojnega učenja, ki je vnaprej usposobljen za ogromne količine podatkov. Mnogi od teh temeljnih modelov so pokazali izjemno sposobnost razumevanja in ustvarjanja besedila, podobnega človeku, zaradi česar so dragoceno orodje za različne aplikacije, od ustvarjanja vsebine do avtomatizacije podpore strankam.
Vendar ti modeli niso brez izzivov. So izjemno veliki in zahtevajo velike količine podatkov in računalniških virov za usposabljanje. Poleg tega sta lahko optimizacija procesa usposabljanja in umerjanje parametrov zapleten in ponavljajoč se proces, ki zahteva strokovno znanje in skrbno eksperimentiranje. To so lahko ovire za številne organizacije, ki želijo zgraditi lastne temeljne modele. Da bi premagali ta izziv, veliko strank razmišlja o natančnejši prilagoditvi obstoječih modelov temeljev. To je priljubljena tehnika za prilagajanje majhnega dela parametrov modela za posebne aplikacije, pri čemer se še vedno ohranja znanje, ki je že kodirano v modelu. Organizacijam omogoča, da uporabijo moč teh modelov, hkrati pa zmanjšajo vire, potrebne za prilagajanje določeni domeni ali nalogi.
Obstajata dva primarna pristopa k natančnemu uravnavanju temeljnih modelov: tradicionalno fino uravnavanje in fino uravnavanje, učinkovito s parametri. Tradicionalno fino uravnavanje vključuje posodabljanje vseh parametrov vnaprej usposobljenega modela za določeno nadaljnjo nalogo. Po drugi strani parametrsko učinkovito fino uravnavanje vključuje različne tehnike, ki omogočajo prilagoditev modela brez posodabljanja vseh izvirnih parametrov modela. Ena taka tehnika se imenuje Low-rank Adaptation (LoRA). Vključuje dodajanje majhnih modulov, specifičnih za nalogo, vnaprej usposobljenemu modelu in njihovo usposabljanje, medtem ko ostanejo ostali parametri fiksni, kot je prikazano na naslednji sliki.
vir: Generativni AI na AWS (O'Reilly, 2023)
LoRA je nedavno postala priljubljena iz več razlogov. Ponuja hitrejše usposabljanje, zmanjšane zahteve po pomnilniku in možnost ponovne uporabe vnaprej pripravljenih modelov za več nalog na nižji stopnji. Še pomembneje je, da lahko osnovni model in adapter shranite ločeno in kadar koli združite, kar olajša shranjevanje, distribucijo in skupno rabo natančno nastavljenih različic. Vendar to predstavlja nov izziv: kako pravilno upravljati te nove vrste natančno nastavljenih modelov. Bi morali združiti osnovni model in adapter ali ju obdržati ločeno? V tej objavi se sprehodimo skozi najboljše prakse za upravljanje natančno nastavljenih modelov LoRA Amazon SageMaker za obravnavo tega porajajočega se vprašanja.
Delo z FM-ji v registru modelov SageMaker
V tej objavi se sprehodimo skozi primer natančnega prilagajanja velikega jezikovnega modela Llama2 (LLM) od konca do konca z uporabo metode QLoRA. QLoRA združuje prednosti natančnega prilagajanja parametrov s 4-bitno/8-bitno kvantizacijo za nadaljnje zmanjšanje virov, potrebnih za natančno prilagajanje FM za določeno nalogo ali primer uporabe. Za to bomo uporabili vnaprej usposobljen model Llama7 s 2 milijardami parametrov in ga natančno prilagodili na naboru podatkov databricks-dolly-15k. LLM-ji, kot je Llama2, imajo na milijarde parametrov in so vnaprej usposobljeni za ogromne besedilne nize podatkov. Natančna nastavitev prilagodi LLM nadaljnji nalogi z uporabo manjšega nabora podatkov. Vendar pa je natančno prilagajanje velikih modelov računsko drago. Zato bomo uporabili metodo QLoRA za kvantiziranje uteži med finim uravnavanjem, da zmanjšamo te računske stroške.
V naših primerih boste našli dva zvezka (llm-finetune-combined-with-registry.ipynb
in llm-finetune-separate-with-registry.ipynb
). Vsak deluje na drugačen način za obravnavanje natančno nastavljenih modelov LoRA, kot je prikazano v naslednjem diagramu:
- Najprej prenesemo predhodno usposobljen model Llama2 s 7 milijardami parametrov z uporabo prenosnikov SageMaker Studio. LLM-ji, kot je Llama2, so pokazali najsodobnejšo zmogljivost pri nalogah obdelave naravnega jezika (NLP), ko so natančno nastavljeni na podatke, specifične za domeno.
- Nato natančno prilagodimo Llama2 na naboru podatkov databricks-dolly-15k z uporabo metode QLoRA. QLoRA zmanjša računske stroške natančnega prilagajanja s kvantiziranjem uteži modela.
- Med finim prilagajanjem integriramo SageMaker Experiments Plus z API-jem Transformers za samodejno beleženje meritev, kot so gradient, izguba itd.
- Nato naredimo različico natančno nastavljenega modela Llama2 v registru modelov SageMaker z uporabo dveh pristopov:
- Shranjevanje celotnega modela
- Ločeno shranjevanje adapterja in osnovnega modela.
- Končno gostimo natančno nastavljene modele Llama2 z uporabo Deep Java Library (DJL), ki služi na končni točki SageMaker Real-time.
V naslednjih razdelkih se bomo poglobili v vsakega od teh korakov, da bi prikazali prilagodljivost SageMakerja za različne poteke dela LLM in kako lahko te funkcije pomagajo izboljšati delovanje vaših modelov.
Predpogoji
Izpolnite naslednje predpogoje, da začnete eksperimentirati s kodo.
- Ustvarite Domena SageMaker Studio: Amazon SageMaker Studio, natančneje Studio Notebooks, se uporablja za začetek naloge natančnega prilagajanja Llama2, nato pa registracijo in ogled modelov znotraj Model registra SageMaker. Poskusi SageMaker se uporablja tudi za ogled in primerjavo dnevnikov opravil natančnega prilagajanja Llama2 (izguba usposabljanja/izguba testa itd.).
- Ustvarite vedro Amazon Simple Storage Service (S3).: Potreben je dostop do vedra S3 za shranjevanje vadbenih artefaktov in uteži modelov. Za navodila glejte Ustvarjanje vedra. Vzorčna koda, uporabljena za to objavo, bo uporabljala privzeto vedro S3 SageMaker, vendar jo lahko prilagodite za uporabo katerega koli ustreznega vedra S3.
- Nastavite zbirke modelov (dovoljenja IAM): posodobite svojo vlogo izvajanja SageMaker z dovoljenji za skupine virov, kot je navedeno pod Vodnik za razvijalce zbirk modelov registra za izvajanje združevanja registra modelov z uporabo zbirk modelov.
- Sprejmite določila in pogoje za Llama2: Sprejeti boste morali licenčno pogodbo za končnega uporabnika in politiko sprejemljive uporabe za uporabo modela temeljev Llama2.
Primeri so na voljo v GitHub repozitorij. Datoteke prenosnika so preizkušene z uporabo prenosnikov Studio, ki se izvajajo na jedru PyTorch 2.0.0 Python 3.10 Optimized GPU in vrsti primerka ml.g4dn.xlarge.
Poskusi in integracija povratnega klica
Eksperimenti Amazon SageMaker omogoča organiziranje, sledenje, primerjavo in ocenjevanje poskusov strojnega učenja (ML) in različic modelov iz katerega koli integriranega razvojnega okolja (IDE), vključno z lokalnimi prenosniki Jupyter, z uporabo SDK SageMaker Python ali boto3. Zagotavlja prilagodljivost za beleženje metrik, parametrov, datotek, artefaktov vašega modela, risanje grafikonov iz različnih metrik, zajemanje različnih metapodatkov, iskanje po njih in podporo ponovljivosti modela. Podatkovni znanstveniki lahko hitro primerjajo zmogljivost in hiperparametre za vrednotenje modela prek vizualnih grafikonov in tabel. Uporabijo lahko tudi SageMaker Experiments za prenos ustvarjenih grafikonov in delitev ocene modela s svojimi deležniki.
Usposabljanje LLM je lahko počasen, drag in ponavljajoč se proces. Za uporabnika je zelo pomembno, da sledi eksperimentiranju LLM v velikem obsegu, da prepreči nedosledno izkušnjo prilagajanja modela. API-ji HuggingFace Transformer omogočajo uporabnikom, da spremljajo meritve med nalogami usposabljanja Povratni klici. Povratni klici so deli kode »samo za branje«, ki lahko prilagodijo vedenje vadbene zanke v PyTorch Trainerju, ki lahko pregleda stanje vadbene zanke za poročanje o napredku, prijavo v TensorBoard ali SageMaker Experiments Plus prek logike po meri (ki je vključena kot del te kodne baze).
Uvozite lahko kodo za povratni klic SageMaker Experiments, ki je vključena v repozitorij kod te objave, kot je prikazano v naslednjem bloku kode:
Ta povratni klic bo samodejno prijavil naslednje informacije v SageMaker Experiments kot del izvajanja usposabljanja:
- Parametri vadbe in hiperparametri
- Usposabljanje modela in izguba validacije v koraku, epohi in končni fazi
- Vhodni in izhodni artefakti modela (nabor podatkov za usposabljanje, nabor podatkov o validaciji, lokacija izhoda modela, razhroščevalnik za usposabljanje in drugo)
Naslednji graf prikazuje primere grafikonov, ki jih lahko prikažete z uporabo teh informacij.
To vam omogoča enostavno primerjavo več poskusov z uporabo funkcije Analyze v SageMaker Experiments. Izberete lahko izvedbe preizkusa, ki jih želite primerjati, in samodejno bodo zapolnili primerjalne grafe.
Registrirajte natančno nastavljene modele v zbirke registra modelov
Zbirke modelov registra je značilnost Model registra SageMaker ki vam omogoča združevanje registriranih modelov, ki so med seboj povezani, in njihovo organiziranje v hierarhijo za izboljšanje odkrivanja modela v velikem obsegu. Zbirke registra modelov bomo uporabljali za spremljanje osnovnega modela in natančno nastavljenih različic.
Metoda kopiranja celotnega modela
Prva metoda združuje osnovni model in adapter LoRA ter shrani celoten natančno nastavljen model. Naslednja koda ponazarja postopek združevanja modela in shrani kombinirani model z uporabo model.save_pretrained()
.
Združevanje adapterja LoRA in osnovnega modela v en artefakt modela po fini nastavitvi ima prednosti in slabosti. Kombinirani model je samostojen in ga je mogoče neodvisno upravljati in namestiti, ne da bi potrebovali prvotni osnovni model. Modelu je mogoče slediti kot lastni entiteti z imenom različice, ki odraža osnovni model in podatke za natančno nastavitev. Lahko sprejmemo nomenklaturo z uporabo base_model_name
+ natančno nastavljeno dataset_name
organizirati modelne skupine. Po želji lahko zbirke modelov povezujejo izvirne in natančno nastavljene modele, vendar to morda ni potrebno, saj je kombinirani model neodvisen. Naslednji delček kode vam pokaže, kako registrirati natančno nastavljen model.
Ocenjevalnik usposabljanja lahko uporabite za registracijo modela v register modelov.
Iz registra modelov lahko pridobite paket modela in ta model neposredno uvedete.
Vendar pa ima ta pristop pomanjkljivosti. Združevanje modelov povzroči neučinkovitost in odvečnost shranjevanja, saj se osnovni model podvoji v vsaki natančno nastavljeni različici. Ker se velikost modela in število natančno nastavljenih modelov povečujeta, to eksponentno povečuje potrebe po shranjevanju. Če za primer vzamemo model llama2 7b, ima osnovni model približno 13 GB, natančno nastavljen model pa 13.6 GB. Po vsaki fini nastavitvi je treba podvojiti 96 % odstotkov modela. Poleg tega postane distribucija in skupna raba zelo velikih datotek modelov prav tako težja in predstavlja operativne izzive, saj se stroški prenosa datotek in upravljanja povečujejo z večanjem velikosti modela in opravili natančnega prilagajanja.
Ločen adapter in osnovni način
Druga metoda se osredotoča na ločevanje osnovnih uteži in uteži adapterja, tako da jih shrani kot ločene komponente modela in jih zaporedno naloži med izvajanjem.
Shranjevanje teže osnove in adapterja ima prednosti in slabosti, podobno kot metoda kopiranja celotnega modela. Ena od prednosti je, da lahko prihrani prostor za shranjevanje. Osnovne uteži, ki so največja komponenta natančno nastavljenega modela, se shranijo samo enkrat in jih je mogoče znova uporabiti z drugimi utežmi adapterjev, ki so nastavljene za drugačna opravila. Na primer, osnovne teže Llama2-7B so približno 13 GB, vendar mora vsaka naloga natančnega prilagajanja shraniti le približno 0.6 GB uteži adapterjev, kar je 95-odstotni prihranek prostora. Druga prednost je, da je mogoče osnovne uteži upravljati ločeno od uteži adapterjev z uporabo registra modela samo osnovnih uteži. To je lahko uporabno za domene SageMaker, ki delujejo samo v načinu VPC brez internetnega prehoda, saj je do osnovnih uteži mogoče dostopati, ne da bi morali iti prek interneta.
Ustvari skupino paketov modela za osnovne uteži
Ustvari skupino paketov modela za uteži QLoRA
Naslednja koda prikazuje, kako označiti uteži QLoRA z vrsto nabora podatkov/opravila in registrirati natančno nastavljene uteži delta v ločen register modelov ter ločeno slediti utežem delta.
Naslednji delček prikazuje pogled iz registra modelov, kjer so modeli razdeljeni na osnovne in natančno nastavljene uteži.
Upravljanje modelov, naborov podatkov in nalog za hiperpersonalizirane LLM-je lahko hitro postane preobremenjeno. Zbirke registra modelov SageMaker vam lahko pomaga združiti sorodne modele in jih organizirati v hierarhijo za izboljšanje odkrivanja modela. To olajša sledenje odnosom med osnovnimi utežmi, utežmi adapterjev in nabori podatkov nalog za natančno nastavitev. Ustvarite lahko tudi zapletene odnose in povezave med modeli.
Ustvarite novo zbirko in tej zbirki dodajte uteži svojih osnovnih modelov
Povežite vse svoje natančno nastavljene uteži LoRA Adapter Delta Weights s to zbirko glede na nalogo in/ali nabor podatkov
Posledica tega bo hierarhija zbirke, ki je povezana z vrsto modela/opravila in naborom podatkov, uporabljenim za natančno nastavitev osnovnega modela.
Ta metoda ločevanja osnovnih in adapterskih modelov ima nekaj pomanjkljivosti. Ena pomanjkljivost je zapletenost pri uvajanju modela. Ker obstajata dva ločena artefakta modela, potrebujete dodatne korake za ponovno pakiranje modela namesto uvajanja neposredno iz registra modelov. V naslednjem primeru kode najprej prenesite in znova zapakirajte najnovejšo različico osnovnega modela.
Nato prenesite in znova zapakirajte najnovejše natančno nastavljene uteži adapterjev LoRA.
Ker boste za gostovanje modela uporabljali storitev DJL z deepspeedom, bi moral biti vaš imenik sklepanja videti takole.
Na koncu zapakirajte sklepno kodo po meri, osnovni model in adapter LoRA v eno datoteko .tar.gz za uvajanje.
Čiščenje
Počistite svoje vire tako, da sledite navodilom v razdelku za čiščenje v zvezku. Nanašati se na Cene Amazon SageMaker za podrobnosti o stroških primerov sklepanja.
zaključek
Ta objava vas je vodila skozi najboljše prakse za upravljanje natančno nastavljenih modelov LoRA na Amazon SageMaker. Zajeli smo dve glavni metodi: združevanje uteži osnove in adapterja v en samostojen model ter ločevanje uteži osnove in adapterja. Oba pristopa imata kompromise, vendar ločevanje uteži pomaga optimizirati shranjevanje in omogoča napredne tehnike upravljanja modelov, kot so zbirke registra modelov SageMaker. To vam omogoča, da zgradite hierarhije in odnose med modeli za izboljšanje organizacije in vidnosti. Svetujemo vam, da preizkusite vzorčno kodo GitHub repozitorij da sami preizkusite te metode. Ker generativni AI hitro napreduje, vam bo sledenje najboljšim praksam upravljanja modelov pomagalo slediti eksperimentom, poiskati pravi model za vašo nalogo in učinkovito upravljati specializirane LLM-je v velikem obsegu.
Reference
O avtorjih
James Wu je višji specialist za AI/ML rešitve pri AWS. pomoč strankam pri načrtovanju in izdelavi rešitev AI/ML. Jamesovo delo pokriva širok spekter primerov uporabe ML, s primarnim zanimanjem za računalniški vid, globoko učenje in razširjanje ML v podjetju. Preden se je pridružil podjetju AWS, je bil James več kot 10 let arhitekt, razvijalec in tehnološki vodja, od tega 6 let v inženiringu in 4 leta v trženju in oglaševalski industriji.
Pranav Murthy je specialist za rešitve AI/ML pri AWS. Osredotoča se na pomoč strankam pri gradnji, usposabljanju, uvajanju in selitvi delovnih obremenitev strojnega učenja (ML) v SageMaker. Pred tem je delal v industriji polprevodnikov, razvijal modele velikega računalniškega vida (CV) in obdelave naravnega jezika (NLP) za izboljšanje polprevodniških procesov. V prostem času rad igra šah in potuje.
Mecit Gungor je specialist za rešitve AI/ML pri AWS, ki strankam pomaga načrtovati in zgraditi rešitve AI/ML v velikem obsegu. Pokriva široko paleto primerov uporabe umetne inteligence/ML za naročnike telekomunikacij in se trenutno osredotoča na generativno umetno inteligenco, študije LLM ter usposabljanje in optimizacijo sklepanja. Pogosto ga najdemo med pohodništvom v divjini ali igranjem družabnih iger s prijatelji v prostem času.
Shelbee Eigenbrode je glavni arhitekt za rešitve strokovnjaka za umetno inteligenco in strojno učenje pri Amazon Web Services (AWS). V tehnologiji je že 24 let in obsega več panog, tehnologij in vlog. Trenutno se osredotoča na združevanje svojega znanja DevOps in ML v domeno MLOps, da bi strankam pomagala dostaviti in upravljati delovne obremenitve ML v velikem obsegu. Z več kot 35 patenti, podeljenimi na različnih tehnoloških področjih, ima strast do nenehnih inovacij in uporabe podatkov za spodbujanje poslovnih rezultatov. Shelbee je soustvarjalec in inštruktor specializacije Practical Data Science na Courseri. Je tudi sodirektorica Women In Big Data (WiBD), Denver Chapter. V prostem času se rada druži z družino, prijatelji in preaktivnimi psi.
- Distribucija vsebine in PR s pomočjo SEO. Okrepite se še danes.
- PlatoData.Network Vertical Generative Ai. Opolnomočite se. Dostopite tukaj.
- PlatoAiStream. Web3 Intelligence. Razširjeno znanje. Dostopite tukaj.
- PlatoESG. Ogljik, CleanTech, Energija, Okolje, sončna energija, Ravnanje z odpadki. Dostopite tukaj.
- PlatoHealth. Obveščanje o biotehnologiji in kliničnih preskušanjih. Dostopite tukaj.
- vir: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :ima
- : je
- :ne
- :kje
- $GOR
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- sposobnost
- O meni
- Sprejmi
- sprejemljiv
- dostop
- dostopna
- čez
- prilagoditev
- prilagaja
- dodajte
- dodajanje
- Dodatne
- Poleg tega
- Naslov
- sprejme
- napredno
- Prednost
- Prednosti
- Oglaševanje
- po
- Sporazum
- AI
- AI prav
- AI / ML
- vsi
- omogočajo
- omogoča
- že
- Prav tako
- Amazon
- Amazon SageMaker
- Amazon SageMaker Studio
- Storitev Amazon Simple Storage (S3)
- Amazon Web Services
- Amazonske spletne storitve (AWS)
- zneski
- an
- analizirati
- in
- Še ena
- kaj
- API
- aplikacije
- pristop
- pristopi
- odobren
- približno
- SE
- območja
- AS
- Sodelavec
- At
- samodejno
- Avtomatizacija
- Na voljo
- AWS
- nazaj
- ozadje
- ovire
- baza
- BE
- ker
- postanejo
- postane
- bilo
- vedenje
- Prednosti
- BEST
- najboljše prakse
- med
- Big
- Big Podatki
- Billion
- milijardah
- Block
- svet
- Namizne igre
- tako
- Meje
- izgradnjo
- poslovni
- vendar
- by
- povratne klice
- se imenuje
- CAN
- zmožnost
- zajemanje
- previdni
- primeru
- primeri
- izziv
- izzivi
- Poglavje
- Charts
- Šah
- razred
- jasno
- Koda
- Koda
- zbirka
- Zbirke
- združujejo
- kombinirani
- združuje
- združevanje
- Podjetja
- primerjate
- Primerjava
- konkurenčno
- kompleksna
- kompleksnost
- komponenta
- deli
- računanje
- računalniški
- računalnik
- Računalniška vizija
- Pogoji
- upoštevamo
- vsebina
- ustvarjanje vsebine
- stalno
- neprekinjeno
- Core
- strošek
- bi
- zajeti
- Ovitki
- ustvarjajo
- ustvaril
- Oblikovanje
- ustvarjalnost
- Trenutno
- po meri
- stranka
- Pomoč strankam
- Stranke, ki so
- customization
- prilagodite
- vrhunsko
- datum
- znanost o podatkih
- nabor podatkov
- globoko
- globoko učenje
- globlje
- privzeto
- od
- poda
- Delta
- izkazati
- Denver
- razporedi
- razporejeni
- uvajanja
- uvajanje
- Oblikovanje
- Podrobnosti
- Razvojni
- razvoju
- Razvoj
- drugačen
- težko
- neposredno
- zaslon
- distribuirati
- distribucijo
- potop
- domena
- domen
- prenesi
- pomanjkljivosti
- pogon
- med
- vsak
- lažje
- enostavno
- Edge
- učinkovite
- učinkovito
- ostalo
- smirkovim
- omogoča
- spodbujanje
- konec koncev
- Končna točka
- Inženiring
- Podjetje
- entiteta
- okolje
- epoha
- Era
- itd
- oceniti
- Ocena
- Primer
- Primeri
- izjemoma
- izvedba
- obstoječih
- drago
- izkušnje
- poskus
- Poskusi
- strokovno znanje
- eksponentno
- Obraz
- Napaka
- družina
- hitreje
- Feature
- Lastnosti
- file
- datoteke
- Najdi
- konec
- prva
- Všita
- prilagodljivost
- Osredotoča
- osredotoča
- po
- za
- je pokazala,
- Fundacija
- brezplačno
- prijatelji
- iz
- polno
- funkcija
- nadalje
- Prihodnost
- Gain
- pridobljeno
- Games
- Prehod
- ustvarjajo
- generativno
- Generativna AI
- Go
- dogaja
- dobro
- GPU
- odobreno
- graf
- grafi
- skupina
- Skupine
- strani
- ročaj
- Imajo
- ob
- he
- pomoč
- pomoč
- Pomaga
- jo
- hierarhija
- zelo
- njegov
- gostitelj
- najbolj vročih
- Kako
- Kako
- Vendar
- HTML
- HTTPS
- HuggingFace
- ponazarja
- slika
- izvajati
- Izvajanje
- uvoz
- Pomembno
- kar je pomembno
- uvoz
- izboljšanje
- in
- vključeno
- vključuje
- Vključno
- Povečajte
- Poveča
- narašča
- Neodvisni
- neodvisno
- industrij
- Industrija
- neučinkovitosti
- napihne
- Podatki
- Inovacije
- vhod
- primer
- Namesto
- Navodila
- integrirati
- integrirana
- obresti
- Internet
- v
- Predstavlja
- IT
- ITS
- james
- Java
- Job
- Delovna mesta
- pridružil
- jpg
- Imejte
- vzdrževanje
- Ključne
- brcati
- znanje
- jezik
- velika
- Največji
- Zadnji
- Vodja
- Interesenti
- učenje
- Lets
- Stopnja
- Knjižnica
- Licenca
- Leži
- kot
- všeč mi je
- LINK
- povezane
- Navedeno
- LLM
- obremenitev
- nalaganje
- lokalna
- kraj aktivnosti
- prijavi
- sečnja
- Logika
- Poglej
- izgleda kot
- si
- off
- stroj
- strojno učenje
- Glavne
- IZDELA
- Izdelava
- upravljanje
- upravlja
- upravljanje
- upravljanje
- več
- Trženje
- Trženje in oglaševanje
- ogromen
- Maj ..
- Spomin
- Spoji
- združitev
- metapodatki
- Metoda
- Metode
- Meritve
- selitev
- ML
- MLOps
- način
- Model
- modeli
- Moduli
- več
- več
- Ime
- naravna
- Obdelava Natural Language
- potrebno
- Nimate
- potrebujejo
- potrebe
- Novo
- nlp
- prenosnik
- zdaj
- Številka
- of
- off
- Ponudbe
- pogosto
- on
- enkrat
- ONE
- samo
- operativno
- operacije
- optimizacija
- Optimizirajte
- optimizirana
- optimizacijo
- or
- Organizacija
- organizacije
- izvirno
- Ostalo
- naši
- rezultatov
- izhod
- več
- Premagajte
- velika
- lastne
- paket
- parameter
- parametri
- del
- strast
- Patenti
- pot
- odstotkov
- performance
- Dovoljenja
- kosov
- platon
- Platonova podatkovna inteligenca
- PlatoData
- igranje
- plus
- politika
- Popular
- Priljubljenost
- del
- mogoče
- Prispevek
- moč
- močan
- Praktično
- vaje
- predpogoji
- darila
- ohranjanje
- preprečiti
- prej
- primarni
- , ravnateljica
- Predhodna
- Postopek
- Procesi
- obravnavati
- Napredek
- pravilno
- Lastnosti
- zagotavlja
- Push
- Python
- pitorha
- vprašanje
- hitro
- območje
- hitro
- v realnem času
- Razlog
- Razlogi
- Pred kratkim
- zmanjša
- Zmanjšana
- zmanjšuje
- zmanjšanje
- glejte
- razmišljanje
- Registracija
- registriranih
- registra
- povezane
- Razmerja
- pomembno
- izjemno
- Poročanje
- Skladišče
- zahteva
- obvezna
- Zahteve
- viri
- REST
- povzroči
- ponovna
- Pravica
- vloga
- vloge
- Run
- tek
- deluje
- runtime
- sagemaker
- Shrani
- shranjena
- shranjevanje
- Prihranki
- Lestvica
- skaliranje
- Znanost
- Znanstveniki
- SDK
- Iskalnik
- drugi
- Oddelek
- oddelki
- iskanju
- polprevodnik
- višji
- ločena
- ločitev
- Storitev
- Storitve
- služijo
- več
- Delite s prijatelji, znanci, družino in partnerji :-)
- delitev
- je
- shouldnt
- pokazale
- Razstave
- Podoben
- Enostavno
- saj
- sam
- Velikosti
- počasi
- majhna
- manj
- delček
- Rešitev
- rešitve
- nekaj
- vir
- Vesolje
- napetost
- specialist
- specializirani
- specifična
- posebej
- preživeti
- po delih
- interesne skupine
- Začetek
- Država
- state-of-the-art
- Status
- Korak
- Koraki
- Še vedno
- shranjevanje
- trgovina
- shranjeni
- studio
- taka
- podpora
- TAG
- ob
- Naloga
- Naloge
- tehnika
- tehnike
- Tehnologije
- Tehnologija
- telekomunikacije
- Pogoji
- Testiran
- besedilo
- da
- O
- njihove
- Njih
- POTEM
- Tukaj.
- te
- jih
- ta
- skozi
- čas
- do
- skupaj
- orodje
- baklo
- sledenje
- tradicionalna
- Vlak
- usposabljanje
- prenos
- transformator
- transformatorji
- Potovanje
- Res
- poskusite
- melodija
- uglašen
- tuning
- dva
- tip
- Vrste
- pod
- razumevanje
- Nadgradnja
- posodabljanje
- naložili
- URL
- uporaba
- primeru uporabe
- Rabljeni
- uporabnik
- Uporabniki
- uporabo
- potrjevanje
- dragocene
- vrednost
- raznolikost
- različnih
- Popravljeno
- različica
- različice
- zelo
- preko
- Poglej
- Vizija
- vizualna
- sprehod
- hodil
- želeli
- je
- način..
- načini
- we
- web
- spletne storitve
- kdaj
- ki
- medtem
- zakaj
- široka
- Širok spekter
- bo
- z
- v
- brez
- Ženske
- delo
- delal
- delovnih tokov
- deluje
- let
- Vi
- Vaša rutina za
- sami
- zefirnet