Suurandmete ja tehisintellekti ajastul otsivad ettevõtted pidevalt võimalusi nende tehnoloogiate kasutamiseks konkurentsieelise saavutamiseks. Praegu on AI üks kuumemaid valdkondi generatiivne AI ja seda mõjuval põhjusel. Generatiivne AI pakub võimsaid lahendusi, mis nihutavad loovuse ja uuenduslikkuse piire. Nende tipptasemel lahenduste tuumaks on vundamendimudel (FM), kõrgelt arenenud masinõppemudel, mis on eelkoolitatud suure hulga andmemahtude jaoks. Paljud neist alusmudelitest on näidanud märkimisväärset suutlikkust inimsarnase teksti mõistmisel ja genereerimisel, muutes need väärtuslikuks tööriistaks mitmesuguste rakenduste jaoks, alates sisu loomisest kuni klienditoe automatiseerimiseni.
Kuid need mudelid ei ole ilma väljakutseteta. Need on erakordselt suured ning nende koolitamiseks on vaja suuri andme- ja arvutusressursse. Lisaks võib koolitusprotsessi optimeerimine ja parameetrite kalibreerimine olla keeruline ja korduv protsess, mis nõuab teadmisi ja hoolikat katsetamist. Need võivad olla takistuseks paljudele organisatsioonidele, kes soovivad luua oma sihtasutuse mudeleid. Selle väljakutse ületamiseks kaaluvad paljud kliendid olemasolevate vundamendimudelite viimistlemist. See on populaarne tehnika väikese osa mudeli parameetrite kohandamiseks konkreetsete rakenduste jaoks, säilitades samas mudelis juba kodeeritud teadmised. See võimaldab organisatsioonidel kasutada nende mudelite võimsust, vähendades samal ajal konkreetse domeeni või ülesandega kohandamiseks vajalikke ressursse.
Vundamendimudelite peenhäälestamiseks on kaks peamist lähenemisviisi: traditsiooniline peenhäälestus ja parameetrite tõhus peenhäälestus. Traditsiooniline peenhäälestus hõlmab kõigi eelkoolitatud mudeli parameetrite värskendamist konkreetse allavoolu ülesande jaoks. Teisest küljest hõlmab parameetrite tõhus peenhäälestus mitmesuguseid tehnikaid, mis võimaldavad mudelit kohandada ilma kõiki originaalmudeli parameetreid värskendamata. Ühte sellist tehnikat nimetatakse madalatasemeliseks kohanemiseks (LoRA). See hõlmab väikeste ülesandespetsiifiliste moodulite lisamist eelkoolitatud mudelile ja nende koolitamist, säilitades samal ajal ülejäänud parameetrid, nagu on näidatud järgmisel pildil.
Allikas: Generatiivne AI AWS-is (O'Reilly, 2023)
LoRA on viimasel ajal populaarsust kogunud mitmel põhjusel. See pakub kiiremat koolitust, väiksemat mäluvajadust ja võimalust kasutada eelkoolitatud mudeleid mitme järgneva töö jaoks. Veelgi olulisem on see, et baasmudelit ja adapterit saab eraldi salvestada ja igal ajal kombineerida, muutes peenhäälestatud versioonide salvestamise, levitamise ja jagamise lihtsamaks. See toob aga kaasa uue väljakutse: kuidas neid uut tüüpi peenhäälestatud mudeleid õigesti hallata. Kas peaksite baasmudeli ja adapteri kombineerima või hoidma neid eraldi? Selles postituses käsitleme LoRA peenhäälestatud mudelite haldamise parimaid tavasid Amazon SageMaker selle esilekerkiva küsimuse lahendamiseks.
FM-idega töötamine SageMakeri mudeliregistris
Selles postituses käsitleme täielikku näidet Llama2 suure keelemudeli (LLM) peenhäälestusest QLoRA meetodil. QLoRA ühendab parameetrite tõhusa peenhäälestuse eelised 4-bitise/8-bitise kvantiseerimisega, et veelgi vähendada ressursse, mis on vajalikud FM-i peenhäälestamiseks konkreetsele ülesandele või kasutusjuhule. Selleks kasutame eelnevalt väljaõpetatud 7 miljardi parameetri Llama2 mudelit ja peenhäälestage seda andmestikus databricks-dolly-15k. LLM-idel, nagu Llama2, on miljardeid parameetreid ja nad on eelnevalt treenitud massiivsete tekstiandmete jaoks. Peenhäälestus kohandab LLM-i väiksema andmestiku abil allavoolu ülesandega. Suurte mudelite peenhäälestus on aga arvutuslikult kallis. Seetõttu kasutame arvutuskulude vähendamiseks peenhäälestuse ajal kaalude kvantifitseerimiseks QLoRA meetodit.
Meie näidetes leiate kaks märkmikku (llm-finetune-combined-with-registry.ipynb
ja llm-finetune-separate-with-registry.ipynb
). Igaüks neist töötab erineval viisil, et käsitleda LoRA peenhäälestatud mudeleid, nagu on näidatud järgmisel diagrammil:
- Esiteks laadime SageMaker Studio sülearvutite abil alla 2 miljardi parameetriga eelkoolitatud Llama7 mudeli. LLM-id, nagu Llama2, on domeenispetsiifiliste andmete peenhäälestamisel näidanud loomuliku keele töötlemise (NLP) ülesannete tipptasemel jõudlust.
- Järgmisena häälestame QLoRA meetodit kasutades andmestikus databricks-dolly-2k Llama15. QLoRA vähendab mudeli kaalude kvantiseerimisega peenhäälestuse arvutuskulusid.
- Peenhäälestuse ajal integreerime SageMaker Experiments Plusi Transformers API-ga, et automaatselt logida mõõdikud, nagu gradient, kadu jne.
- Seejärel versioonisime peenhäälestatud mudeli Llama2 SageMakeri mudeliregistris, kasutades kahte lähenemisviisi:
- Täismudeli salvestamine
- Adapteri ja baasmudeli eraldi hoidmine.
- Lõpuks hostime peenhäälestatud Llama2 mudeleid, kasutades Deep Java Library (DJL) teenindamist SageMakeri reaalajas lõpp-punktis.
Järgmistes jaotistes käsitleme kõiki neid etappe sügavamalt, et näidata SageMakeri paindlikkust erinevate LLM-i töövoogude jaoks ja seda, kuidas need funktsioonid võivad aidata teie mudelite toimimist parandada.
Eeldused
Koodiga katsetamise alustamiseks täitke järgmised eeltingimused.
- Loo SageMaker Studio domeen: Amazon SageMaker Studio, täpsemalt Studio sülearvutid, kasutatakse Llama2 peenhäälestusülesande käivitamiseks ning seejärel mudelite registreerimiseks ja vaatamiseks. SageMakeri mudeliregister. SageMakeri katsed kasutatakse ka Llama2 peenhäälestustöö logide vaatamiseks ja võrdlemiseks (treeningu kadu/testi kadu/jne).
- Looge Amazon Simple Storage Service (S3) ämber: Treeningartefaktide ja mudeliraskuste hoidmiseks on vaja juurdepääsu S3 ämbrile. Juhiste saamiseks vaadake Ämbri loomine. Selle postituse jaoks kasutatav näidiskood kasutab SageMakeri vaikimisi S3 ämbrit, kuid saate seda kohandada mis tahes asjakohase S3 ämbri kasutamiseks.
- Mudelikogude seadistamine (IAM-õigused): värskendage oma SageMakeri täitmisrolli ressursirühmade õigustega, nagu on loetletud jaotises Mudelregistrikogude arendaja juhend mudeliregistri rühmitamise juurutamiseks mudelikogude abil.
- Nõustuge Llama2 tingimuste ja tingimustega: Llama2 sihtasutuse mudeli kasutamiseks peate nõustuma lõppkasutaja litsentsilepingu ja vastuvõetava kasutuspoliitikaga.
Näited on saadaval aadressil GitHubi hoidla. Märkmiku faile testitakse Studio sülearvutites, mis töötavad PyTorch 2.0.0 Python 3.10 GPU optimeeritud kernelil ja ml.g4dn.xlarge eksemplaritüübil.
Katsed ja tagasihelistamise integreerimine
Amazon SageMakeri katsed võimaldab korraldada, jälgida, võrrelda ja hinnata masinõppe (ML) katseid ja mudeliversioone mis tahes integreeritud arenduskeskkonnast (IDE), sealhulgas kohalikest Jupyteri sülearvutitest, kasutades SageMaker Python SDK või boto3. See võimaldab paindlikult logida oma mudelimõõdikuid, parameetreid, faile, artefakte, joonistada erinevate mõõdikute diagramme, püüda erinevaid metaandmeid, otsida nendest ja toetada mudeli reprodutseeritavust. Andmeteadlased saavad visuaalsete diagrammide ja tabelite abil kiiresti võrrelda jõudlust ja hüperparameetreid mudeli hindamiseks. Samuti saavad nad kasutada SageMaker Experiments loodud diagrammide allalaadimiseks ja mudeli hinnangut oma sidusrühmadega jagada.
LLM-ide koolitamine võib olla aeglane, kulukas ja korduv protsess. Kasutaja jaoks on väga oluline jälgida LLM-i katsetamist mastaapselt, et vältida ebajärjekindlat mudeli häälestamise kogemust. HuggingFace Transformeri API-d võimaldab kasutajatel treeningülesannete ajal mõõdikuid jälgida Tagasihelistamine. Tagasihelistamised on kirjutuskaitstud koodilõigud, mis võivad kohandada PyTorch Traineri treeningtsükli käitumist, mis suudab kontrollida treeningtsükli olekut edenemise aruandluse jaoks, logida sisse TensorBoardi või SageMaker Experiments Plusi kohandatud loogika kaudu (mis sisaldub osana. sellest koodibaasist).
Saate importida selle postituse koodihoidlasse lisatud SageMaker Experimentsi tagasihelistamiskoodi, nagu on näidatud järgmises koodiplokis:
See tagasihelistamine logib treeningu osana automaatselt SageMaker Experimentsi järgmise teabe:
- Treeningu parameetrid ja hüperparameetrid
- Mudelikoolituse ja valideerimise kaotus etapis, epohhis ja finaalis
- Mudeli sisend- ja väljundartefaktid (koolituse andmestik, valideerimisandmekogum, mudeli väljundi asukoht, koolitussiluja ja palju muud)
Järgmine graafik näitab diagrammide näiteid, mida saate seda teavet kasutades kuvada.
See võimaldab teil mitut käitamist hõlpsasti võrrelda, kasutades SageMaker Experimentsi analüüsi funktsiooni. Saate valida katsed, mida soovite võrrelda, ja need täidavad automaatselt võrdlusgraafikud.
Registreerige peenhäälestatud mudelid mudeliregistri kogudesse
Mudelregistri kogud on SageMakeri mudeliregister mis võimaldab teil rühmitada registreeritud mudeleid, mis on omavahel seotud, ja korraldada need hierarhiasse, et parandada mudelite leitavust mastaabis. Kasutame mudeliregistri kogusid, et jälgida baasmudelit ja peenhäälestatud variante.
Täieliku mudeli kopeerimise meetod
Esimene meetod ühendab baasmudeli ja LoRA adapteri ning salvestab täielikult peenhäälestatud mudeli. Järgmine kood illustreerib mudelite ühendamise protsessi ja salvestab kombineeritud mudeli kasutades model.save_pretrained()
.
LoRA adapteri ja baasmudeli ühendamisel üheks mudeliartefaktiks pärast peenhäälestamist on eeliseid ja puudusi. Kombineeritud mudel on iseseisev ning seda saab iseseisvalt hallata ja juurutada, ilma et oleks vaja algset baasmudelit. Mudelit saab jälgida kui oma olemit, mille versiooni nimi kajastab baasmudelit ja peenhäälestusandmeid. Saame kasutusele võtta nomenklatuuri, kasutades base_model_name
+ peenhäälestatud dataset_name
mudelrühmade organiseerimiseks. Valikuliselt võivad mudelikogud seostada originaalseid ja peenhäälestatud mudeleid, kuid see ei pruugi olla vajalik, kuna kombineeritud mudel on sõltumatu. Järgmine koodilõik näitab, kuidas peenhäälestatud mudelit registreerida.
Mudeli registreerimiseks mudeliregistrisse saate kasutada koolituse hindajat.
Mudeliregistrist saate mudelipaketi alla laadida ja selle mudeli otse juurutada.
Sellel lähenemisviisil on aga puudusi. Mudelite kombineerimine toob kaasa salvestuse ebatõhususe ja liiasuse, kuna baasmudel dubleeritakse igas peenhäälestatud versioonis. Mudeli suuruse ja peenhäälestatud mudelite arvu suurenedes suurendab see hüppeliselt salvestusvajadusi. Võttes näiteks mudeli llama2 7b, on baasmudeli maht ligikaudu 13 GB ja peenhäälestatud mudelil 13.6 GB. 96% protsenti mudelist tuleb pärast iga peenhäälestamist dubleerida. Lisaks muutub väga suurte mudelifailide levitamine ja jagamine keerulisemaks ja tekitab tööprobleeme, kuna failiedastus- ja halduskulud suurenevad koos mudeli suuruse ja tööde peenhäälestusega.
Eraldi adapter ja alusmeetod
Teine meetod keskendub põhiraskuste ja adapteri kaalude eraldamisele, salvestades need eraldi mudelikomponentidena ja laadides need käitusajal järjestikku.
Aluse ja adapteri kaalu salvestamisel on sarnaselt Full Model Copy meetodile eelised ja puudused. Üks eelis on see, et see võib säästa salvestusruumi. Alusraskused, mis on peenhäälestatud mudeli suurim komponent, salvestatakse ainult üks kord ja neid saab uuesti kasutada koos teiste adapteri kaaludega, mis on häälestatud erinevate ülesannete jaoks. Näiteks Llama2-7B baaskaalud on umbes 13 GB, kuid iga peenhäälestustoimingu jaoks on vaja salvestada vaid umbes 0.6 GB adapteri kaalu, mis on 95% ruumisääst. Teine eelis on see, et baaskaalusid saab hallata adapteri kaaludest eraldi, kasutades ainult baaskaalude mudeliregistrit. See võib olla kasulik SageMakeri domeenide jaoks, mis töötavad ainult VPC-režiimis ilma Interneti-lüüsita, kuna baaskaaludele pääseb juurde ilma Interneti kaudu.
Looge aluskaalude jaoks mudelipaketi rühm
Looge QLoRA kaalude mudelipakettide rühm
Järgmine kood näitab, kuidas märgistada QLoRA kaalud andmestiku/ülesande tüübiga ja registreerida peenhäälestatud deltakaalud eraldi mudeliregistrisse ja jälgida deltakaalusid eraldi.
Järgmine väljavõte näitab mudeliregistri vaadet, kus mudelid on jagatud põhi- ja peenhäälestatud kaaludeks.
Hüperpersonaliseeritud LLM-ide mudelite, andmekogumite ja ülesannete haldamine võib kiiresti muutuda üle jõu käivaks. SageMakeri mudeliregistri kogud aitab teil rühmitada seotud mudeleid ja korraldada need hierarhiasse, et parandada mudelite leitavust. See muudab baaskaalude, adapteri kaalude ja ülesannete andmekogumite peenhäälestuse vaheliste seoste jälgimise lihtsamaks. Samuti saate luua keerukaid seoseid ja seoseid mudelite vahel.
Looge uus kollektsioon ja lisage sellesse kogusse oma baasmudeli kaalud
Linkige kõik oma peenhäälestatud LoRA adapteri deltakaalud selle koguga ülesande ja/või andmestiku järgi
Selle tulemuseks on koguhierarhia, mis on lingitud mudeli/ülesande tüübi ja baasmudeli peenhäälestamiseks kasutatava andmestiku järgi.
Sellel baas- ja adaptermudelite eraldamise meetodil on mõned puudused. Üheks puuduseks on mudeli juurutamise keerukus. Kuna mudelil on kaks eraldiseisvat artefakti, peate mudeli ümber pakkimiseks lisatoiminguid tegema, selle asemel et juurutada otse mudeliregistrist. Järgmises koodinäites laadige esmalt alla ja pakkige uuesti põhimudeli uusim versioon.
Seejärel laadige alla ja pakkige ümber uusimad peenhäälestatud LoRA adapteri kaalud.
Kuna kasutate mudeli hostimiseks DJL-i serveerimist sügava kiirusega, peaks teie järelduste kataloog välja nägema järgmine.
Lõpuks pakke kohandatud järelduskood, baasmudel ja LoRA-adapter juurutamiseks ühte .tar.gz-faili.
Koristage
Puhastage oma ressursse, järgides märkmiku puhastamise jaotises olevaid juhiseid. Viitama Amazon SageMakeri hinnakujundus lisateavet järeldusjuhtumite maksumuse kohta.
Järeldus
See postitus tutvustas teile Amazon SageMakeris LoRA peenhäälestatud mudelite haldamise parimaid tavasid. Käsitlesime kahte peamist meetodit: aluse ja adapteri raskuste ühendamine üheks iseseisvaks mudeliks ning aluse ja adapteri raskuste eraldamine. Mõlemal lähenemisviisil on kompromissid, kuid kaalude eraldamine aitab optimeerida salvestusruumi ja võimaldab täiustatud mudelihaldustehnikaid, nagu SageMakeri mudeliregistrikogud. See võimaldab teil luua mudelite vahel hierarhiaid ja suhteid, et parandada organisatsiooni ja leitavust. Soovitame teil proovida näidiskoodi GitHubi hoidla neid meetodeid ise katsetada. Kuna generatiivne tehisintellekt edeneb kiiresti, aitab mudelihalduse parimate tavade järgimine jälgida katseid, leida oma ülesande jaoks õige mudel ja hallata spetsialiseeritud LLM-e tõhusalt mastaapselt.
viited
Autoritest
James Wu on AWS-i vanem AI/ML-lahenduste spetsialist. aidata klientidel AI/ML lahendusi kavandada ja luua. Jamesi töö hõlmab laia valikut ML kasutusjuhtumeid, mille peamine huvi on arvutinägemine, sügav õppimine ja ML-i skaleerimine kogu ettevõttes. Enne AWS-iga liitumist oli James arhitekt, arendaja ja tehnoloogiajuht üle 10 aasta, sealhulgas 6 aastat inseneritöös ning 4 aastat turundus- ja reklaamitööstuses.
Pranav Murthy on AWS-i AI/ML-i spetsialistilahenduste arhitekt. Ta keskendub sellele, et aidata klientidel masinõppe (ML) töökoormust SageMakerisse luua, koolitada, juurutada ja üle viia. Varem töötas ta pooljuhttööstuses, arendades suuri arvutinägemise (CV) ja loomuliku keele töötlemise (NLP) mudeleid, et täiustada pooljuhtprotsesse. Vabal ajal meeldib talle malet mängida ja reisida.
Mecit Gungor on AWS-i AI/ML-i spetsialiseerunud lahendusarhitekt, kes aitab klientidel kavandada ja luua ulatuslikke AI/ML-lahendusi. Ta käsitleb laia valikut AI/ML kasutusjuhtumeid telekommunikatsiooni klientide jaoks ning keskendub praegu generatiivsele AI-le, LLM-idele ning koolitusele ja järelduste optimeerimisele. Tihti võib teda kohata kõrbes matkamas või vabal ajal sõpradega lauamänge mängimas.
Shelbee Eigenbrode on Amazon Web Servicesi (AWS) tehisintellekti ja masinõppe spetsialisti lahenduste arhitekt. Ta on olnud tehnoloogia alal 24 aastat, hõlmates mitmeid tööstusharusid, tehnoloogiaid ja rolle. Praegu keskendub ta oma DevOpsi ja ML-tausta ühendamisele MLOps-i domeeniga, et aidata klientidel ML-i töökoormust ulatuslikult toimetada ja hallata. Kuna ta on erinevates tehnoloogiavaldkondades välja antud üle 35 patendi, tunneb ta kirge pideva innovatsiooni ja andmete kasutamise vastu äritulemuste edendamiseks. Shelbee on Coursera praktilise andmeteaduse eriala kaaslooja ja juhendaja. Ta on ka Denveri peatüki naiste suurandmete (WiBD) kaasdirektor. Vabal ajal meeldib talle veeta aega oma pere, sõprade ja üliaktiivsete koertega.
- SEO-põhise sisu ja PR-levi. Võimenduge juba täna.
- PlatoData.Network Vertikaalne generatiivne Ai. Jõustage ennast. Juurdepääs siia.
- PlatoAiStream. Web3 luure. Täiustatud teadmised. Juurdepääs siia.
- PlatoESG. Süsinik, CleanTech, Energia, Keskkond päikeseenergia, Jäätmekäitluse. Juurdepääs siia.
- PlatoTervis. Biotehnoloogia ja kliiniliste uuringute luureandmed. Juurdepääs siia.
- Allikas: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :on
- :on
- :mitte
- : kus
- $ UP
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- võime
- MEIST
- aktsepteerima
- vastuvõetav
- juurdepääs
- pääses
- üle
- kohandamine
- kohaneb
- lisama
- lisades
- Täiendavad lisad
- Lisaks
- aadress
- vastu võtma
- edasijõudnud
- ADEelis
- eelised
- reklaam
- pärast
- Kokkulepe
- AI
- AI õige
- AI / ML
- Materjal: BPA ja flataatide vaba plastik
- võimaldama
- võimaldab
- juba
- Ka
- Amazon
- Amazon SageMaker
- Amazon SageMaker Studio
- Amazon Simple Storage Service (S3)
- Amazon Web Services
- Amazon Web Services (AWS)
- summad
- an
- analüüsima
- ja
- Teine
- mistahes
- API
- rakendused
- lähenemine
- lähenemisviisid
- heaks
- umbes
- OLEME
- valdkondades
- AS
- Partner
- At
- automaatselt
- Automaatika
- saadaval
- AWS
- tagasi
- tagapõhi
- tõkked
- baas
- BE
- sest
- muutuma
- muutub
- olnud
- käitumine
- Kasu
- BEST
- parimaid tavasid
- vahel
- Suur
- Big andmed
- Miljard
- miljardeid
- Blokeerima
- juhatus
- Lauamängud
- mõlemad
- piirid
- ehitama
- äri
- kuid
- by
- tagasihelistamine
- kutsutud
- CAN
- võime
- lüüa
- ettevaatlik
- juhul
- juhtudel
- väljakutse
- väljakutseid
- Peatükk
- Äritegevus
- Male
- klass
- selge
- kood
- Koodbaas
- kogumine
- Kollektsioonid
- ühendama
- kombineeritud
- ühendab
- kombineerimine
- Ettevõtted
- võrdlema
- võrdlus
- konkurentsivõimeline
- keeruline
- keerukus
- komponent
- komponendid
- arvutamine
- arvutuslik
- arvuti
- Arvuti visioon
- Tingimused
- arvestades
- sisu
- sisu loomine
- jätkuvalt
- pidev
- tuum
- Maksma
- võiks
- kaetud
- KATTED
- looma
- loodud
- loomine
- loovus
- Praegu
- tava
- klient
- Klienditugi
- Kliendid
- kohandamine
- kohandada
- viimase peal
- andmed
- andmeteadus
- andmekogumid
- sügav
- sügav õpe
- sügavam
- vaikimisi
- kohta
- tarnima
- Delta
- näitama
- Denver
- juurutada
- lähetatud
- juurutamine
- kasutuselevõtu
- Disain
- detailid
- arendaja
- arenev
- & Tarkvaraarendus
- erinev
- raske
- otse
- Ekraan
- levitada
- levitamine
- sukelduma
- domeen
- Domeenid
- lae alla
- puudused
- ajam
- ajal
- iga
- lihtsam
- kergesti
- serv
- tõhus
- tõhusalt
- teine
- smirgel
- võimaldab
- julgustama
- Lõpuks-lõpuni
- Lõpp-punkt
- Inseneriteadus
- ettevõte
- üksus
- keskkond
- epohh
- Ajastu
- jms
- hindama
- hindamine
- näide
- näited
- erandkorras
- täitmine
- olemasolevate
- kallis
- kogemus
- eksperiment
- katseid
- teadmised
- eksponentsiaalselt
- nägu
- ebaedu
- pere
- kiiremini
- tunnusjoon
- FUNKTSIOONID
- fail
- Faile
- leidma
- lõpp
- esimene
- fikseeritud
- Paindlikkus
- keskendub
- keskendumine
- Järel
- eest
- avastatud
- Sihtasutus
- tasuta
- sõbrad
- Alates
- täis
- funktsioon
- edasi
- tulevik
- kasu
- saadud
- Mängud
- värav
- teeniva
- generatiivne
- Generatiivne AI
- Go
- läheb
- hea
- GPU
- antud
- graafik
- graafikud
- Grupp
- Grupi omad
- käsi
- käepide
- Olema
- võttes
- he
- aitama
- aidates
- aitab
- siin
- hierarhia
- kõrgelt
- tema
- võõrustaja
- kuumim
- Kuidas
- Kuidas
- aga
- HTML
- HTTPS
- Kallistav Nägu
- illustreerib
- pilt
- rakendada
- täitmine
- import
- oluline
- tähtsam
- impordi
- parandama
- in
- lisatud
- hõlmab
- Kaasa arvatud
- Suurendama
- Tõstab
- kasvav
- sõltumatud
- iseseisvalt
- tööstusharudes
- tööstus
- ebaefektiivsus
- paisutab
- info
- Innovatsioon
- sisend
- Näiteks
- selle asemel
- juhised
- integreerima
- integreeritud
- huvi
- Internet
- sisse
- Tutvustab
- IT
- ITS
- james
- Java
- töö
- Tööturg
- liitumine
- jpg
- hoidma
- pidamine
- Võti
- lüüa
- teadmised
- keel
- suur
- suurim
- hiljemalt
- juht
- Leads
- õppimine
- Lets
- Tase
- Raamatukogu
- litsents
- peitub
- nagu
- meeldib
- LINK
- seotud
- Loetletud
- LLM
- koormus
- laadimine
- kohalik
- liising
- logi
- metsaraie
- loogika
- Vaata
- näeb välja
- otsin
- kaotus
- masin
- masinõpe
- põhiline
- TEEB
- Tegemine
- juhtima
- juhitud
- juhtimine
- juhtiv
- palju
- Turundus
- Turundus ja reklaam
- suur
- mai..
- Mälu
- Merge
- ühinevad
- Metaandmed
- meetod
- meetodid
- Meetrika
- rännanud
- ML
- MLOps
- viis
- mudel
- mudelid
- Moodulid
- rohkem
- mitmekordne
- nimi
- Natural
- Natural Language Processing
- vajalik
- Vajadus
- vajav
- vajadustele
- Uus
- nlp
- märkmik
- nüüd
- number
- of
- maha
- Pakkumised
- sageli
- on
- kunagi
- ONE
- ainult
- töökorras
- Operations
- optimeerimine
- optimeerima
- optimeeritud
- optimeerimine
- or
- organisatsioon
- organisatsioonid
- originaal
- Muu
- meie
- tulemusi
- väljund
- üle
- Ületada
- tohutu
- enda
- pakend
- parameeter
- parameetrid
- osa
- kirg
- Patendi
- tee
- protsent
- jõudlus
- Õigused
- tükki
- Platon
- Platoni andmete intelligentsus
- PlatoData
- mängimine
- pluss
- poliitika
- populaarne
- populaarsus
- osa
- võimalik
- post
- võim
- võimas
- Praktiline
- tavad
- eeldused
- kingitusi
- säilitamine
- vältida
- varem
- esmane
- Peamine
- Eelnev
- protsess
- Protsessid
- töötlemine
- Edu
- korralikult
- omadused
- annab
- Lükkama
- Python
- pütorch
- küsimus
- kiiresti
- valik
- kiiresti
- reaalajas
- põhjus
- põhjustel
- hiljuti
- vähendama
- Lühendatud
- vähendab
- vähendamine
- viitama
- peegeldav
- registreerima
- registreeritud
- registri
- seotud
- Suhted
- asjakohane
- tähelepanuväärne
- Aruandlus
- Hoidla
- nõudma
- nõutav
- Nõuded
- Vahendid
- REST
- kaasa
- taaskasutada
- õige
- Roll
- rollid
- jooks
- jooksmine
- jookseb
- runtime
- salveitegija
- Säästa
- salvestatud
- säästmine
- Hoiused
- Skaala
- ketendamine
- teadus
- teadlased
- SDK
- Otsing
- Teine
- Osa
- lõigud
- otsib
- pooljuht
- vanem
- eri
- eraldamine
- teenus
- Teenused
- teenindavad
- mitu
- Jaga
- jagamine
- ta
- peaks
- näidatud
- Näitused
- sarnane
- lihtne
- alates
- ühekordne
- SUURUS
- aeglane
- väike
- väiksem
- jupp
- lahendus
- Lahendused
- mõned
- allikas
- Ruum
- Pinge
- spetsialist
- spetsialiseeritud
- konkreetse
- eriti
- kulutama
- jagada
- huvirühmad
- algus
- riik
- modernne
- olek
- Samm
- Sammud
- Veel
- ladustamine
- salvestada
- ladustatud
- stuudio
- selline
- toetama
- TAG
- võtmine
- Ülesanne
- ülesanded
- tehnika
- tehnikat
- Tehnoloogiad
- Tehnoloogia
- elekterside
- tingimused
- katsetatud
- tekst
- et
- .
- oma
- Neile
- SIIS
- Seal.
- Need
- nad
- see
- Läbi
- aeg
- et
- kokku
- tööriist
- tõrvik
- jälgida
- traditsiooniline
- Rong
- koolitus
- üle
- trafo
- trafod
- Reisimine
- tõsi
- püüdma
- meloodia
- häälestatud
- häälestamine
- kaks
- tüüp
- liigid
- all
- mõistmine
- Värskendused
- ajakohastamine
- laetud
- URL
- kasutama
- kasutage juhtumit
- Kasutatud
- Kasutaja
- Kasutajad
- kasutamine
- kinnitamine
- väärtuslik
- väärtus
- sort
- eri
- suur
- versioon
- versioonid
- väga
- kaudu
- vaade
- nägemus
- visuaalne
- kõndima
- kõndis
- tahan
- oli
- Tee..
- kuidas
- we
- web
- veebiteenused
- millal
- mis
- kuigi
- miks
- lai
- Lai valik
- will
- koos
- jooksul
- ilma
- Naised
- Töö
- töötas
- Töövoogud
- töötab
- aastat
- sa
- Sinu
- ise
- sephyrnet