Big datan ja tekoälyn aikakaudella yritykset etsivät jatkuvasti tapoja käyttää näitä teknologioita kilpailuedun saavuttamiseksi. Yksi tekoälyn kuumimmista alueista tällä hetkellä on generatiivinen tekoäly, ja hyvästä syystä. Generatiivinen tekoäly tarjoaa tehokkaita ratkaisuja, jotka ylittävät luovuuden ja innovaation mahdollisuuksien rajoja. Näiden huippuluokan ratkaisujen ytimessä on perusmalli (FM), erittäin edistynyt koneoppimismalli, joka on valmiiksi koulutettu valtaviin tietomääriin. Monet näistä perusmalleista ovat osoittaneet huomattavaa kykyä ymmärtää ja luoda ihmisen kaltaista tekstiä, mikä tekee niistä arvokkaan työkalun erilaisiin sovelluksiin sisällön luomisesta asiakastuen automatisointiin.
Näissä malleissa ei kuitenkaan ole haasteita. Ne ovat poikkeuksellisen suuria ja vaativat suuria tietomääriä ja laskentaresursseja kouluttaakseen. Lisäksi koulutusprosessin optimointi ja parametrien kalibrointi voi olla monimutkainen ja iteratiivinen prosessi, joka vaatii asiantuntemusta ja huolellista kokeilua. Nämä voivat olla esteitä monille organisaatioille, jotka haluavat rakentaa omia perusmallejaan. Tämän haasteen voittamiseksi monet asiakkaat harkitsevat olemassa olevien perusmallien hienosäätöä. Tämä on suosittu tekniikka säätää pientä osaa mallin parametreista tiettyjä sovelluksia varten säilyttäen silti malliin jo koodatun tiedon. Sen avulla organisaatiot voivat käyttää näiden mallien tehoa ja vähentää samalla tiettyyn toimialueeseen tai tehtävään mukauttamiseen tarvittavia resursseja.
Perusmallien hienosäätöön on kaksi ensisijaista lähestymistapaa: perinteinen hienosäätö ja parametritehokas hienosäätö. Perinteiseen hienosäätöön kuuluu esikoulutetun mallin kaikkien parametrien päivittäminen tiettyä loppupään tehtävää varten. Toisaalta parametrien tehokas hienosäätö sisältää erilaisia tekniikoita, jotka mahdollistavat mallin mukauttamisen päivittämättä kaikkia alkuperäisiä malliparametreja. Yksi tällainen tekniikka on nimeltään Low-rank Adaptation (LoRA). Se sisältää pienten, tehtäväkohtaisten moduulien lisäämisen esikoulutettuun malliin ja niiden harjoittamisen pitäen loput parametrit kiinteinä seuraavan kuvan mukaisesti.
Lähde: Generatiivinen tekoäly AWS:ssä (O'Reilly, 2023)
LoRA on saavuttanut viime aikoina suosiota useista syistä. Se tarjoaa nopeamman harjoittelun, pienemmät muistivaatimukset ja mahdollisuuden käyttää uudelleen esikoulutettuja malleja useisiin jatkotehtäviin. Vielä tärkeämpää on, että perusmalli ja sovitin voidaan tallentaa erikseen ja yhdistää milloin tahansa, mikä helpottaa hienosäädettyjen versioiden tallentamista, jakelua ja jakamista. Tämä tuo kuitenkin uuden haasteen: kuinka hallita näitä uudentyyppisiä hienosäädettyjä malleja oikein. Pitäisikö yhdistää perusmalli ja sovitin vai pitääkö ne erillään? Tässä viestissä käymme läpi parhaita käytäntöjä LoRA-hienosäätömallien hallintaan Amazon Sage Maker vastata tähän esiin nousevaan kysymykseen.
Työskentely FM:iden kanssa SageMaker-mallirekisterissä
Tässä viestissä käymme läpi päästä-päähän esimerkin Llama2-suuren kielimallin (LLM) hienosäädöstä QLoRA-menetelmällä. QLoRA yhdistää parametrien tehokkaan hienosäädön edut 4-bittiseen/8-bittiseen kvantisointiin vähentääkseen entisestään resursseja, joita tarvitaan FM:n hienosäätämiseen tiettyyn tehtävään tai käyttötapaukseen. Tätä varten käytämme valmiiksi koulutettua 7 miljardin parametrin Llama2-mallia ja hienosäädämme sitä databricks-dolly-15k-tietojoukossa. LLM:illä, kuten Llama2, on miljardeja parametreja, ja ne ovat valmiiksi koulutettuja massiivisiin tekstitietosarjoihin. Hienosäätö mukauttaa LLM:n loppupään tehtävään käyttämällä pienempää tietojoukkoa. Isojen mallien hienosäätö on kuitenkin laskennallisesti kallista. Tästä syystä käytämme QLoRA-menetelmää painojen kvantisoimiseen hienosäädön aikana laskeaksemme laskentakustannuksia.
Esimerkeissämme löydät kaksi muistikirjaa (llm-finetune-combined-with-registry.ipynb
ja llm-finetune-separate-with-registry.ipynb
). Jokainen toimii eri tavalla käsitellä LoRA-hienosäätömalleja seuraavan kaavion mukaisesti:
- Ensin lataamme valmiiksi koulutetun Llama2-mallin 7 miljardilla parametrilla SageMaker Studio -kannettavien avulla. LLM:t, kuten Llama2, ovat osoittaneet huippuluokan suorituskykyä luonnollisen kielen käsittelyn (NLP) tehtävissä, kun niitä on hienosäädetty toimialuekohtaisilla tiedoilla.
- Seuraavaksi hienosäädämme Llama2:ta databricks-dolly-15k-tietojoukossa QLoRA-menetelmällä. QLoRA vähentää hienosäädön laskentakustannuksia kvantisoimalla mallien painot.
- Hienosäädön aikana integroimme SageMaker Experiments Plus -sovelluksen Transformers API:n kanssa kirjataksemme automaattisesti mittareita, kuten kaltevuus, häviö jne.
- Versioimme sitten hienosäädetyn Llama2-mallin SageMaker-mallirekisterissä käyttämällä kahta lähestymistapaa:
- Koko mallin säilytys
- Säilytä sovitin ja perusmalli erikseen.
- Lopuksi isännöimme hienosäädetyt Llama2-mallit käyttämällä Deep Java Library (DJL) -palvelua SageMakerin reaaliaikaisessa päätepisteessä.
Seuraavissa osioissa sukeltamme syvemmälle jokaiseen näistä vaiheista osoittaaksemme SageMakerin joustavuuden erilaisille LLM-työnkuluille ja kuinka nämä ominaisuudet voivat auttaa parantamaan malliesi toimintaa.
Edellytykset
Täytä seuraavat edellytykset aloittaaksesi koodin kokeilun.
- Luo SageMaker Studio -verkkotunnus: Amazon SageMaker Studiota, erityisesti Studio Notebooksia, käytetään käynnistämään Llama2:n hienosäätötehtävä ja rekisteröimään ja tarkastelemaan malleja SageMaker-mallirekisteri. SageMaker-kokeet käytetään myös Llama2:n hienosäätötyölokien katseluun ja vertailuun (harjoitteluhäviö/testihäviö/jne.).
- Luo Amazon Simple Storage Service (S3) -ämpäri: Tarvitaan pääsy S3-kauhaan harjoitusartefaktien ja mallipainojen tallentamista varten. Katso ohjeet kohdasta Kauhan luominen. Tässä viestissä käytetty esimerkkikoodi käyttää SageMakerin oletusarvoista S3-säilöä, mutta voit mukauttaa sen käyttämään mitä tahansa asiaankuuluvaa S3-säilöä.
- Mallikokoelmien määrittäminen (IAM-oikeudet): Päivitä SageMaker-suoritusroolisi luvilla resurssiryhmiin, jotka on lueteltu kohdassa Mallirekisterikokoelmien kehittäjäopas toteuttaa mallirekisterien ryhmittely mallikokoelmien avulla.
- Hyväksy Llama2:n käyttöehdot: Sinun on hyväksyttävä loppukäyttäjän lisenssisopimus ja hyväksyttävä käyttökäytäntö Llama2-säätiön mallin käyttöä varten.
Esimerkit ovat saatavilla osoitteessa GitHub-arkisto. Muistikirjan tiedostot testataan Studio-kannettavissa PyTorch 2.0.0 Python 3.10 GPU Optimized -ytimessä ja ml.g4dn.xlarge ilmentymätyypissä.
Kokeilut ja takaisinsoittointegraatio
Amazon SageMaker -kokeilut avulla voit järjestää, seurata, vertailla ja arvioida koneoppimiskokeita (ML) ja malliversioita mistä tahansa integroidusta kehitysympäristöstä (IDE), mukaan lukien paikalliset Jupyter-muistikirjat, käyttämällä SageMaker Python SDK:ta tai boto3:a. Se tarjoaa joustavuuden kirjata mallin mittareita, parametreja, tiedostoja, artefakteja, piirtää kaavioita eri mittareista, kaapata erilaisia metatietoja, etsiä niitä ja tukea mallin toistettavuutta. Tietotutkijat voivat nopeasti vertailla suorituskykyä ja hyperparametreja mallin arvioimiseksi visuaalisten kaavioiden ja taulukoiden avulla. He voivat myös ladata luotuja kaavioita SageMaker Experimentsin avulla ja jakaa mallin arvioinnin sidosryhmiensä kanssa.
LLM:ien kouluttaminen voi olla hidas, kallis ja iteratiivinen prosessi. On erittäin tärkeää, että käyttäjä seuraa LLM-kokeiluja mittakaavassa, jotta vältetään epäjohdonmukainen mallin virityskokemus. HuggingFace Transformer -sovellusliittymät avulla käyttäjät voivat seurata mittareita harjoitustehtävien aikana kutsuvastauksia. Takaisinkutsut ovat vain luku -koodin osia, jotka voivat mukauttaa PyTorch Trainerin harjoitussilmukan käyttäytymistä ja jotka voivat tarkistaa harjoitussilmukan tilan edistymisraportointia varten, kirjautua sisään TensorBoardiin tai SageMaker Experiments Plusiin mukautetun logiikan avulla (joka sisältyy osana tästä koodikannasta).
Voit tuoda tämän viestin koodivarastoon sisältyvän SageMaker Experiments -soittokoodin seuraavan koodilohkon osoittamalla tavalla:
Tämä takaisinsoitto kirjaa seuraavat tiedot automaattisesti SageMaker Experiments -ohjelmaan osana harjoitusajoa:
- Harjoitteluparametrit ja hyperparametrit
- Mallin koulutus- ja validointitappio Step, Epoch ja Final
- Mallin syöttö- ja tulostusartefaktit (koulutustietojoukko, validointitietojoukko, mallin tulosteen sijainti, harjoitusvirheenkorjaus ja paljon muuta)
Seuraavassa kaaviossa on esimerkkejä kaavioista, joita voit näyttää näiden tietojen avulla.
Näin voit verrata useita ajoja helposti SageMaker Experimentsin Analyze-ominaisuuden avulla. Voit valita koeajot, joita haluat verrata, ja ne täyttävät automaattisesti vertailukaaviot.
Rekisteröi hienosäädetyt mallit mallirekisterikokoelmiin
Mallin rekisterikokoelmat on ominaisuus SageMaker-mallirekisteri jonka avulla voit ryhmitellä toisiinsa liittyviä rekisteröityjä malleja ja järjestää ne hierarkioihin parantaaksesi mallien löydettävyyttä mittakaavassa. Käytämme mallirekisterikokoelmia seurataksemme perusmallia ja hienosäädettyjä muunnelmia.
Koko mallin kopiointimenetelmä
Ensimmäinen menetelmä yhdistää perusmallin ja LoRA-sovittimen ja tallentaa täydellisen hienosäädetyn mallin. Seuraava koodi havainnollistaa mallien yhdistämisprosessia ja tallentaa yhdistetyn mallin käyttämällä model.save_pretrained()
.
LoRA-sovittimen ja perusmallin yhdistämisellä yhdeksi malliartefaktiksi hienosäädön jälkeen on etuja ja haittoja. Yhdistetty malli on itsenäinen ja sitä voidaan hallita ja ottaa käyttöön itsenäisesti ilman alkuperäistä perusmallia. Mallia voidaan seurata omana kokonaisuutena perusmallia vastaavalla versionimellä ja hienosäätötiedoilla. Voimme ottaa käyttöön nimikkeistön käyttämällä base_model_name
+ hienosäädetty dataset_name
malliryhmien järjestämiseen. Valinnaisesti mallikokoelmat voivat yhdistää alkuperäiset ja hienosäädetyt mallit, mutta tämä ei välttämättä ole välttämätöntä, koska yhdistetty malli on itsenäinen. Seuraava koodinpätkä näyttää, kuinka hienosäädetty malli rekisteröidään.
Voit käyttää koulutusestimaattoria mallin rekisteröimiseen mallirekisteriin.
Mallirekisteristä voit noutaa mallipaketin ja ottaa mallin käyttöön suoraan.
Tällä lähestymistavalla on kuitenkin haittoja. Mallien yhdistäminen johtaa varastoinnin tehottomuuteen ja redundanssiin, koska perusmalli kopioidaan jokaisessa hienosäädetyssä versiossa. Mallin koon ja hienosäädettyjen mallien määrän kasvaessa tämä lisää tallennustarpeita eksponentiaalisesti. Esimerkkinä llama2 7b -mallin perusmalli on noin 13 Gt ja hienosäädetyssä mallissa 13.6 Gt. 96 % mallista on monistettava jokaisen hienosäädön jälkeen. Lisäksi erittäin suurten mallitiedostojen jakaminen ja jakaminen vaikeutuu ja asettaa toiminnallisia haasteita, kun tiedostojen siirto- ja hallintakustannukset kasvavat mallin koon kasvaessa ja töiden hienosäädön myötä.
Erillinen sovitin ja pohjamenetelmä
Toinen menetelmä keskittyy peruspainojen ja sovittimen painojen erottamiseen tallentamalla ne erillisiksi mallikomponenteiksi ja lataamalla ne peräkkäin ajon aikana.
Alustan ja sovittimen painojen säästämisellä on etuja ja haittoja, kuten Full Model Copy -menetelmässä. Yksi etu on, että se voi säästää tallennustilaa. Peruspainot, jotka ovat hienosäädetyn mallin suurin komponentti, tallennetaan vain kerran, ja niitä voidaan käyttää uudelleen muiden sovittimen painojen kanssa, jotka on viritetty eri tehtäviin. Esimerkiksi Llama2-7B:n peruspainot ovat noin 13 Gt, mutta kuhunkin hienosäätötehtävään tarvitsee tallentaa vain noin 0.6 Gt sovittimen painoja, mikä säästää 95 % tilaa. Toinen etu on, että peruspainoja voidaan hallita erikseen sovittimen painoista käyttämällä vain peruspainot -mallirekisteriä. Tämä voi olla hyödyllistä SageMaker-verkkotunnuksille, jotka toimivat vain VPC-tilassa ilman Internet-yhdyskäytävää, koska peruspainot ovat käytettävissä ilman Internetin kautta.
Luo mallipakettiryhmä peruspainoille
Luo mallipakettiryhmä QLoRA-painoille
Seuraava koodi näyttää, kuinka QLoRA-painot merkitään tietojoukon/tehtävän tyypillä ja rekisteröidään hienosäädetyt deltapainot erilliseen mallirekisteriin ja seurataan deltapainoja erikseen.
Seuraava katkelma näyttää mallirekisterin näkymän, jossa mallit on jaettu perus- ja hienosäädetyiksi painoiksi.
Hyperpersonoitujen LLM-yritysten mallien, tietojoukkojen ja tehtävien hallinta voi nopeasti muuttua ylivoimaiseksi. SageMaker-mallirekisterikokoelmat voi auttaa ryhmittelemään toisiinsa liittyviä malleja ja järjestämään ne hierarkiaan mallien löydettävyyden parantamiseksi. Tämä helpottaa peruspainojen, sovittimen painojen ja tehtävätietojoukkojen hienosäätöjen välisten suhteiden seurantaa. Voit myös luoda monimutkaisia suhteita ja yhteyksiä mallien välille.
Luo uusi kokoelma ja lisää perusmallisi painot tähän kokoelmaan
Linkitä kaikki hienosäädetyt LoRA-sovittimen deltapainot tähän kokoelmaan tehtävän ja/tai tietojoukon mukaan
Tämä johtaa kokoelmahierarkiaan, joka on linkitetty mallin/tehtävän tyypin ja perusmallin hienosäätöön käytetyn tietojoukon mukaan.
Tällä menetelmällä pohja- ja sovitinmallien erottamiseksi on joitain haittoja. Yksi haittapuoli on mallin käyttöönoton monimutkaisuus. Koska mallissa on kaksi erillistä artefaktia, tarvitset lisävaiheita mallin uudelleen pakkaamiseen sen sijaan, että ottaisit sen käyttöön suoraan mallirekisteristä. Seuraavassa koodiesimerkissä lataa ja pakkaa ensin perusmallin uusin versio.
Lataa ja pakkaa sitten uusimmat hienosäädetyt LoRA-sovittimen painot.
Koska käytät DJL-palvelua deepspeedillä mallin isännöimiseen, päätelmähakemistosi pitäisi näyttää seuraavalta.
Pakkaa lopuksi mukautettu päättelykoodi, perusmalli ja LoRA-sovitin yhteen .tar.gz-tiedostoon käyttöönottoa varten.
Puhdistaa
Siivoa resurssit noudattamalla muistikirjan puhdistusosion ohjeita. Viitata Amazon SageMaker -hinnoittelu lisätietoja päättelytapahtumien kustannuksista.
Yhteenveto
Tämä viesti opasti sinut parhaiden käytäntöjen läpi LoRA-hienosäätömallien hallintaan Amazon SageMakerissa. Käsittelimme kahta päämenetelmää: alustan ja sovittimen painojen yhdistäminen yhdeksi itsenäiseksi malliksi sekä alustan ja sovittimen painojen erottaminen toisistaan. Molemmissa lähestymistavoissa on kompromisseja, mutta painojen erottelu auttaa optimoimaan tallennustilaa ja mahdollistaa kehittyneet mallinhallintatekniikat, kuten SageMaker Model Registry Collections. Tämän avulla voit rakentaa hierarkioita ja suhteita mallien välille organisoinnin ja löydettävyyden parantamiseksi. Suosittelemme kokeilemaan mallikoodia GitHub-arkisto kokeilla näitä menetelmiä itse. Kun luova tekoäly edistyy nopeasti, mallinhallinnan parhaiden käytäntöjen noudattaminen auttaa sinua seuraamaan kokeita, löytämään tehtävällesi oikean mallin ja hallitsemaan erikoistuneita LLM-yrityksiä tehokkaasti laajassa mittakaavassa.
Viitteet
Tietoja kirjoittajista
James Wu on AWS:n vanhempi AI/ML-asiantuntijaratkaisuarkkitehti. auttaa asiakkaita suunnittelemaan ja rakentamaan AI/ML-ratkaisuja. Jamesin työ kattaa laajan valikoiman ML-käyttötapauksia, ja hänen ensisijaisena kiinnostuksena ovat tietokonenäkö, syväoppiminen ja ML:n skaalaaminen koko yrityksessä. Ennen AWS:ään liittymistään James oli arkkitehti, kehittäjä ja teknologiajohtaja yli 10 vuoden ajan, joista 6 vuotta suunnittelussa ja 4 vuotta markkinointi- ja mainontateollisuudessa.
Pranav Murthy on AI/ML Specialist Solutions -arkkitehti AWS:ssä. Hän keskittyy auttamaan asiakkaita rakentamaan, kouluttamaan, ottamaan käyttöön ja siirtämään koneoppimistyökuormia SageMakeriin. Hän työskenteli aiemmin puolijohdeteollisuudessa kehittäen suuria tietokonenäkö- (CV) ja luonnollisen kielen käsittelymalleja (NLP) puolijohdeprosessien parantamiseksi. Vapaa-ajallaan hän pelaa shakkia ja matkustaa.
Mecit Gungor on AWS:n AI/ML-asiantuntijaratkaisuarkkitehti, joka auttaa asiakkaita suunnittelemaan ja rakentamaan AI/ML-ratkaisuja mittakaavassa. Hän kattaa laajan valikoiman AI/ML-käyttötapauksia televiestintäasiakkaille ja keskittyy tällä hetkellä generatiiviseen tekoälyyn, LLM:ihin sekä koulutukseen ja päätelmien optimointiin. Hänet voi usein tavata vaeltamassa erämaassa tai pelaamassa lautapelejä ystäviensä kanssa vapaa-ajallaan.
Shelbee Eigenbrode on johtava tekoäly- ja koneoppimisasiantuntijaratkaisujen arkkitehti Amazon Web Servicesissä (AWS). Hän on työskennellyt tekniikan parissa 24 vuoden ajan useilla toimialoilla, teknologioilla ja rooleilla. Hän keskittyy parhaillaan yhdistämään DevOps- ja ML-taustansa MLOps-alueeseen auttaakseen asiakkaita toimittamaan ja hallitsemaan ML-työkuormia laajasti. Hänellä on yli 35 patenttia, jotka on myönnetty eri teknologia-alueille, ja hän on intohimoinen jatkuvaan innovaatioon ja tiedon käyttämiseen liiketoiminnan tulosten edistämiseen. Shelbee on Courseran Practical Data Science -erikoisalan luoja ja ohjaaja. Hän on myös naisten Big Datan (WiBD) Denver-luvun apulaisjohtaja. Vapaa-ajallaan hän viettää mielellään aikaa perheensä, ystäviensä ja yliaktiivisten koirien kanssa.
- SEO-pohjainen sisällön ja PR-jakelu. Vahvista jo tänään.
- PlatoData.Network Vertical Generatiivinen Ai. Vahvista itseäsi. Pääsy tästä.
- PlatoAiStream. Web3 Intelligence. Tietoa laajennettu. Pääsy tästä.
- PlatoESG. hiili, CleanTech, energia, ympäristö, Aurinko, Jätehuolto. Pääsy tästä.
- PlatonHealth. Biotekniikan ja kliinisten kokeiden älykkyys. Pääsy tästä.
- Lähde: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :on
- :On
- :ei
- :missä
- $ YLÖS
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- kyky
- Meistä
- Hyväksyä
- hyväksyttävä
- pääsy
- Accessed
- poikki
- sovitus
- mukautuu
- lisätä
- lisää
- lisä-
- Lisäksi
- osoite
- hyväksyä
- kehittynyt
- Etu
- etuja
- mainonta
- Jälkeen
- sopimus
- AI
- AI oikein
- AI / ML
- Kaikki
- sallia
- mahdollistaa
- jo
- Myös
- Amazon
- Amazon Sage Maker
- Amazon SageMaker Studio
- Amazon Simple Storage Service (S3)
- Amazon Web Services
- Amazon Web Services (AWS)
- määrät
- an
- analysoida
- ja
- Toinen
- Kaikki
- api
- sovellukset
- lähestymistapa
- lähestymistavat
- hyväksytty
- suunnilleen
- OVAT
- alueet
- AS
- Työtoveri
- At
- automaattisesti
- Automaatio
- saatavissa
- AWS
- takaisin
- tausta
- esteet
- pohja
- BE
- koska
- tulevat
- tulee
- ollut
- käyttäytyminen
- Hyödyt
- PARAS
- parhaat käytännöt
- välillä
- Iso
- Big Data
- Miljardi
- miljardeja
- Tukkia
- hallitus
- Lautapelit
- sekä
- rajat
- rakentaa
- liiketoiminta
- mutta
- by
- takaisinsoittoja
- nimeltään
- CAN
- valmiudet
- kaapata
- varovainen
- tapaus
- tapauksissa
- haaste
- haasteet
- Luku
- Kaaviot
- shakki
- luokka
- selkeä
- koodi
- ao
- kokoelma
- kokoelmat
- yhdistää
- yhdistetty
- yhdistää
- yhdistely
- Yritykset
- verrata
- vertailu
- kilpailukykyinen
- monimutkainen
- monimutkaisuus
- komponentti
- osat
- laskeminen
- laskennallinen
- tietokone
- Tietokoneen visio
- olosuhteet
- ottaen huomioon
- pitoisuus
- sisällön luominen
- jatkuvasti
- jatkuva
- Ydin
- Hinta
- voisi
- katettu
- Covers
- luoda
- luotu
- luominen
- luovuus
- Tällä hetkellä
- asiakassuhde
- asiakas
- Asiakaspalvelu
- Asiakkaat
- räätälöinnin
- räätälöidä
- leikkaamisreuna
- tiedot
- tietojenkäsittely
- aineistot
- syvä
- syvä oppiminen
- syvempää
- oletusarvo
- ja
- toimittaa
- Delta
- osoittaa
- Denver
- sijoittaa
- käyttöön
- levityspinnalta
- käyttöönotto
- Malli
- yksityiskohdat
- Kehittäjä
- kehittämällä
- Kehitys
- eri
- vaikea
- suoraan
- näyttö
- jakaa
- jako-
- sukellus
- verkkotunnuksen
- verkkotunnuksia
- download
- haitat
- ajaa
- aikana
- kukin
- helpompaa
- helposti
- reuna
- tehokas
- tehokkaasti
- muu
- syntymässä
- mahdollistaa
- kannustaa
- päittäin
- päätepiste
- Tekniikka
- yritys
- kokonaisuus
- ympäristö
- aikakausi
- Aikakausi
- jne.
- arvioida
- arviointi
- esimerkki
- Esimerkit
- poikkeuksellisen
- teloitus
- olemassa
- kallis
- experience
- kokeilu
- kokeiluja
- asiantuntemus
- eksponentiaalisesti
- Kasvot
- Epäonnistuminen
- perhe
- nopeampi
- Ominaisuus
- Ominaisuudet
- filee
- Asiakirjat
- Löytää
- loppu
- Etunimi
- kiinteä
- Joustavuus
- keskittyy
- tarkennus
- jälkeen
- varten
- löytyi
- perusta
- Ilmainen
- ystäviä
- alkaen
- koko
- toiminto
- edelleen
- tulevaisuutta
- Saada
- saadut
- Pelit
- portti
- tuottaa
- generatiivinen
- Generatiivinen AI
- Go
- menee
- hyvä
- GPU
- myönnetty
- kaavio
- kaaviot
- Ryhmä
- Ryhmän
- käsi
- kahva
- Olla
- ottaa
- he
- auttaa
- auttaa
- auttaa
- hänen
- hierarkia
- erittäin
- hänen
- isäntä
- kuumin
- Miten
- Miten
- Kuitenkin
- HTML
- HTTPS
- HalaaKasvot
- havainnollistaa
- kuva
- toteuttaa
- täytäntöönpano
- tuoda
- tärkeä
- merkittävästi
- tuonti
- parantaa
- in
- mukana
- sisältää
- Mukaan lukien
- Kasvaa
- Lisäykset
- lisää
- itsenäinen
- itsenäisesti
- teollisuuden
- teollisuus
- tehottomuus
- täyttyy
- tiedot
- Innovaatio
- panos
- esimerkki
- sen sijaan
- ohjeet
- yhdistää
- integroitu
- korko
- Internet
- tulee
- Esittelee
- IT
- SEN
- Jaakob
- Jaava
- Job
- Työpaikat
- tuloaan
- jpg
- Pitää
- pito
- avain
- potkaista
- tuntemus
- Kieli
- suuri
- suurin
- uusin
- johtaja
- Liidit
- oppiminen
- Lets
- Taso
- Kirjasto
- Lisenssi
- piilee
- pitää
- tykkää
- LINK
- liittyvät
- lueteltu
- OTK
- kuormitus
- lastaus
- paikallinen
- sijainti
- log
- hakkuu
- logiikka
- katso
- näyttää joltakin
- näköinen
- pois
- kone
- koneoppiminen
- tärkein
- TEE
- Tekeminen
- hoitaa
- onnistui
- johto
- toimitusjohtaja
- monet
- Marketing
- Markkinointi ja mainonta
- massiivinen
- Saattaa..
- Muisti
- mennä
- sulautuvan
- Metadata
- menetelmä
- menetelmät
- Metrics
- vaeltaa
- ML
- MLOps
- tila
- malli
- mallit
- Moduulit
- lisää
- moninkertainen
- nimi
- Luonnollinen
- Luonnollinen kielen käsittely
- välttämätön
- Tarve
- tarvitsevat
- tarpeet
- Uusi
- NLP
- muistikirja
- nyt
- numero
- of
- pois
- Tarjoukset
- usein
- on
- kerran
- ONE
- vain
- toiminta-
- Operations
- optimointi
- Optimoida
- optimoitu
- optimoimalla
- or
- organisaatio
- organisaatioiden
- alkuperäinen
- Muut
- meidän
- tuloksiin
- ulostulo
- yli
- Voittaa
- ylivoimainen
- oma
- paketti
- parametri
- parametrit
- osa
- intohimo
- Patentit
- polku
- prosentti
- suorituskyky
- Oikeudet
- kappaletta
- Platon
- Platonin tietotieto
- PlatonData
- pelaa
- plus
- politiikka
- Suosittu
- suosio
- osa
- mahdollinen
- Kirje
- teho
- voimakas
- Käytännön
- käytännöt
- edellytyksiä
- lahjat
- säilöntä
- estää
- aiemmin
- ensisijainen
- Pääasiallinen
- Aikaisempi
- prosessi
- Prosessit
- käsittely
- Edistyminen
- asianmukaisesti
- ominaisuudet
- tarjoaa
- Työnnä
- Python
- pytorch
- kysymys
- nopeasti
- alue
- nopeasti
- reaaliaikainen
- reason
- syistä
- äskettäin
- vähentää
- Vähentynyt
- vähentää
- vähentämällä
- katso
- heijastava
- ilmoittautua
- kirjattu
- rekisterin
- liittyvä
- Ihmissuhteet
- merkityksellinen
- huomattava
- Raportointi
- säilytyspaikka
- edellyttää
- tarvitaan
- vaatimukset
- Esittelymateriaalit
- REST
- johtua
- uudelleenkäyttö
- oikein
- Rooli
- roolit
- ajaa
- juoksu
- toimii
- runtime
- sagemaker
- Säästä
- tallennettu
- tallentaa
- Säästöt
- Asteikko
- skaalaus
- tiede
- tutkijat
- sdk
- Haku
- Toinen
- Osa
- osiot
- etsiä
- puolijohde
- vanhempi
- erillinen
- erottamalla
- palvelu
- Palvelut
- palvelevat
- useat
- Jaa:
- jakaminen
- hän
- shouldnt
- esitetty
- Näytä
- samankaltainen
- Yksinkertainen
- koska
- single
- Koko
- hidas
- pieni
- pienempiä
- pätkä
- ratkaisu
- Ratkaisumme
- jonkin verran
- lähde
- Tila
- jännitys
- asiantuntija
- erikoistunut
- erityinen
- erityisesti
- viettää
- jakaa
- sidosryhmien
- Alkaa
- Osavaltio
- huippu-
- Tila
- Vaihe
- Askeleet
- Yhä
- Levytila
- verkkokaupasta
- tallennettu
- studio
- niin
- tuki
- TAG
- ottaen
- Tehtävä
- tehtävät
- tekniikka
- tekniikat
- Technologies
- Elektroniikka
- tietoliikenne
- ehdot
- testattu
- teksti
- että
- -
- heidän
- Niitä
- sitten
- Siellä.
- Nämä
- ne
- tätä
- Kautta
- aika
- että
- yhdessä
- työkalu
- taskulamppu
- raita
- perinteinen
- Juna
- koulutus
- siirtää
- muuntaja
- muuntajat
- Matkustaminen
- totta
- yrittää
- virittää
- viritetty
- viritys
- kaksi
- tyyppi
- tyypit
- varten
- ymmärtäminen
- Päivitykset
- päivittäminen
- ladattu
- URL
- käyttää
- käyttölaukku
- käytetty
- käyttäjä
- Käyttäjät
- käyttämällä
- validointi
- arvokas
- arvo
- lajike
- eri
- valtava
- versio
- versiot
- hyvin
- kautta
- Näytä
- visio
- visuaalinen
- kävellä
- käveli
- haluta
- oli
- Tapa..
- tavalla
- we
- verkko
- verkkopalvelut
- kun
- joka
- vaikka
- miksi
- leveä
- Laaja valikoima
- tulee
- with
- sisällä
- ilman
- Naiset
- Referenssit
- työskenteli
- työnkulkuja
- toimii
- vuotta
- Voit
- Sinun
- itse
- zephyrnet