Kielimallien koon kasvu on ollut yksi suurimmista trendeistä luonnollisen kielen käsittelyssä (NLP) viime vuosina. Vuodesta 2018 lähtien olemme nähneet ennennäkemättömällä tavalla yhä suurempien kielimallien kehitystä ja käyttöönottoa, mukaan lukien BERT ja sen muunnelmat, GPT-2, T-NLG ja GPT-3 (175 miljardia parametria).
Nämä mallit ovat siirtäneet mahdollisten arkkitehtonisten innovaatioiden rajoja. Kohtaamme useita haasteita koulutettaessa laajamittaisia syväoppimismalleja, erityisesti uusi generatiivisten esikoulutettujen muuntajien aalto. Näihin haasteisiin kuuluvat laitteiston rajoitukset ja kompromissit laskennan ja tehokkuuden kanssa. Näiden mallien ja tietojen rinnakkaisuuden haasteiden voittamiseksi AWS tarjoaa laajan valikoiman ominaisuuksia.
Tässä viestissä esittelemme kaksi päälähestymistapaa: tietojen rinnastamisen ja mallin rinnakkaistamisen Amazon Sage Makerja keskustella niiden eduista ja haitoista.
Malli
Kielimallissa käytämme paperissa esiteltyjä Transformers Huomio on kaikki mitä tarvitset. Muuntajat ovat syväoppimismalleja, jotka on suunniteltu tietoisesti välttämään RNN:iden sudenkuopat luottamalla itsehuomiomekanismiin, joka vetää globaaleja riippuvuuksia syötteen ja lähdön välille. Transformer-malliarkkitehtuuri mahdollistaa huomattavasti paremman rinnakkaissuorituksen ja voi saavuttaa korkean suorituskyvyn suhteellisen lyhyessä harjoitusajassa. Rakennettu lehdessä esitellyn Transformersin BERT:n menestykselle BERT: Syväsuuntaisten muuntajien esikoulutus kielen ymmärtämistä varten, lisätty kaksisuuntainen esikoulutus kielen esittämiseen. Cloze-tehtävän innoittamana BERT on valmiiksi koulutettu maskatun kielen mallintamiseen (MLM), jossa malli oppii palauttamaan alkuperäiset sanat satunnaisesti maskatuille tokeneille. BERT-malli on myös esiopetettu seuraavan lauseen ennustustehtävään (NSP) ennustamaan, ovatko kaksi lausetta oikeassa lukujärjestyksessä. Vuonna 2018 tulonsa jälkeen BERT ja sen muunnelmat ovat olleet laajasti käytössä kielimalleissa.
Aloitamme luomalla kaksi upotuskerrosta tunniste- ja paikkaupotusta varten. Syöttö upotukset ovat merkki-upotusten ja paikan upotusten summa.
Sitten määritämme muuntajan dekooderilohkon, jossa on kaksi alikerrosta: usean pään itsetarkkailukerros ja yksinkertainen täysin kytketty eteenpäinsyöttöverkko, jota seuraa kerroksen normalisointi ja poisto:
Lopuksi luomme kielimallimme edellisellä upotuskerroksella ja muuntajalohkoilla:
Hyperparametreistäsi riippuen voit skaalata tämän mallin tuhansista parametreista miljardeihin parametreihin. Miljardiparametristen mallien ensisijainen haaste on se, että mallia ei voi isännöidä yhdessä tapauksessa ja malli on jaettava useille solmuille harjoittelua ja päätelmiä varten.
Tietojoukko
Kokeissamme käytimme Paalun tietojoukko. Pile on 800 GiB:n englanninkielinen tekstitietojoukko, joka on suunniteltu suurten kielimallien koulutukseen. Se on luotu 22:sta monipuolisesta ja korkealaatuisesta tietojoukosta, mukaan lukien sekä vakiintuneet NLP-tietojoukot että äskettäin käyttöön otetut.
Tietojoukko luodaan useista tietolähteistä, mukaan lukien kirjoista; GitHub-arkistot; verkkosivut; keskustelulokit; sekä lääketieteen, fysiikan, matematiikan, tietojenkäsittelytieteen ja filosofian paperit. Se käyttää erityisesti seuraavia lähteitä: Pile-CC, PubMed Central, ArXiv, GitHub, FreeLaw Project, Stack Exchange, US Patent and Trademark Office, PubMed, Ubuntu, IRC, HackerNews, YouTube, PhilPapers, Books3, Project Gutenberg ( PG-19), OpenSubtitles, Englanti Wikipedia, DM Mathematics, EuroParl, Enron Emails -korpus ja NIH ExPorter. Se sisältää myös OpenWebText2:n ja BookCorpus2:n, jotka ovat alkuperäisen OpenWebText- ja BookCorpus-tietojoukon laajennuksia. Tietolähteiden monimuotoisuus voi parantaa yleistä verkkotunnusten välistä tietämystä ja siten parantaa loppupään yleistyskykyä.
Tämän tietojoukon ensisijainen haaste on pelkkä koko; tietojoukossa on 825 GiB tekstiä, mikä tarkoittaa 4.2 TiB esikäsiteltyjä ja pakattuja tietopisteitä. Kuten haasteet, joita kohtaamme mallien koulutuksessa ja isännöinnissa, mallin kouluttaminen tällä tietojoukolla yhdellä kertaa vie paljon aikaa, eikä se ole käytännöllistä.
Ratkaisumme on jakaa tietojoukko noin 1 GiB:n tietopaloiksi, ladata ja esikäsitellä ominaisuudet TensorFlow Dataset esineitä ja säilytä niitä Amazon elastinen tiedostopalvelu (Amazon EFS). TensorFlow-tietojoukot tarjoavat helppokäyttöisen ja tehokkaan dataputken, joka integroituu hyvin malleihimme. Amazon EFS on helppokäyttöinen palvelu, jonka avulla voimme rakentaa jaetun tiedostojärjestelmän, joka skaalautuu automaattisesti, kun tiedostoja lisätään ja poistetaan. Lisäksi Amazon EFS pystyy nousemaan tarvittaessa korkeammalle suorituskyvylle, mikä on kriittistä data- ja mallikoulutusputkistossamme.
Seuraavaksi tarkastelemme hajautettuja koulutusstrategioita näihin haasteisiin vastaamiseksi.
Hajautettu koulutus
Tässä projektissa kohtasimme kaksi haastetta: mallin koon ja datamäärän skaalaus. Mallin koon ja koulutettavien parametrien määrän lisääminen voi parantaa tarkkuutta, mutta mallilla on rajansa, jonka voit majoittaa yhteen GPU-muistiin tai jopa useisiin GPU:ihin yhdessä esiintymässä. Lisäksi isompien mallikokojen harjoittelu vie enemmän aikaa.
Voit vastata näihin haasteisiin kahdella eri tavalla: tietojen rinnakkaisuudella ja mallin rinnakkaisuudella. Tietojen rinnakkaisuuden avulla suoritamme stokastisen gradientin laskeutumisen (SGD) jakamalla minierän tietueet eri laitteille harjoituksen nopeuttamiseksi. Rinnakkaiseen tiedonharjoitukseen liittyy kuitenkin ylimääräistä monimutkaisuutta laskea minierägradientin keskiarvoja kaikkien laitteiden gradienteilla, vaihe ns. AllReduce
, mikä vaikeutuu koulutusklusterin kasvaessa. Datan rinnakkaisuutta käytettäessä meidän on kyettävä sovittamaan malli ja yksi tietopiste laitteeseen (CPU tai GPU), mikä on rajoittava tekijä kokeissamme, koska niin suuren mallin koko on paljon suurempi kuin yksittäisen GPU:n muisti. koko.
Toinen ratkaisu on käyttää mallin rinnakkaisuutta, mikä jakaa mallin useille laitteille. Mallin rinnakkaisuus on prosessi, jossa malli jaetaan useiden laitteiden tai solmujen (kuten GPU:lla varustettujen esiintymien) kesken ja luodaan tehokas putki mallin kouluttamiseksi näiden laitteiden välillä GPU-käytön maksimoimiseksi.
Tietojen rinnastaminen
Datan rinnakkaistaminen on yleisin lähestymistapa useisiin GPU:ihin tai hajautettuun koulutukseen. Voit ryhmitellä tietosi, lähettää ne useille laitteille (jokainen isännöi replikoitua mallia) ja sitten koota tulokset. Kokeilimme kahta pakettia tietojen rinnakkaisuudelle: Horovod ja the SageMaker hajautti rinnakkaistietoja.
Horovod on hajautettu syväoppimisen koulutuskehys TensorFlowille, Kerasille, PyTorchille ja Apache MXNetille. Käyttääksemme Horovodia kävimme läpi seuraavan prosessin:
- Alusta ajamalla
hvd.init()
. - Yhdistä jokainen laite yhteen prosessiin. Ensimmäinen prosessi tai työntekijä liittyy ensimmäiseen laitteeseen, toinen prosessi liittyy toiseen laitteeseen ja niin edelleen.
- Säädä oppimisnopeutta laitteiden lukumäärän mukaan.
- Kääri optimoija sisään
hvd.DistributedOptimizer
. - Lähetä alkumuuttujan tilat ensimmäiseltä työntekijältä, jonka arvo on 0, kaikille muille prosesseille. Tämä on tarpeen kaikkien työntekijöiden johdonmukaisen alustamisen varmistamiseksi, kun koulutus aloitetaan satunnaisilla painoilla tai palautetaan tarkastuspisteestä.
- Varmista, että vain laite 0 voi tallentaa tarkistuspisteitä, jotta muut työntekijät eivät vahingoita niitä.
Seuraava on harjoitusskripti:
SageMaker-datan rinnakkaiskirjaston avulla voimme skaalata harjoitteluamme lähes lineaarisella tehokkuudella, mikä nopeuttaa harjoitteluamme minimaalisilla koodimuutoksilla. Kirjasto suorittaa räätälöityjä AllReduce
toiminnan ja optimoi laitteiden välisen viestinnän hyödyntämällä täysin AWS:n verkkoinfrastruktuuria ja Amazonin elastinen laskentapilvi (Amazon EC2) ilmentymän topologia. Käyttääksemme SageMaker-datan rinnakkaiskirjastoa, kävimme läpi seuraavan prosessin:
- Tuo ja alusta
sdp.init()
. - Yhdistä jokainen laite yhteen
smdistributed.dataparallel
prosessi kanssalocal_rank
.sdp.tensorflow.local_rank()
antaa meille laitteiden paikallisen sijoituksen. Johtaja on arvolla 0 ja työntekijät 1, 2, 3 ja niin edelleen. - Säädä oppimisnopeutta laitteiden lukumäärän mukaan.
- Kääri
tf.GradientTape
withDistributedGradientTape
esiintyäAllReduce
. - Lähetä mallin alkuperäiset muuttujat johtajasolmusta kaikille työntekijäsolmuille.
- Varmista, että vain laite 0 voi tallentaa tarkistuspisteitä.
Mallin rinnastaminen
Voimme säätää hyperparametreja, jotta malli pysyy riittävän pienenä, jotta sitä voidaan harjoitella yhdellä grafiikkasuorittimella, tai voimme käyttää mallin rinnakkaisuutta mallin jakamiseen useiden GPU:iden kesken useiden esiintymien kesken. Mallin koulutettavien parametrien määrän lisääminen voi johtaa parempaan tarkkuuteen, mutta mallin enimmäiskokoa, joka mahtuu yhteen GPU-muistiin, on rajoitettu. Käytämme SageMaker-hajautettua mallien rinnakkaiskirjastoa kouluttaaksemme suurempia mallejamme. Vaiheet ovat seuraavat:
- Tuo ja alusta kirjasto
smp.init()
. - Keras-mallin on perittävä smp.DistributedModel Keras Model -luokan sijaan.
- Asettaa
drop_remainder=True
vuonnatf.Dataset.batch()
menetelmä, jolla varmistetaan, että erän koko on aina jaollinen mikroerien lukumäärällä. - Kaikkien dataliukuhihnan satunnaisten toimintojen on käytettävä samaa siementä:
smp.dp_rank()
Esimerkiksishuffle(ds, seed=smp.dp_rank())
. Tämä varmistaa tietonäytteiden yhdenmukaisuuden laitteissa, joissa on eri malliosioita. - Eteenpäin ja taaksepäin logiikan on oltava askelfunktiossa
smp.step
koriste. - Suorita tulosteiden jälkikäsittely mikroerien välillä käyttämällä StepOutput-menetelmiä, kuten
reduce_mean
.smp.step
-funktiolla on oltava palautusarvo, joka riippuu funktion lähdöstäsmp.DistributedModel
.
Koulutusskripti on seuraava:
Yksityiskohtainen opas TensorFlow-harjoituskomentosarjan käyttöönottamisesta SageMaker-hajautetun mallin rinnakkaiskirjastolle on osoitteessa Muokkaa TensorFlow-harjoitusskriptiä. PyTorch, katso Muokkaa PyTorch-harjoituskomentosarjaa.
SageMaker-virheenkorjaus
Edellisissä osioissa keskustelimme, kuinka koulutusta voidaan optimoida malli- ja tietojen rinnakkaistekniikoilla. Kanssa Amazon SageMaker -korjaamo, voimme nyt kerätä suoritusprofiilitietoja harjoituksistamme määrittääksemme, kuinka paljon harjoitus on parantunut. Oletusarvoisesti Debugger kaappaa järjestelmätiedot jokaiselle SageMaker-harjoitustyölle, kuten GPU, suorittimen käyttöaste, muisti, verkko ja I/O 500 millisekunnin näytevälillä. Voimme käyttää tietoja seuraavasti:
Debugger tarjoaa apuohjelmia havainnollistaa profilointidataa eri tavoin. Seuraavassa esimerkissä näemme GPU:n ja CPU:n kokonaiskäyttöasteen sekä I/O-odotusajan usean grafiikkasuorittimen harjoitustyölle Horovodilla. Näiden kaavioiden luomiseksi suoritamme seuraavan koodin:
Grafiikkasuorittimen käyttöaste vaihtelee usein välillä 0–100 %, ja korkeat I/O-odotusajat alhaisella GPU:n käyttöasteella ovat osoitus I/O-pullonkaulasta. Lisäksi suorittimen kokonaiskäyttöaste ei koskaan ylitä 70 %, mikä tarkoittaa, että voimme parantaa tietojen esikäsittelyä lisäämällä työprosessien määrää.
Voimme parantaa suorituskykyä vaihtamalla Horovodista SageMakerin hajautettuun datan rinnakkaiskirjastoon. Seuraavista kaavioista voimme nähdä, että grafiikkasuoritteita hyödynnetään tehokkaammin ja ne laskevat alhaiselle käyttöasteelle vain lyhyeksi ajaksi.
Koulutuksen infrastruktuuri
Mallien koulutukseen käytimme 10 ml.p3.16xsuuria kappaletta SageMaker-harjoitustyön avulla. SageMaker vähentää koneoppimismallien (ML) kouluttamiseen ja virittämiseen kuluvaa aikaa ja kustannuksia ilman infrastruktuurin hallintaa. SageMakerin avulla voit helposti kouluttaa ja virittää ML-malleja käyttämällä sisäänrakennettuja työkaluja harjoituskokeiden hallintaan ja seurantaan, valita automaattisesti optimaaliset hyperparametrit, virheenkorjaus koulutustöitä ja seurata järjestelmäresurssien, kuten GPU:iden, suorittimien ja verkon kaistanleveyden, käyttöä. Dataa isännöitiin Amazon EFS:ssä, minkä ansiosta pystyimme kasvamaan ja pienentymään, kun lisäämme ja poistamme tiedostoja ilman hallintaa tai provisiointia. Päätavoitteemme oli parantaa harjoitusnopeutta ja vähentää kustannuksia.
Mallin skaalautuvuus
Vaikka tätä infrastruktuuria käytetään ensisijaisesti kielten luomiseen, GPT-arkkitehtuurin ja Pile-tietojoukon avulla voit käyttää näitä tekniikoita suuren mittakaavan muuntajamallien kouluttamiseen, mikä on hyödyllistä monilla aloilla NLP:n lisäksi. Itse koneoppimisessa monet tietokonenäkötehtävät ratkaistaan nyt suurten parametrien (muuntaja) arkkitehtuureilla, joissa niiden on osoitettu ylittävän perinteiset CNN:t (Convolutional Neural Network) sellaisissa tehtävissä kuin esitysoppiminen (katso Tietokonenäön huipputason edistäminen itse valvotuilla muuntajilla ja 10x tehokkaammalla koulutuksella) ja kuvien laajamittainen kartoitus tekstiksi (esim CLIP). Suurparametriset mallit ovat myös murtamassa uutta tietä biotieteissä mm proteiinin rakenneanalyysi ja lääketieteellisten kuvatietojen analysointi.
Tässä viestissä yksityiskohtaisia ratkaisuja hajautettuun koulutukseen ja suurten mallien hallintaan tulisi koskea myös minkä tahansa näiden alueiden malleissa.
Kompromissit
Tutkimusyhteisössä on käyty jatkuvaa keskustelua laajamittaisten kielimallien koulutuksen riskeistä ja siitä, onko niiden kehittämiseen liittyviä mahdollisia riskejä ja strategioita näiden riskien lieventämiseksi mietitty tarpeeksi. Näitä riskejä ovat mm. ympäristökustannukset. Mukaan a paperi ACM:ssä julkaistun yksittäisen BERT-perusmallin (ilman hyperparametrien viritystä) koulutuksen GPU:illa arvioitiin vaativan yhtä paljon energiaa kuin transamerikkalaisen lennon. Ympäristövaikutukset skaalautuvat mallin koon mukaan, ja tällaisten mallien tehokas hienosäätö voi mahdollisesti vähentää päästöjä merkittävästi. AWS julkaisi äskettäin uuden Asiakkaan hiilijalanjälkityökalu, joka on kaikkien AWS-asiakkaiden saatavilla veloituksetta osana Amazonin pyrkimyksiä lisätä kestävyyttä ja vähentää hiilidioksidipäästöjä. Sovellusten käyttäminen AWS-pilvessä voi mahdollisesti pienentää hiilijalanjälkeä (verrattuna vuonna XNUMX tutkittuihin yrityspalvelinkeskuksiin). 2019-raportti).
Yhteenveto
Tämä viesti esitteli ratkaisun, joka helpottaa kielimallien hienosäätöä miljardilla parametrilla AWS-pilvessä SageMakerin avulla.
Lisätietoja mallien rinnakkaisuudesta SageMakerin kanssa on kohdassa Harjoittele yli 175 miljardia parametri-NLP-mallia mallien rinnakkaisilla lisäyksillä ja Hugging Facella Amazon SageMakerissa ja Kuinka latentti avaruus käytti Amazon SageMaker -mallikirjastokirjastoa suurten muuntajien rajojen työntämiseen.
Jos haluat apua ML: n käytön nopeuttamisessa tuotteissasi ja prosesseissasi, ota yhteyttä Amazon ML Solutions Lab.
Tietoja Tekijät
Sia Gholami on vanhempi tietotutkija Amazon ML Solutions Labissa, jossa hän rakentaa AI/ML-ratkaisuja asiakkaille eri toimialoilla. Hän on intohimoinen luonnollisen kielen käsittelyyn (NLP) ja syväoppimiseen. Työn ulkopuolella Sia viihtyy luonnossa ja pelaa tennistä.
Mehdi Noorion johtaja ja vanhempi soveltuva tutkija Amazon ML Solutions Labissa, jossa hän työskentelee asiakkaiden kanssa eri toimialoilta ja auttaa heitä nopeuttamaan pilvisiirtoa ja ratkaisemaan ML-ongelmiaan käyttämällä huippuluokan ratkaisuja ja teknologioita.
Muhyun Kim on Amazon Machine Learning Solutions Labin datatieteilijä. Hän ratkaisee asiakkaan erilaiset liiketoimintaongelmat soveltamalla koneoppimista ja syvällistä oppimista sekä auttaa heitä taitamaan.
Danny Byrd on soveltuva tutkija Amazon ML Solutions Labissa. Laboratoriossa hän on auttanut asiakkaita kehittämään edistyneitä ML-ratkaisuja ML-erikoisuuksissa tietokonenäöstä vahvistusoppimiseen. Hän on intohimoinen teknologian edistämisestä ja uuden potentiaalin avaamisesta AWS-tuotteista matkan varrella.
Francisco Calderon Rodriguez on datatutkija Amazon ML Solutions Labissa. ML Solutions Labin jäsenenä hän auttaa ratkaisemaan kriittisiä liiketoimintaongelmia AWS-asiakkaille syväoppimisen avulla. Vapaa-ajallaan Francisco tykkää soittaa musiikkia ja kitaraa, pelata jalkapalloa tyttäriensä kanssa ja viettää aikaa perheensä kanssa.
Yohei Nakayama on syväoppiva arkkitehti Amazon ML Solutions Labissa. Hän työskentelee asiakkaiden kanssa eri toimialoilla nopeuttaakseen tekoälyn ja AWS-pilvipalveluiden käyttöä yritysten haasteiden ratkaisemiseksi. Hän on kiinnostunut ML/AI-tekniikoiden soveltamisesta avaruusteollisuuteen.
Nathalie Rauschmayr on vanhempi sovellettu tutkija AWS:ssä, jossa hän auttaa asiakkaita kehittämään syväoppimissovelluksia.
- Coinsmart. Euroopan paras Bitcoin- ja kryptopörssi.
- Platoblockchain. Web3 Metaverse Intelligence. Tietoa laajennettu. VAPAA PÄÄSY.
- CryptoHawk. Altcoinin tutka. Ilmainen kokeilu.
- Lähde: https://aws.amazon.com/blogs/machine-learning/create-train-and-deploy-a-billion-parameter-language-model-on-terabytes-of-data-with-tensorflow-and- amazon-sagemaker/
- "
- 10
- 100
- 2019
- a
- Meistä
- kiihdyttää
- kiihtyvä
- pääsy
- Mukaan
- Saavuttaa
- poikki
- lisä-
- Lisäksi
- kehittynyt
- Kaikki
- mahdollistaa
- aina
- Amazon
- analyysi
- api
- sovellukset
- sovellettu
- käyttää
- Hakeminen
- lähestymistapa
- lähestymistavat
- suunnilleen
- arkkitehtuurin
- arkkitehtuuri
- Art
- keinotekoinen
- tekoäly
- liittyvä
- huomio
- automaattisesti
- saatavissa
- keskimäärin
- AWS
- koska
- ovat
- välillä
- Jälkeen
- suurempi
- Suurimmat
- Miljardi
- miljardeja
- Tukkia
- Kirjat
- rakentaa
- rakentaa
- sisäänrakennettu
- liiketoiminta
- kyvyt
- kykenee
- kaapata
- kaappaa
- hiili
- hiilidioksidipäästöjä
- keskeinen
- haaste
- haasteet
- Valita
- luokka
- pilvi
- pilvipalvelut
- koodi
- Yhteinen
- Viestintä
- yhteisö
- verrattuna
- laskeminen
- Laskea
- tietokone
- Tietojenkäsittelyoppi
- tietojenkäsittely
- kytketty
- MIINUKSET
- johdonmukainen
- ottaa yhteyttä
- kustannukset
- luoda
- luotu
- luo
- Luominen
- kriittinen
- asiakassuhde
- Asiakkaat
- tiedot
- datakeskukset
- tietojen tutkija
- syvä
- osoittivat
- riippuu
- sijoittaa
- käyttöönotto
- suunniteltu
- yksityiskohta
- yksityiskohtainen
- Määrittää
- kehittää
- kehittämällä
- Kehitys
- laite
- Laitteet
- eri
- pohtia
- jaettu
- jako-
- Monimuotoisuus
- DM
- verkkotunnuksia
- alas
- helposti
- helppo käyttää
- tehokkuus
- tehokas
- tehokkaasti
- ponnisteluja
- Päästöt
- mahdollistaa
- mahdollistaa
- energia
- Englanti
- yritys
- ympäristön
- erityisesti
- vakiintunut
- arvioidaan
- esimerkki
- ylittää
- Vaihdetaan
- laajennukset
- Kasvot
- kohtasi
- perhe
- Ominaisuudet
- Fields
- taloudellinen
- Etunimi
- sovittaa
- lento
- jälkeen
- seuraa
- Jalanjälki
- Eteenpäin
- Puitteet
- Francisco
- alkaen
- toiminto
- Lisäksi
- general
- tuottaa
- sukupolvi
- generatiivinen
- saada
- GitHub
- Global
- GPU
- GPU
- Kasvaa
- ohjaavat
- Tarvikkeet
- auttaa
- auttaa
- Korkea
- korkealaatuisia
- korkeampi
- pitää
- isännöi
- hotellit
- Miten
- Miten
- Kuitenkin
- HTTPS
- kuva
- kuvien
- parantaa
- parani
- sisältää
- sisältää
- Mukaan lukien
- Kasvaa
- lisää
- indeksi
- teollisuuden
- teollisuus
- tiedot
- Infrastruktuuri
- innovaatiot
- panos
- innoittamana
- esimerkki
- Älykkyys
- kiinnostunut
- IT
- itse
- Job
- Työpaikat
- matka
- Pitää
- tuntemus
- laboratorio
- Merkki
- tarrat
- Kieli
- suuri
- suurempi
- käynnistettiin
- kerros
- johtaja
- oppiminen
- tasot
- Kirjasto
- Life Sciences
- kuormitus
- paikallinen
- katso
- kone
- koneoppiminen
- hoitaa
- johto
- johtaja
- toimitusjohtaja
- kartoitus
- naamio
- matematiikka
- matematiikka
- välineet
- lääketieteellinen
- jäsen
- Muisti
- menetelmät
- Metrics
- ML
- malli
- mallit
- monitori
- lisää
- eniten
- moninkertainen
- Musiikki
- Luonnollinen
- luonto
- välttämätön
- tarpeet
- verkko
- NIH
- solmut
- numero
- tavoitteet
- Tarjoukset
- Office
- jatkuva
- toiminta
- Operations
- Optimoida
- tilata
- Muut
- Paperi
- osa
- intohimoinen
- patentti-
- suorituskyky
- aikoja
- filosofia
- Fysiikka
- Pelaa
- pelaa
- sijainti
- mahdollinen
- mahdollinen
- ennustaa
- ennustus
- Ennusteet
- edellinen
- ensisijainen
- ongelmia
- prosessi
- Prosessit
- käsittely
- Tuotteemme
- profilointi
- projekti
- PROS
- toimittaa
- tarjoaa
- työntää
- alue
- Lukeminen
- äskettäinen
- äskettäin
- asiakirjat
- toipua
- vähentää
- suhteen
- edustus
- edustettuina
- edellyttää
- tutkimus
- Esittelymateriaalit
- tulokset
- palata
- riskit
- ajaa
- juoksu
- sama
- Asteikko
- skaalaus
- tiede
- tieteet
- Tiedemies
- siemenet
- palvelu
- Palvelut
- useat
- SGD
- Shape
- yhteinen
- Lyhyt
- esitetty
- samankaltainen
- Yksinkertainen
- koska
- single
- Koko
- pieni
- So
- Jalkapallo
- ratkaisu
- Ratkaisumme
- SOLVE
- Ratkaisee
- jonkin verran
- Tila
- erityisesti
- nopeus
- menot
- jakaa
- splits
- pino
- alkoi
- Osavaltio
- huippu-
- Valtiot
- verkkokaupasta
- strategiat
- menestys
- kestävyys
- järjestelmä
- tehtävät
- tekniikat
- Technologies
- Elektroniikka
- -
- tuhansia
- Kautta
- suoritusteho
- aika
- kertaa
- symbolinen
- tokens
- työkalut
- raita
- tavaramerkki
- perinteinen
- koulutus
- Trendit
- Ubuntu
- ennennäkemätön
- us
- käyttää
- apuohjelmia
- Hyödyntämällä
- arvo
- lajike
- eri
- pystysuunnassa
- visio
- tilavuus
- odottaa
- Aalto
- tavalla
- onko
- vaikka
- wikipedia
- ilman
- sanoja
- Referenssit
- työntekijä
- työntekijöitä
- toimii
- X
- vuotta
- Sinun
- youtube