I en tid med big data og AI, søker bedrifter kontinuerlig etter måter å bruke disse teknologiene for å oppnå et konkurransefortrinn. Et av de hotteste områdene innen kunstig intelligens akkurat nå er generativ kunstig intelligens, og med god grunn. Generativ AI tilbyr kraftige løsninger som flytter grensene for hva som er mulig når det gjelder kreativitet og innovasjon. I kjernen av disse banebrytende løsningene ligger en grunnmodell (FM), en svært avansert maskinlæringsmodell som er forhåndstrent på enorme mengder data. Mange av disse grunnmodellene har vist en bemerkelsesverdig evne til å forstå og generere menneskelignende tekst, noe som gjør dem til et verdifullt verktøy for en rekke applikasjoner, fra innholdsskaping til kundestøtteautomatisering.
Disse modellene er imidlertid ikke uten utfordringer. De er usedvanlig store og krever store mengder data og beregningsressurser for å trene. I tillegg kan optimalisering av treningsprosessen og kalibrering av parameterne være en kompleks og iterativ prosess, som krever ekspertise og nøye eksperimentering. Dette kan være barrierer for mange organisasjoner som ønsker å bygge sine egne grunnmodeller. For å overkomme denne utfordringen vurderer mange kunder å finjustere eksisterende fundamentmodeller. Dette er en populær teknikk for å justere en liten del av modellparametrene for spesifikke applikasjoner, samtidig som kunnskapen som allerede er kodet i modellen bevares. Det lar organisasjoner bruke kraften til disse modellene samtidig som de reduserer ressursene som kreves for å tilpasse til et bestemt domene eller oppgave.
Det er to primære tilnærminger til finjustering av fundamentmodeller: tradisjonell finjustering og parametereffektiv finjustering. Tradisjonell finjustering innebærer å oppdatere alle parameterne til den forhåndstrente modellen for en spesifikk nedstrømsoppgave. På den annen side inkluderer parametereffektiv finjustering en rekke teknikker som gjør det mulig å tilpasse en modell uten å oppdatere alle de originale modellparametrene. En slik teknikk kalles Low-rank Adaptation (LoRA). Det innebærer å legge til små, oppgavespesifikke moduler til den forhåndstrente modellen og trene dem mens resten av parametrene holdes fast som vist i bildet nedenfor.
kilde: Generativ AI på AWS (O'Reilly, 2023)
LoRA har vunnet popularitet nylig av flere grunner. Den tilbyr raskere trening, reduserte minnekrav og muligheten til å gjenbruke forhåndstrente modeller for flere nedstrømsoppgaver. Enda viktigere er at basismodellen og adapteren kan lagres separat og kombineres når som helst, noe som gjør det enklere å lagre, distribuere og dele finjusterte versjoner. Dette introduserer imidlertid en ny utfordring: hvordan administrere disse nye typene finjusterte modeller på riktig måte. Bør du kombinere basismodellen og adapteren eller holde dem adskilt? I dette innlegget går vi gjennom beste praksis for å administrere LoRA-finjusterte modeller på Amazon SageMaker for å ta opp dette spørsmålet som dukker opp.
Jobber med FM-er på SageMaker Model Registry
I dette innlegget går vi gjennom et ende-til-ende eksempel på finjustering av Llama2 large language model (LLM) ved hjelp av QLoRA-metoden. QLoRA kombinerer fordelene med parametereffektiv finjustering med 4-bit/8-bits kvantisering for ytterligere å redusere ressursene som kreves for å finjustere en FM til en spesifikk oppgave eller brukstilfelle. For dette vil vi bruke den forhåndstrente 7 milliarder parameteren Llama2-modellen og finjustere den på databricks-dolly-15k datasettet. LLM-er som Llama2 har milliarder av parametere og er forhåndstrent på massive tekstdatasett. Finjustering tilpasser en LLM til en nedstrømsoppgave ved å bruke et mindre datasett. Finjustering av store modeller er imidlertid beregningsmessig kostbart. Dette er grunnen til at vi vil bruke QLoRA-metoden for å kvantisere vektene under finjustering for å redusere denne beregningskostnaden.
I eksemplene våre finner du to notatbøker (llm-finetune-combined-with-registry.ipynb
og llm-finetune-separate-with-registry.ipynb
). Hver fungerer på en annen måte for å håndtere LoRA-finjusterte modeller som illustrert i følgende diagram:
- Først laster vi ned den ferdigtrente Llama2-modellen med 7 milliarder parametere ved å bruke SageMaker Studio Notebooks. LLM-er, som Llama2, har vist toppmoderne ytelse på NLP-oppgaver (natural language processing) når de er finjustert på domenespesifikke data.
- Deretter finjusterer vi Llama2 på databricks-dolly-15k-datasettet ved å bruke QLoRA-metoden. QLoRA reduserer beregningskostnadene ved finjustering ved å kvantisere modellvekter.
- Under finjusteringen integrerer vi SageMaker Experiments Plus med Transformers API for automatisk å logge beregninger som gradient, tap osv.
- Vi versjonerer deretter den finjusterte Llama2-modellen i SageMaker Model Registry ved å bruke to tilnærminger:
- Lagring av hele modellen
- Oppbevaring av adapteren og basismodellen separat.
- Til slutt er vi vert for de finjusterte Llama2-modellene som bruker Deep Java Library (DJL) som serverer på et SageMaker-endepunkt i sanntid.
I de følgende delene vil vi dykke dypere inn i hvert av disse trinnene, for å demonstrere fleksibiliteten til SageMaker for ulike LLM-arbeidsflyter og hvordan disse funksjonene kan bidra til å forbedre driften av modellene dine.
Forutsetninger
Fullfør følgende forutsetninger for å begynne å eksperimentere med koden.
- Lag en SageMaker Studio Domain: Amazon SageMaker Studio, spesifikt Studio Notebooks, brukes til å starte finjusteringsoppgaven Llama2 og deretter registrere og se modeller innen SageMaker modellregister. SageMaker eksperimenter brukes også til å vise og sammenligne Llama2 finjusteringsjobblogger (treningstap/testtap/osv.).
- Lag en Amazon Simple Storage Service (S3) bøtte: Tilgang til en S3-bøtte for å lagre treningsartefakter og modellvekter er nødvendig. For instruksjoner, se Å lage en bøtte. Eksempelkoden som brukes for dette innlegget vil bruke SageMaker standard S3-bøtte, men du kan tilpasse den til å bruke hvilken som helst relevant S3-bøtte.
- Sett opp modellsamlinger (IAM-tillatelser): Oppdater SageMaker-utførelsesrollen din med tillatelser til ressursgrupper som oppført under Utviklerveiledning for modellregistersamlinger å implementere modellregistergruppering ved hjelp av modellsamlinger.
- Godta vilkårene og betingelsene for Llama2: Du må godta sluttbrukerlisensavtalen og retningslinjene for akseptabel bruk for bruk av Llama2-grunnmodellen.
Eksemplene er tilgjengelige i GitHub repository. Notatbokfilene er testet med Studio-notatbøker som kjører på PyTorch 2.0.0 Python 3.10 GPU Optimalisert kjerne og ml.g4dn.xlarge-forekomsttype.
Eksperimenter pluss tilbakeringingsintegrasjon
Amazon SageMaker-eksperimenter lar deg organisere, spore, sammenligne og evaluere maskinlæringseksperimenter (ML) og modellversjoner fra et hvilket som helst integrert utviklingsmiljø (IDE), inkludert lokale Jupyter Notebooks, ved å bruke SageMaker Python SDK eller boto3. Det gir fleksibiliteten til å logge modellberegninger, parametere, filer, artefakter, plottdiagrammer fra de forskjellige metrikkene, fange ulike metadata, søke gjennom dem og støtte modellreproduserbarhet. Dataforskere kan raskt sammenligne ytelsen og hyperparametrene for modellevaluering gjennom visuelle diagrammer og tabeller. De kan også bruke SageMaker-eksperimenter til å laste ned de opprettede diagrammene og dele modellevalueringen med sine interessenter.
Opplæring av LLM-er kan være en langsom, kostbar og iterativ prosess. Det er svært viktig for en bruker å spore LLM-eksperimentering i skala for å forhindre en inkonsekvent modelltuning-opplevelse. HuggingFace Transformer APIer tillate brukere å spore beregninger under treningsoppgaver gjennom callbacks. Tilbakeringing er "skrivebeskyttede" kodebiter som kan tilpasse oppførselen til treningssløyfen i PyTorch Trainer som kan inspisere treningssløyfens tilstand for fremdriftsrapportering, logging på TensorBoard eller SageMaker Experiments Plus via tilpasset logikk (som er inkludert som en del). av denne kodebasen).
Du kan importere SageMaker Experiments tilbakeringingskoden inkludert i dette innleggets kodelager som vist i følgende kodeblokk:
Denne tilbakeringingen vil automatisk logge følgende informasjon inn i SageMaker Experiments som en del av treningsløpet:
- Treningsparametere og hyperparametere
- Tap av modelltrening og validering ved trinn, epoke og finale
- Modellinndata- og utdataartefakter (treningsdatasett, valideringsdatasett, modellutdataplassering, treningsfeilsøker og mer)
Følgende graf viser eksempler på diagrammene du kan vise ved å bruke denne informasjonen.
Dette lar deg enkelt sammenligne flere kjøringer ved å bruke analysefunksjonen til SageMaker Experiments. Du kan velge eksperimentkjøringene du vil sammenligne, og de vil automatisk fylle ut sammenligningsgrafer.
Registrer finjusterte modeller til Model Registry Collections
Modellregistersamlinger er en funksjon av SageMaker modellregister som lar deg gruppere registrerte modeller som er relatert til hverandre og organisere dem i hierarkier for å forbedre modelloppdagbarheten i skala. Vi vil bruke Model Registry Collections for å holde styr på basismodellen og finjusterte varianter.
Full modell kopi metode
Den første metoden kombinerer basismodellen og LoRA-adapteren og lagrer den fullstendig finjusterte modellen. Følgende kode illustrerer modellsammenslåingsprosessen og lagrer den kombinerte modellen ved hjelp av model.save_pretrained()
.
Å kombinere LoRA-adapteren og basismodellen til en enkelt modellartefakt etter finjustering har fordeler og ulemper. Den kombinerte modellen er selvstendig og kan administreres og distribueres uavhengig uten behov for den originale basismodellen. Modellen kan spores som sin egen enhet med et versjonsnavn som gjenspeiler basismodellen og finjusteringsdata. Vi kan vedta en nomenklatur ved å bruke base_model_name
+ finjustert dataset_name
å organisere modellgruppene. Eventuelt kan modellsamlinger assosiere de originale og finjusterte modellene, men dette er kanskje ikke nødvendig siden den kombinerte modellen er uavhengig. Følgende kodebit viser deg hvordan du registrerer den finjusterte modellen.
Du kan bruke treningsestimatoren til å registrere modellen i Model Registry.
Fra Model Registry kan du hente modellpakken og distribuere den modellen direkte.
Imidlertid er det ulemper ved denne tilnærmingen. Kombinasjon av modellene fører til lagringsineffektivitet og redundans siden grunnmodellen dupliseres i hver finjusterte versjon. Ettersom modellstørrelsen og antallet finjusterte modeller øker, øker dette lagringsbehovet eksponentielt. Tar vi llama2 7b-modellen som et eksempel, er basismodellen omtrent 13 GB og den finjusterte modellen er 13.6 GB. 96 % prosent av modellen må dupliseres etter hver finjustering. I tillegg blir distribusjon og deling av svært store modellfiler også vanskeligere og byr på operasjonelle utfordringer ettersom filoverførings- og administrasjonskostnadene øker med økende modellstørrelse og finjustere jobber.
Separat adapter og basemetode
Den andre metoden fokuserer på separasjon av basisvekter og adaptervekter ved å lagre dem som separate modellkomponenter og laste dem sekvensielt under kjøring.
Å spare base- og adaptervekter har fordeler og ulemper, i likhet med Full Model Copy-metoden. En fordel er at det kan spare lagringsplass. Basisvektene, som er den største komponenten i en finjustert modell, lagres kun én gang og kan gjenbrukes med andre adaptervekter som er innstilt for ulike oppgaver. For eksempel er basisvektene til Llama2-7B omtrent 13 GB, men hver finjusteringsoppgave trenger bare å lagre omtrent 0.6 GB med adaptervekter, som er en plassbesparelse på 95 %. En annen fordel er at basisvekter kan administreres separat fra adaptervekter ved å bruke et modellregister for bare basisvekter. Dette kan være nyttig for SageMaker-domener som kjører i en VPC-modus uten en internettgateway, siden basisvektene kan nås uten å måtte gå gjennom internett.
Opprett modellpakkegruppe for basisvekter
Opprett modellpakkegruppe for QLoRA-vekter
Følgende kode viser hvordan du merker QLoRA-vekter med datasett/oppgavetypen og registrerer finjusterte deltavekter i et eget modellregister og sporer deltavektene separat.
Følgende utdrag viser en visning fra modellregisteret der modellene er delt inn i basisvekter og finjusterte vekter.
Administrering av modeller, datasett og oppgaver for hyper-personaliserte LLM-er kan raskt bli overveldende. SageMaker modellregistersamlinger kan hjelpe deg å gruppere relaterte modeller sammen og organisere dem i et hierarki for å forbedre modellens oppdagbarhet. Dette gjør det lettere å spore forholdet mellom basisvekter, adaptervekter og finjustering av oppgavedatasett. Du kan også skape komplekse relasjoner og koblinger mellom modeller.
Opprett en ny samling og legg til grunnmodellvektene dine i denne samlingen
Koble alle dine finjusterte LoRA Adapter Delta Weights til denne samlingen etter oppgave og/eller datasett
Dette vil resultere i et samlingshierarki som er koblet etter modell/oppgavetype og datasettet som brukes til å finjustere basismodellen.
Denne metoden for å skille base- og adaptermodellene har noen ulemper. En ulempe er kompleksiteten i implementeringen av modellen. Fordi det er to separate modellartefakter, trenger du flere trinn for å ompakke modellen i stedet for å distribuere direkte fra Model Registry. I følgende kodeeksempel laster du ned og pakker om den nyeste versjonen av basismodellen først.
Last ned og pakk deretter ned de siste finjusterte LoRA-adaptervektene.
Siden du skal bruke DJL-servering med dyp hastighet for å være vert for modellen, bør inferenskatalogen din se slik ut.
Til slutt, pakk den tilpassede slutningskoden, basismodellen og LoRA-adapteren i en enkelt .tar.gz-fil for distribusjon.
Rydd opp
Rydd opp i ressursene dine ved å følge instruksjonene i oppryddingsdelen av notatboken. Referere til Amazon SageMaker-priser for detaljer om kostnadene ved slutningsforekomstene.
konklusjonen
Dette innlegget ledet deg gjennom beste fremgangsmåter for å administrere LoRA-finjusterte modeller på Amazon SageMaker. Vi dekket to hovedmetoder: å kombinere base- og adaptervektene til én selvstendig modell, og separere base- og adaptervektene. Begge tilnærmingene har avveininger, men å skille vekter bidrar til å optimalisere lagring og muliggjør avanserte modellstyringsteknikker som SageMaker Model Registry Collections. Dette lar deg bygge hierarkier og relasjoner mellom modeller for å forbedre organisering og oppdagebarhet. Vi oppfordrer deg til å prøve prøvekoden på GitHub repository å eksperimentere med disse metodene selv. Ettersom generativ AI utvikler seg raskt, vil det å følge beste praksis for modelladministrasjon hjelpe deg med å spore eksperimenter, finne den riktige modellen for oppgaven din og administrere spesialiserte LLM-er effektivt i stor skala.
Referanser
Om forfatterne
James Wu er senior AI/ML spesialistløsningsarkitekt hos AWS. hjelpe kunder med å designe og bygge AI/ML-løsninger. James sitt arbeid dekker et bredt spekter av ML-brukstilfeller, med en primær interesse for datasyn, dyp læring og skalering av ML på tvers av bedriften. Før han begynte i AWS, var James arkitekt, utvikler og teknologileder i over 10 år, inkludert 6 år innen ingeniørfag og 4 år i markedsførings- og reklamebransjen.
Pranav Murthy er AI/ML Specialist Solutions Architect hos AWS. Han fokuserer på å hjelpe kunder med å bygge, trene, distribuere og migrere maskinlæring (ML) arbeidsbelastninger til SageMaker. Han har tidligere jobbet i halvlederindustrien med å utvikle modeller for store datasyn (CV) og naturlig språkbehandling (NLP) for å forbedre halvlederprosesser. På fritiden liker han å spille sjakk og reise.
Mecit Gungor er en AI/ML-spesialistløsningsarkitekt hos AWS som hjelper kunder med å designe og bygge AI/ML-løsninger i stor skala. Han dekker et bredt spekter av AI/ML-brukstilfeller for telekommunikasjonskunder og fokuserer for tiden på Generativ AI, LLM-er og trening og slutningsoptimalisering. Han kan ofte bli funnet på tur i villmarken eller spille brettspill med vennene sine på fritiden.
Shelbee Eigenbrode er en hovedarkitekt for AI og maskinlæringsløsninger hos Amazon Web Services (AWS). Hun har vært innen teknologi i 24 år og spenner over flere bransjer, teknologier og roller. Hun fokuserer for tiden på å kombinere sin DevOps- og ML-bakgrunn i MLOps-domenet for å hjelpe kunder med å levere og administrere ML-arbeidsmengder i stor skala. Med over 35 patenter gitt på tvers av ulike teknologidomener, har hun en lidenskap for kontinuerlig innovasjon og bruk av data for å drive forretningsresultater. Shelbee er medskaper og instruktør for spesialiseringen Practical Data Science på Coursera. Hun er også meddirektør for Women In Big Data (WiBD), kapittel i Denver. På fritiden liker hun å tilbringe tid med familie, venner og overaktive hunder.
- SEO-drevet innhold og PR-distribusjon. Bli forsterket i dag.
- PlatoData.Network Vertical Generative Ai. Styrk deg selv. Tilgang her.
- PlatoAiStream. Web3 Intelligence. Kunnskap forsterket. Tilgang her.
- PlatoESG. Karbon, CleanTech, Energi, Miljø, Solenergi, Avfallshåndtering. Tilgang her.
- PlatoHelse. Bioteknologisk og klinisk etterretning. Tilgang her.
- kilde: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- : har
- :er
- :ikke
- :hvor
- $OPP
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- evne
- Om oss
- Aksepterer
- akseptabelt
- adgang
- aksesseres
- tvers
- tilpasning
- tilpasser
- legge til
- legge
- Ytterligere
- I tillegg
- adresse
- adoptere
- avansert
- Fordel
- fordeler
- Annonsering
- Etter
- Avtale
- AI
- AI rett
- AI / ML
- Alle
- tillate
- tillater
- allerede
- også
- Amazon
- Amazon SageMaker
- Amazon SageMaker Studio
- Amazon Simple Storage Service (S3)
- Amazon Web Services
- Amazon Web Services (AWS)
- beløp
- an
- analysere
- og
- En annen
- noen
- api
- søknader
- tilnærming
- tilnærminger
- godkjent
- ca
- ER
- områder
- AS
- Førsteamanuensis
- At
- automatisk
- Automatisering
- tilgjengelig
- AWS
- tilbake
- bakgrunn
- barrierer
- basen
- BE
- fordi
- bli
- blir
- vært
- atferd
- Fordeler
- BEST
- beste praksis
- mellom
- Stor
- Store data
- Milliarder
- milliarder
- Blokker
- borde
- Board Games
- både
- grenser
- bygge
- virksomhet
- men
- by
- tilbakeringinger
- som heter
- CAN
- evne
- fangst
- forsiktig
- saken
- saker
- utfordre
- utfordringer
- Kapittel
- Topplisten
- Sjakk
- klasse
- fjerne
- kode
- kodebase
- samling
- samlinger
- kombinere
- kombinert
- skurtreskerne
- kombinere
- Selskaper
- sammenligne
- sammenligning
- konkurranse
- komplekse
- kompleksitet
- komponent
- komponenter
- beregningen
- beregnings
- datamaskin
- Datamaskin syn
- forhold
- vurderer
- innhold
- innholdsskaping
- kontinuerlig
- kontinuerlig
- Kjerne
- Kostnad
- kunne
- dekket
- Dekker
- skape
- opprettet
- skaperverket
- kreativitet
- I dag
- skikk
- kunde
- Kundeservice
- Kunder
- tilpasning
- tilpasse
- skjærekant
- dato
- datavitenskap
- datasett
- dyp
- dyp læring
- dypere
- Misligholde
- den
- leverer
- Delta
- demonstrere
- Denver
- utplassere
- utplassert
- utplasserings
- distribusjon
- utforming
- detaljer
- Utvikler
- utvikle
- Utvikling
- forskjellig
- vanskelig
- direkte
- Vise
- distribuere
- distribusjon
- dykk
- domene
- domener
- nedlasting
- ulemper
- stasjonen
- under
- hver enkelt
- enklere
- lett
- Edge
- effektiv
- effektivt
- ellers
- Emery
- muliggjør
- oppmuntre
- ende til ende
- Endpoint
- Ingeniørarbeid
- Enterprise
- enhet
- Miljø
- epoke
- Era
- etc
- evaluere
- evaluering
- eksempel
- eksempler
- used
- gjennomføring
- eksisterende
- dyrt
- erfaring
- eksperiment
- eksperimenter
- ekspertise
- eksponentielt
- Face
- Failure
- familie
- raskere
- Trekk
- Egenskaper
- filet
- Filer
- Finn
- slutt
- Først
- fikset
- fleksibilitet
- fokuserer
- fokusering
- etter
- Til
- funnet
- Fundament
- Gratis
- venner
- fra
- fullt
- funksjon
- videre
- framtid
- Gevinst
- fikk
- Games
- gateway
- genererer
- generative
- Generativ AI
- Go
- skal
- god
- GPU
- innvilget
- graf
- grafer
- Gruppe
- Gruppens
- hånd
- håndtere
- Ha
- å ha
- he
- hjelpe
- hjelpe
- hjelper
- her
- hierarki
- svært
- hans
- vert
- hotteste
- Hvordan
- Hvordan
- Men
- HTML
- HTTPS
- Klem ansikt
- illustrerer
- bilde
- iverksette
- gjennomføring
- importere
- viktig
- viktigere
- import
- forbedre
- in
- inkludert
- inkluderer
- Inkludert
- Øke
- øker
- økende
- uavhengig
- uavhengig av hverandre
- bransjer
- industri
- ineffektivitet
- blåses opp
- informasjon
- Innovasjon
- inngang
- f.eks
- i stedet
- instruksjoner
- integrere
- integrert
- interesse
- Internet
- inn
- Introduserer
- IT
- DET ER
- james
- Java
- Jobb
- Jobb
- sammenføyning
- jpg
- Hold
- holde
- nøkkel
- sparke
- kunnskap
- Språk
- stor
- største
- siste
- leder
- Fører
- læring
- Lar
- Nivå
- Bibliotek
- Tillatelse
- ligger
- i likhet med
- liker
- LINK
- knyttet
- oppført
- LLM
- laste
- lasting
- lokal
- plassering
- logg
- logging
- logikk
- Se
- ser ut som
- ser
- tap
- maskin
- maskinlæring
- Hoved
- GJØR AT
- Making
- administrer
- fikk til
- ledelse
- administrerende
- mange
- Marketing
- Markedsføring og annonsering
- massive
- Kan..
- Minne
- Flett
- sammenslåing
- metadata
- metode
- metoder
- Metrics
- migrere
- ML
- MLOps
- Mote
- modell
- modeller
- Moduler
- mer
- flere
- navn
- Naturlig
- Natural Language Processing
- nødvendig
- Trenger
- trenger
- behov
- Ny
- nlp
- bærbare
- nå
- Antall
- of
- off
- Tilbud
- ofte
- on
- gang
- ONE
- bare
- operasjonell
- Drift
- optimalisering
- Optimalisere
- optimalisert
- optimalisere
- or
- organisasjon
- organisasjoner
- original
- Annen
- vår
- utfall
- produksjon
- enn
- Overcome
- overveldende
- egen
- pakke
- parameter
- parametere
- del
- lidenskap
- Patenter
- banen
- prosent
- ytelse
- tillatelser
- stykker
- plato
- Platon Data Intelligence
- PlatonData
- spiller
- i tillegg til
- politikk
- Populær
- popularitet
- del
- mulig
- Post
- makt
- kraftig
- Praktisk
- praksis
- forutsetninger
- gaver
- bevarer
- forebygge
- tidligere
- primære
- Principal
- Før
- prosess
- Prosesser
- prosessering
- Progress
- riktig
- egenskaper
- gir
- Skyv
- Python
- pytorch
- spørsmål
- raskt
- område
- raskt
- sanntids
- grunnen til
- grunner
- nylig
- redusere
- Redusert
- reduserer
- redusere
- referere
- reflekterende
- registrere
- registrert
- registret
- i slekt
- Relasjoner
- relevant
- bemerkelsesverdig
- Rapportering
- Repository
- krever
- påkrevd
- Krav
- Ressurser
- REST
- resultere
- gjenbruk
- ikke sant
- Rolle
- roller
- Kjør
- rennende
- går
- runtime
- sagemaker
- Spar
- lagret
- besparende
- Besparelser
- Skala
- skalering
- Vitenskap
- forskere
- SDK
- Søk
- Sekund
- Seksjon
- seksjoner
- søker
- halvledere
- senior
- separat
- separering
- tjeneste
- Tjenester
- servering
- flere
- Del
- deling
- hun
- bør
- vist
- Viser
- lignende
- Enkelt
- siden
- enkelt
- Størrelse
- langsom
- liten
- mindre
- tekstutdrag
- løsning
- Solutions
- noen
- kilde
- Rom
- Spenning
- spesialist
- spesialisert
- spesifikk
- spesielt
- bruke
- splittet
- interessenter
- Begynn
- Tilstand
- state-of-the-art
- status
- Trinn
- Steps
- Still
- lagring
- oppbevare
- lagret
- studio
- slik
- støtte
- TAG
- ta
- Oppgave
- oppgaver
- teknikk
- teknikker
- Technologies
- Teknologi
- telekommunikasjon
- vilkår
- testet
- tekst
- Det
- De
- deres
- Dem
- deretter
- Der.
- Disse
- de
- denne
- Gjennom
- tid
- til
- sammen
- verktøy
- lommelykt
- spor
- tradisjonelle
- Tog
- Kurs
- overføre
- transformator
- transformers
- Traveling
- sant
- prøve
- melodi
- tuned
- tuning
- to
- typen
- typer
- etter
- forståelse
- Oppdater
- oppdatering
- lastet opp
- URL
- bruke
- bruk sak
- brukt
- Bruker
- Brukere
- ved hjelp av
- validering
- Verdifull
- verdi
- variasjon
- ulike
- enorme
- versjon
- versjoner
- veldig
- av
- Se
- syn
- visuell
- gå
- gikk
- ønsker
- var
- Vei..
- måter
- we
- web
- webtjenester
- når
- hvilken
- mens
- hvorfor
- bred
- Bred rekkevidde
- vil
- med
- innenfor
- uten
- Dame
- Arbeid
- arbeidet
- arbeidsflyt
- virker
- år
- Du
- Din
- deg selv
- zephyrnet