În era datelor mari și AI, companiile caută în mod continuu modalități de a folosi aceste tehnologii pentru a obține un avantaj competitiv. Una dintre cele mai fierbinți domenii ale AI în acest moment este AI generativă și din motive întemeiate. Generative AI oferă soluții puternice care împing limitele a ceea ce este posibil în ceea ce privește creativitatea și inovația. La baza acestor soluții de ultimă oră se află un model de bază (FM), un model de învățare automată foarte avansat, care este antrenat în prealabil pe cantități mari de date. Multe dintre aceste modele de bază au demonstrat o capacitate remarcabilă în înțelegerea și generarea de text asemănător omului, făcându-le un instrument valoros pentru o varietate de aplicații, de la crearea de conținut până la automatizarea asistenței pentru clienți.
Cu toate acestea, aceste modele nu sunt lipsite de provocări. Ele sunt excepțional de mari și necesită cantități mari de date și resurse de calcul pentru a fi instruite. În plus, optimizarea procesului de antrenament și calibrarea parametrilor poate fi un proces complex și iterativ, care necesită expertiză și experimentare atentă. Acestea pot fi bariere pentru multe organizații care doresc să-și construiască propriile modele de fundație. Pentru a depăși această provocare, mulți clienți se gândesc să ajusteze modelele de fond de ten existente. Aceasta este o tehnică populară pentru a ajusta o mică parte a parametrilor modelului pentru aplicații specifice, păstrând în același timp cunoștințele deja codificate în model. Permite organizațiilor să folosească puterea acestor modele, reducând în același timp resursele necesare pentru personalizare la un domeniu sau sarcină specific.
Există două abordări principale pentru reglarea fină a modelelor de fundație: reglarea fină tradițională și reglarea fină eficientă din punct de vedere al parametrilor. Reglarea fină tradițională implică actualizarea tuturor parametrilor modelului pre-antrenat pentru o sarcină specifică din aval. Pe de altă parte, reglarea fină eficientă din punct de vedere al parametrilor include o varietate de tehnici care permit personalizarea unui model fără a actualiza toți parametrii originali ai modelului. O astfel de tehnică este numită Low-rank Adaptation (LoRA). Aceasta implică adăugarea de module mici, specifice sarcinii, la modelul pre-antrenat și antrenarea lor, păstrând restul parametrilor fixați, așa cum se arată în imaginea următoare.
Sursa: AI generativ pe AWS (O'Reilly, 2023)
LoRA a câștigat popularitate recent din mai multe motive. Oferă un antrenament mai rapid, cerințe reduse de memorie și capacitatea de a reutiliza modele pre-antrenate pentru mai multe sarcini din aval. Mai important, modelul de bază și adaptorul pot fi stocate separat și combinate în orice moment, facilitând stocarea, distribuirea și partajarea versiunilor ajustate. Cu toate acestea, aceasta introduce o nouă provocare: cum să gestionați corect aceste noi tipuri de modele reglate fin. Ar trebui să combinați modelul de bază și adaptorul sau să le păstrați separate? În această postare, trecem prin cele mai bune practici pentru gestionarea modelelor ajustate LoRA Amazon SageMaker pentru a aborda această întrebare emergentă.
Lucrul cu FM-uri pe SageMaker Model Registry
În această postare, parcurgem un exemplu de la capăt la capăt al reglajului fin al modelului de limbaj mare (LLM) Llama2 folosind metoda QLoRA. QLoRA combină beneficiile reglajului fin eficient al parametrilor cu cuantizarea pe 4 biți/8 biți pentru a reduce și mai mult resursele necesare pentru reglarea fină a unui FM la o anumită sarcină sau caz de utilizare. Pentru aceasta, vom folosi modelul pre-antrenat Llama7 cu 2 miliarde de parametri și îl vom regla fin pe setul de date databricks-dolly-15k. LLM-urile precum Llama2 au miliarde de parametri și sunt antrenate în prealabil pe seturi masive de date text. Reglarea fină adaptează un LLM la o sarcină în aval folosind un set de date mai mic. Cu toate acestea, reglarea fină a modelelor mari este costisitoare din punct de vedere computațional. Acesta este motivul pentru care vom folosi metoda QLoRA pentru a cuantifica ponderile în timpul reglajului fin pentru a reduce acest cost de calcul.
În exemplele noastre, veți găsi două caiete (llm-finetune-combined-with-registry.ipynb
și llm-finetune-separate-with-registry.ipynb
). Fiecare lucrează printr-un mod diferit de a gestiona modelele ajustate LoRA, așa cum este ilustrat în următoarea diagramă:
- Mai întâi, descarcăm modelul pre-antrenat Llama2 cu 7 miliarde de parametri folosind SageMaker Studio Notebooks. LLM-urile, precum Llama2, au arătat performanțe de ultimă generație în sarcinile de procesare a limbajului natural (NLP) atunci când sunt reglate fin pe date specifice domeniului.
- Apoi, reglam fin Llama2 pe setul de date databricks-dolly-15k folosind metoda QLoRA. QLoRA reduce costul de calcul al reglajului fin prin cuantificarea greutăților modelului.
- În timpul reglajului fin, integrăm SageMaker Experiments Plus cu API-ul Transformers pentru a înregistra automat valori precum gradient, pierdere etc.
- Apoi, versiunea modelului Llama2 ajustat în SageMaker Model Registry utilizând două abordări:
- Stocarea modelului complet
- Depozitarea adaptorului și modelului de bază separat.
- În cele din urmă, găzduim modelele Llama2 ajustate folosind Deep Java Library (DJL) Servire pe un punct final SageMaker Real-time.
În secțiunile următoare, ne vom aprofunda în fiecare dintre acești pași, pentru a demonstra flexibilitatea SageMaker pentru diferite fluxuri de lucru LLM și modul în care aceste caracteristici pot ajuta la îmbunătățirea operațiunilor modelelor dvs.
Cerințe preliminare
Completați următoarele cerințe preliminare pentru a începe să experimentați cu codul.
- Crearea unei Domeniul SageMaker Studio: Amazon SageMaker Studio, în special Studio Notebooks, este folosit pentru a începe sarcina de reglare fină Llama2, apoi înregistrează și vizualiza modele în Registrul de modele SageMaker. Experimentele SageMaker este, de asemenea, utilizat pentru a vizualiza și compara jurnalele de reglare fină a lucrărilor Llama2 (pierdere de antrenament/pierdere de test/etc.).
- Creați un bucket Amazon Simple Storage Service (S3).: Este necesar accesul la o găleată S3 pentru a stoca artefacte de antrenament și greutățile modelului. Pentru instrucțiuni, consultați Crearea unei găleți. Exemplul de cod folosit pentru această postare va folosi compartimentul S3 implicit SageMaker, dar îl puteți personaliza pentru a utiliza orice compartiment S3 relevant.
- Configurați colecții de modele (permisiuni IAM): Actualizați-vă rolul de execuție SageMaker cu permisiuni pentru grupurile de resurse, așa cum sunt enumerate în Ghidul dezvoltatorului de colecții de registru model pentru a implementa gruparea Model Registry folosind Model Collections.
- Acceptați Termenii și condițiile pentru Llama2: va trebui să acceptați acordul de licență pentru utilizatorul final și politica de utilizare acceptabilă pentru utilizarea modelului de fundație Llama2.
Exemplele sunt disponibile în GitHub depozit. Fișierele notebook-uri sunt testate folosind notebook-uri Studio care rulează pe PyTorch 2.0.0 Python 3.10 GPU Optimized kernel și tipul de instanță ml.g4dn.xlarge.
Experimente plus integrarea apelului invers
Experimente Amazon SageMaker vă permite să organizați, să urmăriți, să comparați și să evaluați experimente de învățare automată (ML) și versiuni de model din orice mediu de dezvoltare integrat (IDE), inclusiv notebook-uri Jupyter locale, folosind SDK-ul SageMaker Python sau boto3. Oferă flexibilitatea de a înregistra valorile modelului, parametrii, fișierele, artefactele, graficele din diferitele valori, capturarea diferitelor metadate, căutarea prin ele și susținerea reproductibilității modelului. Oamenii de știință de date pot compara rapid performanța și hiperparametrii pentru evaluarea modelului prin diagrame și tabele vizuale. De asemenea, pot folosi SageMaker Experiments pentru a descărca diagramele create și pentru a partaja evaluarea modelului cu părțile interesate.
Formarea LLM-urilor poate fi un proces lent, costisitor și iterativ. Este foarte important pentru un utilizator să urmărească experimentarea LLM la scară pentru a preveni o experiență inconsistentă de reglare a modelului. API-urile HuggingFace Transformer permite utilizatorilor să urmărească valorile în timpul sarcinilor de formare prin Rambursări. Reapelurile sunt bucle de cod „numai citite” care pot personaliza comportamentul buclei de antrenament în PyTorch Trainer, care poate inspecta starea buclei de antrenament pentru raportarea progresului, conectarea pe TensorBoard sau SageMaker Experiments Plus prin logică personalizată (care este inclusă ca parte din această bază de cod).
Puteți importa codul de apel invers SageMaker Experiments inclus în depozitul de coduri al acestei postări, așa cum se arată în următorul bloc de cod:
Acest apel invers va înregistra automat următoarele informații în SageMaker Experiments ca parte a cursului de antrenament:
- Parametri de antrenament și hiper-parametri
- Model Training și pierdere de validare la Step, Epoch și Final
- Artefacte de intrare și ieșire model (set de date de antrenament, set de date de validare, locație de ieșire a modelului, depanator de antrenament și multe altele)
Următorul grafic prezintă exemple de diagrame pe care le puteți afișa folosind acele informații.
Acest lucru vă permite să comparați mai multe rulări cu ușurință utilizând caracteristica Analiză a SageMaker Experiments. Puteți selecta experimentele pe care doriți să le comparați, iar acestea vor completa automat graficele de comparație.
Înregistrați modele ajustate în colecțiile de registru de modele
Colecții de modele de registru este o caracteristică a Registrul de modele SageMaker care vă permite să grupați modele înregistrate care sunt legate între ele și să le organizați în ierarhii pentru a îmbunătăți descoperirea modelului la scară. Vom folosi Model Registry Collections pentru a ține evidența modelului de bază și a variantelor ajustate.
Metoda de copiere a modelului complet
Prima metodă combină modelul de bază și adaptorul LoRA și salvează modelul complet reglat. Următorul cod ilustrează procesul de îmbinare a modelului și salvează modelul combinat folosind model.save_pretrained()
.
Combinarea adaptorului LoRA și a modelului de bază într-un singur artefact de model după reglare fină are avantaje și dezavantaje. Modelul combinat este autonom și poate fi gestionat și implementat independent, fără a fi nevoie de modelul de bază original. Modelul poate fi urmărit ca entitate proprie cu un nume de versiune care reflectă modelul de bază și datele de reglare fină. Putem adopta o nomenclatură folosind base_model_name
+ reglat fin dataset_name
pentru a organiza grupurile model. Opțional, colecțiile de modele pot asocia modelele originale și cele ajustate, dar acest lucru poate să nu fie necesar, deoarece modelul combinat este independent. Următorul fragment de cod vă arată cum să înregistrați modelul reglat fin.
Puteți utiliza estimatorul de instruire pentru a înregistra modelul în Registrul modelului.
Din Registrul modelului, puteți prelua pachetul de model și puteți implementa modelul respectiv.
Cu toate acestea, această abordare are dezavantaje. Combinarea modelelor duce la ineficiența stocării și la redundanță, deoarece modelul de bază este duplicat în fiecare versiune reglată fin. Pe măsură ce dimensiunea modelului și numărul de modele ajustate cresc, acest lucru crește exponențial nevoile de stocare. Luând ca exemplu modelul llama2 7b, modelul de bază este de aproximativ 13 GB, iar modelul reglat fin este de 13.6 GB. 96% la sută din model trebuie să fie duplicat după fiecare reglare fină. În plus, distribuirea și partajarea fișierelor model foarte mari devine, de asemenea, mai dificilă și prezintă provocări operaționale, deoarece costurile de transfer și de gestionare a fișierelor cresc odată cu creșterea dimensiunii modelului și perfecționarea lucrărilor.
Adaptorul separat și metoda de bază
A doua metodă se concentrează pe separarea greutăților de bază și a greutăților adaptorului, salvându-le ca componente separate de model și încărcându-le secvenţial în timpul rulării.
Salvarea greutăților de bază și adaptor are avantaje și dezavantaje, similare metodei de copiere a modelului complet. Un avantaj este că poate economisi spațiu de stocare. Greutățile de bază, care sunt cea mai mare componentă a unui model reglat fin, sunt salvate o singură dată și pot fi reutilizate cu alte greutăți adaptoare care sunt reglate pentru diferite sarcini. De exemplu, greutățile de bază ale Llama2-7B sunt de aproximativ 13 GB, dar fiecare sarcină de reglare fină trebuie să stocheze doar aproximativ 0.6 GB de greutăți ale adaptorului, ceea ce reprezintă o economie de spațiu de 95%. Un alt avantaj este că greutățile de bază pot fi gestionate separat de greutățile adaptorului folosind un registru de modele numai pentru greutăți de bază. Acest lucru poate fi util pentru domeniile SageMaker care rulează într-un mod numai VPC fără un gateway de internet, deoarece greutățile de bază pot fi accesate fără a fi nevoie să treceți prin internet.
Creați un grup de pachete de modele pentru greutățile de bază
Creați un grup de pachete de modele pentru greutățile QLoRA
Următorul cod arată cum să etichetați ponderile QLoRA cu setul de date/tipul de sarcină și să înregistrați ponderile delta reglate fin într-un registru de model separat și să urmăriți ponderile delta separat.
Următorul fragment arată o vedere din Registrul de modele în care modelele sunt împărțite în greutăți de bază și reglate fin.
Gestionarea modelelor, seturilor de date și sarcinilor pentru LLM-uri hiperpersonalizate poate deveni rapid copleșitoare. Colecții de registru de modele SageMaker vă poate ajuta să grupați modelele asociate și să le organizați într-o ierarhie pentru a îmbunătăți capacitatea de descoperire a modelului. Acest lucru facilitează urmărirea relațiilor dintre greutățile de bază, greutățile adaptorului și seturile de date de sarcini de reglare fină. De asemenea, puteți crea relații complexe și legături între modele.
Creați o nouă colecție și adăugați greutățile modelului de bază la această colecție
Conectați toate greutățile tale ale adaptorului LoRA ajustate la această colecție în funcție de sarcină și/sau set de date
Acest lucru va avea ca rezultat o ierarhie de colecție care sunt legate în funcție de tipul de model/sarcină și de setul de date utilizat pentru reglarea fină a modelului de bază.
Această metodă de separare a modelelor de bază și adaptor are unele dezavantaje. Un dezavantaj este complexitatea implementării modelului. Deoarece există două artefacte de model separate, aveți nevoie de pași suplimentari pentru a reambala modelul în loc să îl implementați direct din Registrul modelului. În următorul exemplu de cod, descărcați și reambalați mai întâi cea mai recentă versiune a modelului de bază.
Apoi descărcați și reambalați cele mai recente greutăți ale adaptoarelor LoRA ajustate.
Deoarece veți folosi servirea DJL cu deepspeed pentru a găzdui modelul, directorul de inferență ar trebui să arate ca următorul.
În cele din urmă, împachetați codul de inferență personalizat, modelul de bază și adaptorul LoRA într-un singur fișier .tar.gz pentru implementare.
A curăța
Curățați-vă resursele urmând instrucțiunile din secțiunea de curățare a notebook-ului. A se referi la Prețuri Amazon SageMaker pentru detalii privind costul instanțelor de inferență.
Concluzie
Această postare v-a prezentat cele mai bune practici pentru gestionarea modelelor ajustate LoRA pe Amazon SageMaker. Am acoperit două metode principale: combinarea greutăților de bază și adaptorului într-un singur model autonom și separarea greutăților de bază și adaptor. Ambele abordări au compromisuri, dar separarea greutăților ajută la optimizarea stocării și permite tehnici avansate de gestionare a modelelor, cum ar fi SageMaker Model Registry Collections. Acest lucru vă permite să construiți ierarhii și relații între modele pentru a îmbunătăți organizarea și descoperirea. Vă încurajăm să încercați exemplul de cod GitHub depozit pentru a experimenta singur aceste metode. Pe măsură ce IA generativă progresează rapid, respectarea celor mai bune practici de gestionare a modelelor vă va ajuta să urmăriți experimentele, să găsiți modelul potrivit pentru sarcina dvs. și să gestionați eficient LLM-urile specializate la scară.
Referinte
Despre autori
James Wu este arhitect senior de soluții de specialitate AI/ML la AWS. ajutând clienții să proiecteze și să construiască soluții AI/ML. Munca lui James acoperă o gamă largă de cazuri de utilizare ML, cu un interes principal în viziunea computerizată, învățarea profundă și scalarea ML în întreaga întreprindere. Înainte de a se alătura AWS, James a fost arhitect, dezvoltator și lider tehnologic timp de peste 10 ani, inclusiv 6 ani în inginerie și 4 ani în industriile de marketing și publicitate.
Pranav Murthy este arhitect specializat în soluții AI/ML la AWS. El se concentrează pe a ajuta clienții să construiască, să antreneze, să implementeze și să migreze sarcinile de lucru de învățare automată (ML) către SageMaker. El a lucrat anterior în industria semiconductoarelor, dezvoltând modele de viziune computerizată (CV) și procesare a limbajului natural (NLP) pentru a îmbunătăți procesele semiconductoare. În timpul liber, îi place să joace șah și să călătorească.
Mecit Gungor este arhitect de soluții de specialitate AI/ML la AWS, care ajută clienții să proiecteze și să construiască soluții AI/ML la scară. El acoperă o gamă largă de cazuri de utilizare AI/ML pentru clienții de telecomunicații și în prezent se concentrează pe IA generativă, LLM-uri și optimizarea instruirii și a inferenței. El poate fi găsit adesea făcând drumeții în sălbăticie sau jucând jocuri de societate cu prietenii săi în timpul liber.
Shelbee Eigenbrode este arhitect principal în soluții de AI și învățare automată la Amazon Web Services (AWS). Ea lucrează în tehnologie de 24 de ani, acoperind mai multe industrii, tehnologii și roluri. În prezent, ea se concentrează pe combinarea experienței sale DevOps și ML în domeniul MLOps pentru a ajuta clienții să livreze și să gestioneze sarcinile de lucru ML la scară. Cu peste 35 de brevete acordate în diverse domenii tehnologice, ea are o pasiune pentru inovarea continuă și utilizarea datelor pentru a genera rezultate în afaceri. Shelbee este co-creator și instructor al specializării Practical Data Science pe Coursera. Ea este, de asemenea, co-director al Women In Big Data (WiBD), capitolul Denver. În timpul liber, îi place să petreacă timpul cu familia, prietenii și câinii hiperactivi.
- Distribuție de conținut bazat pe SEO și PR. Amplifică-te astăzi.
- PlatoData.Network Vertical Generative Ai. Împuterniciți-vă. Accesați Aici.
- PlatoAiStream. Web3 Intelligence. Cunoștințe amplificate. Accesați Aici.
- PlatoESG. carbon, CleanTech, Energie, Mediu inconjurator, Solar, Managementul deșeurilor. Accesați Aici.
- PlatoHealth. Biotehnologie și Inteligență pentru studii clinice. Accesați Aici.
- Sursa: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :are
- :este
- :nu
- :Unde
- $UP
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- capacitate
- Despre Noi
- Accept
- acceptabil
- acces
- accesate
- peste
- adaptare
- se adaptează
- adăuga
- adăugare
- Suplimentar
- În plus,
- adresa
- adopta
- avansat
- Avantaj
- Avantajele
- Promovare
- După
- Acord
- AI
- AI corect
- AI / ML
- TOATE
- permite
- permite
- deja
- de asemenea
- Amazon
- Amazon SageMaker
- Amazon SageMaker Studio
- Serviciul de stocare simplu Amazon (S3)
- Amazon Web Services
- Amazon Web Services (AWS)
- Sume
- an
- analiza
- și
- O alta
- Orice
- api
- aplicatii
- abordare
- abordari
- aprobat
- aproximativ
- SUNT
- domenii
- AS
- Avocat Colaborator
- At
- în mod automat
- Automatizare
- disponibil
- AWS
- înapoi
- fundal
- bariere
- de bază
- BE
- deoarece
- deveni
- devine
- fost
- comportament
- Beneficiile
- CEL MAI BUN
- Cele mai bune practici
- între
- Mare
- Datele mari
- Miliard
- miliarde
- Bloca
- bord
- Consiliul de Jocuri
- atât
- limitele
- construi
- afaceri
- dar
- by
- apeluri de apel
- denumit
- CAN
- capacitate
- captura
- atent
- caz
- cazuri
- contesta
- provocări
- Capitol
- Grafice
- Şah
- clasă
- clar
- cod
- codeBase
- colectare
- colecții
- combina
- combinate
- combină
- combinând
- Companii
- comparaţie
- comparație
- competitiv
- complex
- complexitate
- component
- componente
- calcul
- de calcul
- calculator
- Computer Vision
- Condiții
- luand in considerare
- conţinut
- crearea de continut
- continuu
- continuu
- Nucleu
- A costat
- ar putea
- acoperit
- Covers
- crea
- a creat
- creaţie
- creativitate
- În prezent
- personalizat
- client
- Relații Clienți
- clienţii care
- personalizare
- personaliza
- ultima generație
- de date
- știința datelor
- seturi de date
- adânc
- învățare profundă
- Mai adânc
- Mod implicit
- del
- livra
- Deltă
- demonstra
- Denver
- implementa
- dislocate
- Implementarea
- desfășurarea
- Amenajări
- detalii
- Dezvoltator
- în curs de dezvoltare
- Dezvoltare
- diferit
- dificil
- direct
- Afişa
- distribui
- distribuire
- scufunda
- domeniu
- domenii
- Descarca
- dezavantaje
- conduce
- în timpul
- fiecare
- mai ușor
- cu ușurință
- Margine
- eficient
- eficient
- altfel
- șmirghel
- permite
- încuraja
- un capăt la altul
- Punct final
- Inginerie
- Afacere
- entitate
- Mediu inconjurator
- epocă
- Eră
- etc
- evalua
- evaluare
- exemplu
- exemple
- excepţional
- execuție
- existent
- scump
- experienţă
- experiment
- experimente
- expertiză
- exponențial
- Față
- Eșec
- familie
- mai repede
- Caracteristică
- DESCRIERE
- Fișier
- Fişiere
- Găsi
- capăt
- First
- fixată
- Flexibilitate
- se concentrează
- concentrându-se
- următor
- Pentru
- găsit
- Fundație
- Gratuit
- Prietenii lui
- din
- Complet
- funcţie
- mai mult
- viitor
- Câştig
- dobândită
- Jocuri
- poartă
- generator
- generativ
- AI generativă
- Go
- merge
- bine
- GPU
- acordate
- grafic
- grafice
- grup
- Grupului
- mână
- manipula
- Avea
- având în
- he
- ajutor
- ajutor
- ajută
- ei
- ierarhie
- extrem de
- lui
- gazdă
- cea mai tare
- Cum
- Cum Pentru a
- Totuși
- HTML
- HTTPS
- Față îmbrățișată
- ilustrează
- imagine
- punerea în aplicare a
- implementarea
- import
- important
- important
- importurile
- îmbunătăţi
- in
- inclus
- include
- Inclusiv
- Crește
- Creșteri
- crescând
- independent
- independent
- industrii
- industrie
- ineficacitate
- umfla
- informații
- Inovaţie
- intrare
- instanță
- in schimb
- instrucțiuni
- integra
- integrate
- interes
- Internet
- în
- Prezintă
- IT
- ESTE
- james
- Java
- Loc de munca
- Locuri de munca
- aderarea
- jpg
- A pastra
- păstrare
- Cheie
- lovi cu piciorul
- cunoştinţe
- limbă
- mare
- cea mai mare
- Ultimele
- lider
- Conduce
- învăţare
- Permite
- Nivel
- Bibliotecă
- Licență
- se află
- ca
- îi place
- LINK
- legate de
- listat
- LLM
- încărca
- încărcare
- local
- locaţie
- log
- logare
- logică
- Uite
- arată ca
- cautati
- de pe
- maşină
- masina de învățare
- Principal
- FACE
- Efectuarea
- administra
- gestionate
- administrare
- de conducere
- multe
- Marketing
- Marketing și publicitate
- masiv
- Mai..
- Memorie
- Îmbina
- care fuzionează
- Metadata
- metodă
- Metode
- Metrici
- migra
- ML
- MLOps
- mod
- model
- Modele
- Module
- mai mult
- multiplu
- nume
- Natural
- Procesarea limbajului natural
- necesar
- Nevoie
- au nevoie
- nevoilor
- Nou
- nlp
- caiet
- acum
- număr
- of
- de pe
- promoții
- de multe ori
- on
- dată
- ONE
- afară
- operațional
- Operațiuni
- optimizare
- Optimizați
- optimizate
- optimizarea
- or
- organizație
- organizații
- original
- Altele
- al nostru
- rezultate
- producție
- peste
- Învinge
- copleşitor
- propriu
- pachet
- parametru
- parametrii
- parte
- pasiune
- Brevete de inventie
- cale
- la sută
- performanță
- permisiuni
- piese
- Plato
- Informații despre date Platon
- PlatoData
- joc
- la care se adauga
- Politica
- Popular
- popularitate
- porţiune
- posibil
- Post
- putere
- puternic
- Practic
- practicile
- premise
- cadouri
- păstrarea
- împiedica
- în prealabil
- primar
- Principal
- anterior
- proces
- procese
- prelucrare
- Progres
- cum se cuvine
- proprietăţi
- furnizează
- Împinge
- Piton
- pirtorh
- întrebare
- repede
- gamă
- repede
- în timp real
- motiv
- motive
- recent
- reduce
- Redus
- reduce
- reducerea
- trimite
- reflectând
- Inregistreaza-te
- înregistrată
- registru
- legate de
- Relaţii
- remarcabil
- Raportarea
- depozit
- necesita
- necesar
- Cerinţe
- Resurse
- REST
- rezultat
- reutilizarea
- dreapta
- Rol
- rolurile
- Alerga
- funcţionare
- ruleaza
- Runtime
- sagemaker
- Economisiți
- salvate
- economisire
- Economie
- Scară
- scalare
- Ştiinţă
- oamenii de stiinta
- sdk
- Caută
- Al doilea
- Secțiune
- secțiuni
- caută
- semiconductor
- senior
- distinct
- separând
- serviciu
- Servicii
- servire
- câteva
- Distribuie
- partajarea
- ea
- să
- indicat
- Emisiuni
- asemănător
- simplu
- întrucât
- singur
- Mărimea
- încetini
- mic
- mai mici
- fragment
- soluţie
- soluţii
- unele
- Sursă
- Spaţiu
- tensiune
- specialist
- de specialitate
- specific
- specific
- petrece
- împărţi
- părțile interesate
- Începe
- Stat
- de ultimă oră
- Stare
- Pas
- paşi
- Încă
- depozitare
- stoca
- stocate
- studio
- astfel de
- a sustine
- TAG
- luare
- Sarcină
- sarcini
- tehnică
- tehnici de
- Tehnologii
- Tehnologia
- telecomunicaţie
- termeni
- testat
- a) Sport and Nutrition Awareness Day in Manasia Around XNUMX people from the rural commune Manasia have participated in a sports and healthy nutrition oriented activity in one of the community’s sports ready yards. This activity was meant to gather, mainly, middle-aged people from a Romanian rural community and teach them about the benefits that sports have on both their mental and physical health and on how sporting activities can be used to bring people from a community closer together. Three trainers were made available for this event, so that the participants would get the best possible experience physically and so that they could have the best access possible to correct information and good sports/nutrition practices. b) Sports Awareness Day in Poiana Țapului A group of young participants have taken part in sporting activities meant to teach them about sporting conduct, fairplay, and safe physical activities. The day culminated with a football match.
- acea
- lor
- Lor
- apoi
- Acolo.
- Acestea
- ei
- acest
- Prin
- timp
- la
- împreună
- instrument
- lanternă
- urmări
- tradiţional
- Tren
- Pregătire
- transfer
- transformator
- transformatoare
- Traveling
- adevărat
- încerca
- ton
- reglate
- de reglaj
- Două
- tip
- Tipuri
- în
- înţelegere
- Actualizează
- actualizarea
- încărcat
- URL-ul
- utilizare
- carcasa de utilizare
- utilizat
- Utilizator
- utilizatorii
- folosind
- validare
- Valoros
- valoare
- varietate
- diverse
- Fixă
- versiune
- Versiunile
- foarte
- de
- Vizualizare
- viziune
- vizual
- umbla
- umblat
- vrea
- a fost
- Cale..
- modalități de
- we
- web
- servicii web
- cand
- care
- în timp ce
- de ce
- larg
- Gamă largă
- voi
- cu
- în
- fără
- Femei
- Apartamente
- a lucrat
- fluxuri de lucru
- fabrică
- ani
- Tu
- Ta
- te
- zephyrnet