S hitrim sprejemanjem generativnih aplikacij AI obstaja potreba, da se te aplikacije pravočasno odzovejo, da zmanjšajo zaznano zakasnitev z večjo prepustnostjo. Temeljni modeli (FM) so pogosto vnaprej usposobljeni na obsežnih korpusih podatkov s parametri v obsegu od milijonov do milijard in več. Veliki jezikovni modeli (LLM) so vrsta FM, ki ustvarjajo besedilo kot odziv na sklepanje uporabnika. Sklepanje teh modelov z različnimi konfiguracijami parametrov sklepanja lahko povzroči nedosledne zakasnitve. Nedoslednost je lahko posledica različnega števila odzivnih žetonov, ki jih pričakujete od modela, ali vrste pospeševalnika, na katerem je model nameščen.
V obeh primerih lahko namesto čakanja na popoln odgovor sprejmete pristop pretakanja odgovorov za svoje sklepe, ki pošlje nazaj dele informacij takoj, ko so ustvarjeni. To ustvari interaktivno izkušnjo, saj vam omogoča ogled delnih odgovorov, ki se pretakajo v realnem času, namesto zakasnjenega celotnega odgovora.
Z uradno objavo, da Sklepanje v realnem času Amazon SageMaker zdaj podpira pretakanje odgovorov, lahko zdaj pri uporabi nenehno pretakate sklepne odgovore nazaj odjemalcu Amazon SageMaker realnočasovno sklepanje s pretakanjem odgovorov. Ta rešitev vam bo pomagala zgraditi interaktivne izkušnje za različne generativne aplikacije AI, kot so chatboti, virtualni pomočniki in glasbeni generatorji. Ta objava vam pokaže, kako uresničiti hitrejše odzivne čase v obliki časa do prvega bajta (TTFB) in zmanjšati splošno zaznano zakasnitev med sklepanjem modelov Llama 2.
Za implementacijo rešitve uporabljamo SageMaker, popolnoma upravljano storitev za pripravo podatkov ter gradnjo, usposabljanje in uvajanje modelov strojnega učenja (ML) za vsak primer uporabe s popolnoma upravljano infrastrukturo, orodji in poteki dela. Za več informacij o različnih možnostih uvajanja, ki jih ponuja SageMaker, glejte Pogosta vprašanja o gostovanju modela Amazon SageMaker. Razumejmo, kako lahko odpravimo težave z zakasnitvijo z uporabo sklepanja v realnem času s pretakanjem odgovorov.
Pregled rešitev
Ker želimo obravnavati zgoraj omenjene zakasnitve, povezane s sklepanjem v realnem času z LLM-ji, najprej razumemo, kako lahko uporabimo podporo za pretakanje odzivov za sklepanje v realnem času za Llama 2. Vendar lahko vsak LLM izkoristi podporo za pretakanje odzivov z realnimi - časovno sklepanje.
Llama 2 je zbirka vnaprej usposobljenih in natančno nastavljenih generativnih besedilnih modelov v obsegu od 7 milijard do 70 milijard parametrov. Modeli Llama 2 so avtoregresivni modeli z arhitekturo samo dekoderja. Ko so modeli Llama 2 opremljeni s pozivom in parametri sklepanja, lahko ustvarijo besedilne odgovore. Ti modeli se lahko uporabljajo za prevajanje, povzemanje, odgovarjanje na vprašanja in klepet.
Za to objavo uporabljamo model Llama 2 Chat meta-llama/Llama-2-13b-chat-hf
na SageMaker za sklepanje v realnem času s pretakanjem odgovorov.
Ko gre za uvajanje modelov na končne točke SageMaker, lahko modele pospravite v kontejner z uporabo specializiranih AWS Deep Learning Container (DLC) slike, ki so na voljo za priljubljene odprtokodne knjižnice. Modeli Llama 2 so modeli za generiranje besedila; lahko uporabite bodisi Vsebniki sklepanja Hugging Face LLM na SageMakerju poganja Hugging Face Sklepanje o ustvarjanju besedila (TGI) ali DLC-ji AWS za Sklepanje velikega modela (LMI).
V tej objavi uvajamo model Llama 2 13B Chat z uporabo DLC-jev na gostovanju SageMaker za sklepanje v realnem času, ki ga poganjajo primerki G5. Primerki G5 so visoko zmogljivi primerki, ki temeljijo na grafični procesorji, za grafično intenzivne aplikacije in sklepanje ML. Uporabite lahko tudi podprte vrste primerkov p4d, p3, g5 in g4dn z ustreznimi spremembami glede na konfiguracijo primerka.
Predpogoji
Za izvedbo te rešitve bi morali imeti naslednje:
- Račun AWS z AWS upravljanje identitete in dostopa (IAM) z dovoljenji za upravljanje virov, ustvarjenih kot del rešitve.
- Če prvič delate z Amazon SageMaker Studio, morate najprej ustvariti a Domena SageMaker.
- Račun Hugging Face. Prijava z vašim e-poštnim naslovom, če še nimate računa.
- Za brezhiben dostop do modelov, ki so na voljo na Hugging Face, zlasti do modelov z zaprtimi vrati, kot je Llama, za namene natančnega prilagajanja in sklepanja bi morali imeti račun Hugging Face za pridobitev žetona za dostop do branja. Ko se prijavite za svoj račun Hugging Face, prijavi obiskati https://huggingface.co/settings/tokens da ustvarite žeton za dostop do branja.
- Dostop do Llama 2 z istim e-poštnim ID-jem, ki ste ga uporabili za prijavo na Hugging Face.
- Modeli Llama 2, ki so na voljo prek Hugging Face, so modeli z zaprtimi vrati. Uporabo modela Llama ureja licenca Meta. Če želite prenesti uteži modela in tokenizator, zahtevajte dostop do Llame in sprejmite njihovo licenco.
- Ko vam bo odobren dostop (običajno v nekaj dneh), boste prejeli potrditev po e-pošti. Za ta primer uporabimo model
Llama-2-13b-chat-hf
, vendar bi morali imeti dostop tudi do drugih različic.
Pristop 1: Objemanje obraza TGI
V tem razdelku vam pokažemo, kako uvesti meta-llama/Llama-2-13b-chat-hf
model na končno točko SageMaker v realnem času s pretakanjem odziva z uporabo Hugging Face TGI. Naslednja tabela opisuje specifikacije za to uvedbo.
Tehnični podatki | vrednost |
Posoda | Objemljivi obraz TGI |
Ime modela | meta-lama/lama-2-13b-klepet-hf |
Primerek ML | ml.g5.12xvelik |
Sklepanje | V realnem času s pretakanjem odgovorov |
Namestite model
Najprej pridobite osnovno sliko za LLM, ki ga želite namestiti. Nato zgradite model na osnovni sliki. Nazadnje razmestite model v primerek ML za SageMaker Hosting za sklepanje v realnem času.
Poglejmo, kako programsko doseči uvedbo. Zaradi jedrnatosti je v tem razdelku obravnavana samo koda, ki pomaga pri korakih uvajanja. Celotna izvorna koda za uvajanje je na voljo v zvezku llama-2-hf-tgi/llama-2-13b-chat-hf/1-deploy-llama-2-13b-chat-hf-tgi-sagemaker.ipynb.
Pridobite najnovejši Hugging Face LLM DLC, ki ga poganja TGI, prek vnaprej pripravljenega SageMaker DLC-ji. To sliko uporabite za uvajanje meta-llama/Llama-2-13b-chat-hf
model na SageMaker. Oglejte si naslednjo kodo:
Definirajte okolje za model s konfiguracijskimi parametri, definiranimi na naslednji način:
Zamenjaj <YOUR_HUGGING_FACE_READ_ACCESS_TOKEN>
za konfiguracijski parameter HUGGING_FACE_HUB_TOKEN
z vrednostjo žetona, pridobljenega iz vašega profila Hugging Face, kot je podrobno opisano v razdelku s predpogoji te objave. V konfiguraciji določite število grafičnih procesorjev, uporabljenih na repliko modela, kot 4 za SM_NUM_GPUS
. Potem lahko razporedite meta-llama/Llama-2-13b-chat-hf
model na primerku ml.g5.12xlarge, ki je opremljen s 4 grafičnimi procesorji.
Zdaj lahko zgradite primerek HuggingFaceModel
z zgoraj omenjeno konfiguracijo okolja:
Končno razmestite model tako, da podate argumente metodi razmestitve, ki je na voljo v modelu, z različnimi vrednostmi parametrov, kot je endpoint_name
, initial_instance_count
in instance_type
:
Izvedite sklepanje
Hugging Face TGI DLC ima možnost pretakanja odgovorov brez kakršnih koli prilagoditev ali sprememb kode modela. Lahko uporabiš invoke_endpoint_with_response_stream če uporabljate Boto3 oz InvokeEndpointWithResponseStream pri programiranju s SDK SageMaker Python.
O InvokeEndpointWithResponseStream
API SageMaker razvijalcem omogoča pretakanje odgovorov iz modelov SageMaker, kar lahko pomaga izboljšati zadovoljstvo strank z zmanjšanjem zaznane zakasnitve. To je še posebej pomembno za aplikacije, izdelane z generativnimi modeli AI, kjer je takojšnja obdelava pomembnejša od čakanja na celoten odgovor.
V tem primeru uporabljamo Boto3 za sklepanje modela in uporabo API-ja SageMaker invoke_endpoint_with_response_stream
kot sledi:
Argument CustomAttributes
je nastavljena na vrednost accept_eula=false
. O accept_eula
parameter mora biti nastavljen na true
za uspešno pridobitev odziva modelov Llama 2. Po uspešnem priklicu z uporabo invoke_endpoint_with_response_stream
, bo metoda vrnila odzivni tok bajtov.
Naslednji diagram ponazarja ta potek dela.
Potrebujete iterator, ki preleti tok bajtov in jih razčleni v berljivo besedilo. The LineIterator
izvedbo lahko najdete na llama-2-hf-tgi/llama-2-13b-chat-hf/utils/LineIterator.py. Zdaj ste pripravljeni pripraviti poziv in navodila, da jih uporabite kot koristni tovor med sklepanjem modela.
Pripravite poziv in navodila
V tem koraku pripravite poziv in navodila za svoj LLM. Za poziv Llama 2 bi morali imeti naslednjo predlogo poziva:
Predlogo poziva sestavite programsko definirano v metodi build_llama2_prompt
, ki je usklajen s prej omenjeno predlogo poziva. Nato določite navodila glede na primer uporabe. V tem primeru modelu naročimo, naj ustvari e-poštno sporočilo za tržno kampanjo, kot je opisano v get_instructions
metoda. Koda za te metode je v llama-2-hf-tgi/llama-2-13b-chat-hf/2-sagemaker-realtime-inference-llama-2-13b-chat-hf-tgi-streaming-response.ipynb zvezek. Sestavite navodilo v kombinaciji z nalogo, ki jo je treba izvesti, kot je podrobno opisano v user_ask_1
kot sledi:
Posredujemo navodila za izdelavo poziva v skladu s predlogo poziva, ki jo ustvari build_llama2_prompt.
Parametre sklepanja združimo skupaj s pozivom s ključem stream
z vrednostjo True
za oblikovanje končnega tovora. Pošlji koristni tovor na get_realtime_response_stream
, ki bo uporabljen za priklic končne točke s pretakanjem odgovorov:
Ustvarjeno besedilo iz LLM bo pretočeno v izhod, kot je prikazano v naslednji animaciji.
Pristop 2: LMI s postrežbo DJL
V tem razdelku prikazujemo, kako razmestiti meta-llama/Llama-2-13b-chat-hf
modelira na končno točko SageMaker v realnem času s pretakanjem odziva z uporabo LMI z DJL Serving. Naslednja tabela opisuje specifikacije za to uvedbo.
Tehnični podatki | vrednost |
Posoda | Slika vsebnika LMI z DJL Serving |
Ime modela | meta-lama/lama-2-13b-klepet-hf |
Primerek ML | ml.g5.12xvelik |
Sklepanje | V realnem času s pretakanjem odgovorov |
Najprej prenesete model in ga shranite Preprosta storitev shranjevanja Amazon (Amazon S3). Nato določite URI S3, ki označuje predpono S3 modela v serving.properties
mapa. Nato pridobite osnovno sliko za LLM, ki ga želite namestiti. Nato zgradite model na osnovni sliki. Nazadnje razmestite model v primerek ML za SageMaker Hosting za sklepanje v realnem času.
Oglejmo si, kako programsko doseči zgoraj omenjene korake uvajanja. Zaradi jedrnatosti je v tem razdelku podrobno opisana samo koda, ki pomaga pri korakih uvajanja. Celotna izvorna koda za to uvedbo je na voljo v zvezku llama-2-lmi/llama-2-13b-chat/1-deploy-llama-2-13b-chat-lmi-response-streaming.ipynb.
Prenesite posnetek modela iz Hugging Face in naložite artefakte modela na Amazon S3
Z zgoraj omenjenimi predpogoji prenesite model na primerek prenosnega računalnika SageMaker in ga nato naložite v vedro S3 za nadaljnjo uvedbo:
Upoštevajte, da se bo model prenesel, čeprav ne zagotovite veljavnega žetona za dostop. Ko pa uvedete tak model, strežba modela ne bo uspela. Zato je priporočljivo zamenjati <YOUR_HUGGING_FACE_READ_ACCESS_TOKEN>
za argument token
z vrednostjo žetona, pridobljenega iz vašega profila Hugging Face, kot je podrobno opisano v predpogojih. Za to objavo določimo uradno ime modela za Llama 2, kot je označeno na Hugging Face z vrednostjo meta-llama/Llama-2-13b-chat-hf
. Nestisnjen model bo prenesen v local_model_path
kot rezultat izvajanja zgoraj omenjene kode.
Naložite datoteke v Amazon S3 in pridobite URI, ki bo kasneje uporabljen v serving.properties
.
Pakirali boste meta-llama/Llama-2-13b-chat-hf
model na sliki vsebnika LMI z DJL Serving z uporabo konfiguracije, podane prek serving.properties
. Nato razmestite model skupaj z artefakti modela, zapakiranimi na sliko vsebnika na primerku SageMaker ML ml.g5.12xlarge. Ta primerek ML nato uporabite za SageMaker Hosting za sklepanje v realnem času.
Pripravite artefakte modela za postrežbo DJL
Pripravite svoje modelne artefakte tako, da ustvarite a serving.properties
konfiguracijska datoteka:
V tej konfiguracijski datoteki uporabljamo naslednje nastavitve:
- motor – To določa izvajalni mehanizem, ki ga bo uporabljal DJL. Možne vrednosti vključujejo
Python
,DeepSpeed
,FasterTransformer
inMPI
. V tem primeru ga nastavimo naMPI
. Paralelizacija in sklepanje modela (MPI) olajša razdelitev modela na vse razpoložljive grafične procesorje in tako pospeši sklepanje. - option.entryPoint – Ta možnost določa, kateri upravljalnik, ki ga ponuja DJL Serving, želite uporabiti. Možne vrednosti so
djl_python.huggingface
,djl_python.deepspeed
indjl_python.stable-diffusion
. Uporabljamodjl_python.huggingface
za Hugging Face Accelerate. - možnost.tensor_parallel_degree – Ta možnost določa število tenzorskih vzporednih particij, izvedenih na modelu. Nastavite lahko število naprav GPE, na katere mora Accelerate razdeliti model. Ta parameter nadzoruje tudi število delavcev na model, ki se bo zagnal, ko se bo zagnalo streženje DJL. Na primer, če imamo stroj s 4 GPU in ustvarjamo štiri particije, bomo imeli enega delavca na model, ki bo služil zahtevam.
- option.low_cpu_mem_usage – To zmanjša porabo pomnilnika procesorja pri nalaganju modelov. Priporočamo, da to nastavite na
TRUE
. - option.rolling_batch – To omogoča pakiranje na ravni iteracije z uporabo ene od podprtih strategij. Vrednote vključujejo
auto
,scheduler
inlmi-dist
. Uporabljamolmi-dist
za vklop neprekinjenega doziranja za Llama 2. - option.max_rolling_batch_size – To omejuje število sočasnih zahtev v neprekinjenem paketu. Privzeta vrednost je 32.
- option.model_id – Moral bi zamenjati
{{model_id}}
z ID-jem modela vnaprej usposobljenega modela, ki gostuje znotraj a repozitorij modelov na Hugging Face ali pot S3 do artefaktov modela.
Več možnosti konfiguracije najdete v Konfiguracije in nastavitve.
Ker DJL Serving pričakuje, da bodo artefakti modela zapakirani in oblikovani v datoteki .tar, zaženite naslednji delček kode za stiskanje in nalaganje datoteke .tar v Amazon S3:
Pridobite najnovejšo sliko vsebnika LMI z DJL Serving
Nato uporabite DLC-je, ki so na voljo s SageMaker for LMI, da razmestite model. Pridobite URI slike SageMaker za djl-deepspeed
vsebnik programsko z naslednjo kodo:
Zgoraj omenjeno sliko lahko uporabite za uvajanje meta-llama/Llama-2-13b-chat-hf
model na SageMaker. Zdaj lahko nadaljujete z ustvarjanjem modela.
Ustvarite model
Ustvarite lahko model, katerega vsebnik je zgrajen z uporabo inference_image_uri
in strežna koda modela, ki se nahaja na S3 URI, ki ga označuje s3_code_artifact:
Zdaj lahko ustvarite konfiguracijo modela z vsemi podrobnostmi za konfiguracijo končne točke.
Ustvarite konfiguracijo modela
Uporabite naslednjo kodo, da ustvarite konfiguracijo modela za model, ki ga identificira model_name
:
Konfiguracija modela je definirana za ProductionVariants
parameter InstanceType
za primerek ML ml.g5.12xlarge. Zagotavljate tudi ModelName
z istim imenom, ki ste ga uporabili za ustvarjanje modela v prejšnjem koraku, s čimer vzpostavite razmerje med modelom in konfiguracijo končne točke.
Zdaj, ko ste definirali model in konfiguracijo modela, lahko ustvarite končno točko SageMaker.
Ustvarite končno točko SageMaker
Ustvarite končno točko za uvedbo modela z naslednjim delčkom kode:
Napredek uvajanja si lahko ogledate z naslednjim delčkom kode:
Ko bo uvedba uspešna, bo status končne točke InService
. Zdaj, ko je končna točka pripravljena, izvedimo sklepanje s pretakanjem odziva.
Sklepanje v realnem času s pretakanjem odgovorov
Kot smo opisali v prejšnjem pristopu za Hugging Face TGI, lahko uporabite isto metodo get_realtime_response_stream
za priklic pretakanja odgovorov iz končne točke SageMaker. Koda za sklepanje z uporabo pristopa LMI je v llama-2-lmi/llama-2-13b-chat/2-inference-llama-2-13b-chat-lmi-response-streaming.ipynb zvezek. The LineIterator
izvedba se nahaja v llama-2-lmi/utils/LineIterator.py. Upoštevajte, da LineIterator
za model Llama 2 Chat, ki je nameščen na vsebniku LMI, se razlikuje od modela LineIterator
naveden v razdelku Hugging Face TGI. The LineIterator
zanka čez tok bajtov iz modelov Llama 2 Chat, sklepanih z vsebnikom LMI z djl-deepspeed
različica 0.25.0. Naslednja pomožna funkcija bo razčlenila tok odgovorov, prejet iz zahteve za sklepanje prek invoke_endpoint_with_response_stream
API-ji:
Prejšnja metoda natisne tok podatkov, ki jih prebere LineIterator
v človeku berljivi obliki.
Raziščimo, kako pripraviti poziv in navodila za njihovo uporabo kot obremenitev med sklepanjem o modelu.
Ker sklepate na isti model v Hugging Face TGI in LMI, je postopek priprave poziva in navodil enak. Zato lahko uporabite metode get_instructions
in build_llama2_prompt
za sklepanje.
O get_instructions
metoda vrne navodila. Sestavite navodila v kombinaciji z nalogo, ki jo je treba izvesti, kot je podrobno opisano v user_ask_2
kot sledi:
Posredujte navodila za izdelavo poziva v skladu s predlogo poziva, ki jo je ustvaril build_llama2_prompt:
Parametre sklepanja združimo skupaj s pozivom za oblikovanje končnega tovora. Nato pošljete tovor na get_realtime_response_stream,
ki se uporablja za priklic končne točke s pretakanjem odgovorov:
Ustvarjeno besedilo iz LLM bo pretočeno v izhod, kot je prikazano v naslednji animaciji.
Čiščenje
Da se izognete nepotrebnim stroškom, uporabite Konzola za upravljanje AWS za brisanje končnih točk in z njimi povezanih virov, ki so bili ustvarjeni med izvajanjem pristopov, omenjenih v objavi. Za oba pristopa uvajanja izvedite naslednjo rutino čiščenja:
Zamenjaj <SageMaker_Real-time_Endpoint_Name>
za spremenljivko endpoint_name
z dejansko končno točko.
Za drugi pristop smo artefakte modela in kode shranili na Amazon S3. Vedro S3 lahko očistite z naslednjo kodo:
zaključek
V tej objavi smo razpravljali o tem, kako lahko različno število odzivnih žetonov ali drugačen niz parametrov sklepanja vpliva na zakasnitve, povezane z LLM-ji. Pokazali smo, kako rešiti težavo s pomočjo pretakanja odgovorov. Nato smo opredelili dva pristopa za uvajanje in sklepanje modelov Llama 2 Chat z uporabo AWS DLC-jev – LMI in Hugging Face TGI.
Zdaj bi morali razumeti pomen pretočnega odziva in kako lahko zmanjša zaznano zakasnitev. Pretočni odziv lahko izboljša uporabniško izkušnjo, zaradi česar bi sicer čakali, da LLM ustvari celoten odziv. Poleg tega uvedba modelov Llama 2 Chat s pretakanjem odzivov izboljša uporabniško izkušnjo in osreči vaše stranke.
Lahko se sklicujete na uradne vzorce aws amazon-sagemaker-llama2-response-streaming-recipes ki zajema uvajanje za druge različice modela Llama 2.
Reference
O avtorjih
Pavan Kumar Rao Navule je arhitekt rešitev pri Amazon Web Services. Sodeluje z ISV-ji v Indiji, da bi jim pomagal pri inovacijah na področju AWS. Je avtor objavljene knjige "Getting Started with V Programming." Na Indijskem tehnološkem inštitutu (IIT) v Hyderabadu je opravil magisterij iz podatkovne znanosti. Opravil je tudi Executive MBA iz specializacije IT na indijski šoli za poslovni management in administracijo ter ima diplomo iz elektronike in komunikacijskega inženiringa na Vaagdevi Institute of Technology and Science. Pavan je AWS Certified Solutions Architect Professional in ima druge certifikate, kot so AWS Certified Machine Learning Specialty, Microsoft Certified Professional (MCP) in Microsoft Certified Technology Specialist (MCTS). Je tudi navdušenec nad odprto kodo. V prostem času zelo rad posluša čudovita glasu Sie in Rihanne.
Sudhanshu Hate je glavni strokovnjak za umetno inteligenco/ML pri AWS in sodeluje s strankami, da jim svetuje na njihovi poti MLO in generativne umetne inteligence. V svoji prejšnji vlogi pred Amazonom je konceptualiziral, ustvaril in vodil ekipe za izgradnjo temeljnih odprtokodnih platform AI in iger ter jih uspešno komercializiral z več kot 100 strankami. Sudhanshu ima zasluge za nekaj patentov, napisal je dve knjigi in več člankov ter blogov ter predstavil svoja stališča na različnih tehničnih forumih. Bil je vodja misli in govornik ter je v industriji že skoraj 25 let. Delal je s strankami Fortune 1000 po vsem svetu in nazadnje z domačimi digitalnimi strankami v Indiji.
- Distribucija vsebine in PR s pomočjo SEO. Okrepite se še danes.
- PlatoData.Network Vertical Generative Ai. Opolnomočite se. Dostopite tukaj.
- PlatoAiStream. Web3 Intelligence. Razširjeno znanje. Dostopite tukaj.
- PlatoESG. Ogljik, CleanTech, Energija, Okolje, sončna energija, Ravnanje z odpadki. Dostopite tukaj.
- PlatoHealth. Obveščanje o biotehnologiji in kliničnih preskušanjih. Dostopite tukaj.
- vir: https://aws.amazon.com/blogs/machine-learning/inference-llama-2-models-with-real-time-response-streaming-using-amazon-sagemaker/
- :ima
- : je
- :kje
- $GOR
- 1
- 10
- 100
- 11
- 12
- 14
- 15%
- 150
- 16
- 19
- 1.
- 25
- 32
- 385
- 50
- 7
- 70
- 8
- 9
- a
- sposobnost
- Sposobna
- O meni
- pospeši
- pospeši
- plin
- Sprejmi
- dostop
- Račun
- Doseči
- čez
- Ukrep
- dejanska
- Poleg tega
- Naslov
- uprava
- sprejme
- Sprejetje
- Prednost
- svetuje
- vplivajo
- po
- AI
- AI modeli
- AI / ML
- Alice
- Poravnava
- vsi
- Dovoli
- omogoča
- skupaj
- že
- Prav tako
- Amazon
- Amazon SageMaker
- Amazon Web Services
- an
- in
- animacija
- razglasitve
- Objava
- kaj
- API
- aplikacije
- pristop
- pristopi
- primerno
- architectural
- Arhitektura
- SE
- Argument
- Argumenti
- AS
- pomočniki
- povezan
- At
- Avtor
- Na voljo
- izogniti
- AWS
- nazaj
- baza
- šaržiranje
- BE
- ker
- bilo
- pred
- med
- Poleg
- Billion
- milijardah
- BIN
- blogi
- telo
- Knjiga
- knjige
- tako
- izgradnjo
- Gradi
- zgrajena
- poslovni
- vendar
- by
- klic
- Akcija
- CAN
- lahko
- primeru
- certifikati
- Certified
- Spremembe
- Stroški
- klepet
- klepetalnice
- čiščenje
- stranke
- stranke
- klub
- Koda
- zbirka
- COM
- kombinirani
- prihaja
- Komunikacija
- sočasno
- konfiguracija
- Potrditev
- Posoda
- Zabojniki
- neprekinjeno
- stalno
- Nadzor
- bi
- par
- kupon
- zajeti
- Ovitki
- ustvarjajo
- ustvaril
- ustvari
- Ustvarjanje
- kredit
- stranka
- Zadovoljstvo kupcev
- Stranke, ki so
- datum
- znanost o podatkih
- Dnevi
- globoko
- globoko učenje
- privzeto
- opredeliti
- opredeljen
- Zamujena
- izkazati
- razporedi
- razporejeni
- uvajanja
- uvajanje
- podrobno
- Podrobnosti
- Razvijalci
- naprave
- drugačen
- digitalni
- razpravljali
- dont
- prenesi
- med
- prej
- bodisi
- Elektronika
- E-naslov
- omogoča
- Končna točka
- Motor
- Inženiring
- navdušenec
- Celotna
- okolje
- zlasti
- vzpostavitev
- Tudi
- Primer
- izvršni
- pričakovati
- pričakuje
- izkušnje
- Doživetja
- raziskuje
- Obraz
- olajša
- false
- hitreje
- file
- datoteke
- končna
- končno
- prva
- prvič
- po
- sledi
- za
- obrazec
- format
- Fortune
- forumi
- je pokazala,
- Fundacija
- štiri
- brezplačno
- iz
- polno
- v celoti
- funkcija
- nadalje
- gamification
- zaklenjen
- ustvarjajo
- ustvarila
- ustvarjajo
- generacija
- generativno
- Generativna AI
- generatorji
- dobili
- gif
- globus
- Go
- urejeno
- GPU
- Grafične kartice
- odobreno
- veliko
- srečna
- sovražijo
- Imajo
- he
- pomoč
- Pomaga
- visokozmogljivo
- več
- njegov
- drži
- gostila
- gostovanje
- Kako
- Kako
- Vendar
- HTML
- http
- HTTPS
- HuggingFace
- človeško berljivo
- ID
- identificirati
- identiteta
- if
- ponazarja
- slika
- slike
- Takojšen
- izvajati
- Izvajanje
- uvoz
- Pomembnost
- Pomembno
- izboljšanje
- izboljšuje
- in
- vključujejo
- Vključno
- india
- Indian
- naveden
- Industrija
- Podatki
- Infrastruktura
- inovacije
- vhod
- vhodi
- v notranjosti
- primer
- Namesto
- Inštitut
- Navodila
- interaktivno
- Internet
- Vprašanja
- IT
- ITS
- Potovanje
- json
- Ključne
- Kumar
- jezik
- velika
- Latenca
- težave z zakasnitvijo
- pozneje
- Zadnji
- kosilo
- vodi
- Vodja
- učenje
- Led
- dolžina
- knjižnice
- Licenca
- kot
- Meje
- vrstica
- poslušati
- Llama
- LLM
- nalaganje
- nahaja
- ljubi
- stroj
- strojno učenje
- je
- Znamka
- IZDELA
- upravljanje
- upravlja
- upravljanje
- Trženje
- max
- Maj ..
- MCP
- Spomin
- omenjeno
- Meta
- Metoda
- Metode
- Microsoft
- milijoni
- ML
- MLOps
- Model
- modeli
- mesecev
- več
- Najbolj
- Glasba
- morajo
- Ime
- Imenovan
- materni
- skoraj
- Nimate
- potrebe
- Novo
- Naslednja
- Upoštevajte
- prenosnik
- zdaj
- Številka
- predmeti
- opazujejo
- pridobi
- pridobljeni
- of
- ponujen
- Uradni
- pogosto
- on
- ONE
- samo
- odprite
- open source
- Možnost
- možnosti
- or
- Ostalo
- drugače
- obrisi
- izhod
- več
- Splošni
- pakirani
- embalaža
- članki
- vzporedno
- parameter
- parametri
- del
- mimo
- Patenti
- pot
- za
- zaznati
- Izvedite
- opravljeno
- Dovoljenja
- Platforme
- platon
- Platonova podatkovna inteligenca
- PlatoData
- točke
- Popular
- mogoče
- Prispevek
- poganja
- pred
- Pripravimo
- priprava
- predpogoji
- predstavljeni
- prejšnja
- , ravnateljica
- printi
- problem
- nadaljujte
- Postopek
- Predelano
- obravnavati
- Izdelek
- lansiranje izdelka
- strokovni
- profil
- Programiranje
- Napredek
- Lastnosti
- zagotavljajo
- če
- zagotavlja
- zagotavljanje
- objavljeno
- namene
- Python
- pitorha
- vprašanje
- obsegu
- hitro
- precej
- Preberi
- pripravljen
- pravo
- v realnem času
- uresničitev
- prejeti
- prejetih
- Pred kratkim
- Priporočamo
- priporočeno
- zmanjša
- zmanjšuje
- zmanjšanje
- glejte
- Razmerje
- zamenjajte
- odgovori
- Skladišče
- zahteva
- zahteva
- viri
- Odzove
- Odgovor
- odgovorov
- povzroči
- vrnitev
- vrne
- vloga
- rutinsko
- Run
- tek
- deluje
- runtime
- sagemaker
- Enako
- Zadovoljstvo
- Lestvica
- <span style="color: #f7f7f7;">Šola</span>
- Znanost
- SDK
- brezšivne
- drugi
- Oddelek
- glej
- pošljite
- pošlje
- služijo
- Storitev
- Storitve
- služijo
- nastavite
- nastavitve
- več
- Kratke Hlače
- shouldnt
- Prikaži
- je pokazala,
- pokazale
- Razstave
- podpisati
- Enostavno
- Posnetek
- delček
- Rešitev
- rešitve
- Kmalu
- vir
- Izvorna koda
- Zvočniki
- specialist
- specializirani
- Posebnost
- specifikacije
- določeno
- začel
- Status
- Korak
- Koraki
- stop
- shranjevanje
- trgovina
- shranjeni
- strategije
- tok
- pretočenih
- pretakanje
- storitev pretakanja
- uspeh
- uspešno
- Uspešno
- taka
- podpora
- Podprti
- Podpira
- miza
- Bodite
- Naloga
- Skupine
- tech
- tehnični
- Tehnologija
- Predloga
- besedilo
- kot
- da
- O
- njihove
- Njih
- POTEM
- Tukaj.
- s tem
- zato
- te
- jih
- ta
- čeprav?
- mislil
- pretočnost
- čas
- krat
- do
- žeton
- Boni
- orodja
- Vlak
- prevod
- Res
- Obračalni
- dva
- tip
- Vrste
- tipično
- razumeli
- nepotrebna
- dokler
- Uporaba
- uporaba
- primeru uporabe
- Rabljeni
- uporabnik
- Uporabniška izkušnja
- uporabo
- veljavno
- vrednost
- Vrednote
- spremenljivka
- različnih
- različno
- Popravljeno
- različica
- preko
- Poglej
- Virtual
- obisk
- GLASOVI
- Počakaj
- Čakam
- želeli
- we
- web
- spletne storitve
- Dobro
- so bili
- kdaj
- ki
- medtem
- celoti
- katerih
- bo
- z
- v
- brez
- delal
- delavec
- delavci
- potek dela
- delovnih tokov
- deluje
- deluje
- bi
- pisati
- pisni
- let
- Vi
- Vaša rutina za
- zefirnet