A big data és a mesterséges intelligencia korszakában a vállalatok folyamatosan keresik azokat a módokat, amelyekkel ezeket a technológiákat versenyelőnyhöz juttatják. Az AI egyik legforróbb területe jelenleg a generatív mesterséges intelligencia, és ennek jó oka van. A generatív mesterséges intelligencia hatékony megoldásokat kínál, amelyek feszegetik a kreativitás és az innováció lehetséges határait. Ezeknek az élvonalbeli megoldásoknak a lényege az alapmodell (FM), egy rendkívül fejlett gépi tanulási modell, amely hatalmas adatmennyiségre van előképzett. Ezen alapmodellek közül sok figyelemre méltó képességet mutatott az emberhez hasonló szöveg megértésében és generálásában, így értékes eszközzé vált számos alkalmazás számára, a tartalomkészítéstől az ügyfélszolgálat automatizálásáig.
Ezek a modellek azonban nem mentesek a kihívásoktól. Kivételesen nagyok, és nagy mennyiségű adatot és számítási erőforrást igényelnek a betanításuk. Ezenkívül a betanítási folyamat optimalizálása és a paraméterek kalibrálása összetett és ismétlődő folyamat lehet, amely szakértelmet és alapos kísérletezést igényel. Ezek akadályok lehetnek sok olyan szervezet számára, amely saját alapítványi modelljét kívánja felépíteni. Ennek a kihívásnak a leküzdése érdekében sok ügyfél fontolgatja a meglévő alapozási modellek finomhangolását. Ez egy népszerű technika a modellparaméterek egy kis részének specifikus alkalmazásokhoz történő beállítására, miközben megőrzi a modellben már kódolt tudást. Lehetővé teszi a szervezetek számára, hogy kihasználják e modellek erejét, miközben csökkentik az adott tartományhoz vagy feladathoz való testreszabáshoz szükséges erőforrásokat.
Az alapmodellek finomhangolásának két elsődleges megközelítése létezik: a hagyományos finomhangolás és a paraméter-hatékony finomhangolás. A hagyományos finomhangolás magában foglalja az előre betanított modell összes paraméterének frissítését egy adott downstream feladathoz. Másrészt a paraméter-hatékony finomhangolás számos olyan technikát tartalmaz, amelyek lehetővé teszik a modell testreszabását az összes eredeti modellparaméter frissítése nélkül. Az egyik ilyen technika az úgynevezett Low-rank Adaptation (LoRA). Ez magában foglalja a kis, feladatspecifikus modulok hozzáadását az előre betanított modellhez, és betanítja őket, miközben a többi paramétert rögzítve tartja, a következő képen látható módon.
Forrás: Generatív AI az AWS-en (O'Reilly, 2023)
A LoRA a közelmúltban több okból is népszerűvé vált. Gyorsabb képzést, csökkentett memóriaigényt és lehetőséget kínál az előre betanított modellek újrafelhasználására több későbbi feladathoz. Ennél is fontosabb, hogy az alapmodell és az adapter külön-külön tárolható és bármikor kombinálható, így egyszerűbbé válik a finomhangolt változatok tárolása, terjesztése és megosztása. Ez azonban új kihívást jelent: hogyan kell megfelelően kezelni ezeket az új típusú finomhangolt modelleket. Kombinálja az alapmodellt és az adaptert, vagy tartsa külön? Ebben a bejegyzésben a LoRA finomhangolt modellek kezelésének bevált gyakorlatait mutatjuk be Amazon SageMaker hogy megválaszolja ezt a felmerülő kérdést.
Munkavégzés FM-ekkel a SageMaker Model Registry-n
Ebben a bejegyzésben a Llama2 nagy nyelvi modell (LLM) QLoRA módszerrel történő finomhangolásának végpontokig tartó példáján járunk végig. A QLoRA egyesíti a paraméterhatékony finomhangolás előnyeit a 4 bites/8 bites kvantálással, hogy tovább csökkentse az FM-nek egy adott feladatra vagy használati esetre történő finomhangolásához szükséges erőforrásokat. Ehhez az előre betanított 7 milliárd paraméteres Llama2 modellt fogjuk használni, és finomhangolni a databricks-dolly-15k adatkészleten. Az olyan LLM-ek, mint a Llama2, több milliárd paraméterrel rendelkeznek, és hatalmas szöveges adatkészletekre vannak előképzettek. A finomhangolás az LLM-et egy kisebb adatkészlet használatával egy downstream feladathoz igazítja. A nagy modellek finomhangolása azonban számítási szempontból költséges. Ezért fogjuk a QLoRA módszert használni a súlyok mennyiségi meghatározására a finomhangolás során, hogy csökkentsük ezt a számítási költséget.
Példáinkban két jegyzetfüzetet talál (llm-finetune-combined-with-registry.ipynb
és a llm-finetune-separate-with-registry.ipynb
). Mindegyik más-más módon kezeli a LoRA finomhangolt modelleket, amint azt az alábbi ábra mutatja:
- Először letöltjük az előre betanított Llama2 modellt 7 milliárd paraméterrel a SageMaker Studio Notebooks segítségével. Az LLM-ek, akárcsak a Llama2, a legkorszerűbb teljesítményt mutatták a természetes nyelvi feldolgozási (NLP) feladatokban, ha finomhangolták a tartományspecifikus adatokat.
- Ezután a QLoRA módszerrel finomhangoljuk a Llama2-t a databricks-dolly-15k adatkészleten. A QLoRA a modellsúlyok kvantálásával csökkenti a finomhangolás számítási költségét.
- A finomhangolás során a SageMaker Experiments Plus-t integráljuk a Transformers API-val, hogy automatikusan naplózzuk az olyan mutatókat, mint a gradiens, a veszteség stb.
- Ezután a SageMaker Model Registry-ben kétféle megközelítést alkalmazva verziózzuk a finomhangolt Llama2 modellt:
- A teljes modell tárolása
- Az adapter és az alapmodell elkülönített tárolása.
- Végül a finomhangolt Llama2 modelleket a Deep Java Library (DJL) szolgáltatás segítségével egy SageMaker valós idejű végponton tároljuk.
A következő szakaszokban részletesebben megvizsgáljuk ezeket a lépéseket, hogy bemutassuk a SageMaker rugalmasságát a különböző LLM-munkafolyamatokhoz, valamint azt, hogy ezek a funkciók hogyan segíthetik a modellek működésének javítását.
Előfeltételek
A kóddal való kísérletezés megkezdéséhez teljesítse a következő előfeltételeket.
- Hozzon létre egy SageMaker Studio Domain: Az Amazon SageMaker Studio, különösen a Studio Notebooks, a Llama2 finomhangolási feladat elindítására, majd a modellek regisztrálására és megtekintésére szolgál. SageMaker Model Registry. SageMaker kísérletek a Llama2 finomhangolási munkanaplóinak megtekintéséhez és összehasonlításához is használható (képzési veszteség/tesztveszteség/stb.).
- Hozzon létre egy Amazon Simple Storage Service (S3) tárolót: Hozzá kell férni egy S3 vödörhöz az edzési műtermékek és a modellsúlyok tárolásához. Az utasításokat lásd Vödör létrehozása. Az ehhez a bejegyzéshez használt mintakód a SageMaker alapértelmezett S3 tárolóját fogja használni, de testreszabhatja bármely releváns S3 tárolóhoz.
- Modellgyűjtemények beállítása (IAM-engedélyek): Frissítse SageMaker végrehajtási szerepkörét az erőforráscsoportokhoz tartozó engedélyekkel az alábbiak szerint. Modell Registry Collections Fejlesztői útmutató a Model Registry csoportosítás megvalósításához Model Collections segítségével.
- Fogadja el a Llama2 Általános Szerződési Feltételeit: El kell fogadnia a végfelhasználói licencszerződést és az elfogadható használati szabályzatot a Llama2 Foundation modell használatához.
A példák a GitHub tárház. A jegyzetfüzet-fájlok tesztelése PyTorch 2.0.0 Python 3.10 GPU Optimized kernelen és ml.g4dn.xlarge példánytípuson futó Studio notebookokon történik.
Kísérletek és visszahívási integráció
Amazon SageMaker kísérletek lehetővé teszi a gépi tanulási (ML) kísérletek és modellverziók szervezését, nyomon követését, összehasonlítását és értékelését bármely integrált fejlesztői környezetből (IDE), beleértve a helyi Jupyter Notebookokat is, a SageMaker Python SDK vagy a boto3 használatával. Rugalmasságot biztosít a modell metrikáinak, paramétereinek, fájljainak, műtermékeinek naplózásához, a különböző metrikákból származó diagramok naplózásához, különféle metaadatok rögzítéséhez, kereséshez és a modell reprodukálhatóságának támogatásához. Az adatkutatók vizuális diagramokon és táblázatokon keresztül gyorsan összehasonlíthatják a teljesítményt és a hiperparamétereket a modellértékeléshez. A SageMaker Experiments segítségével letölthetik a létrehozott diagramokat, és megoszthatják a modell értékelését az érintettekkel.
Az LLM-ek képzése lassú, költséges és ismétlődő folyamat lehet. Nagyon fontos, hogy a felhasználó az LLM-kísérleteket nagy léptékben kövesse, hogy elkerülje a következetlen modellhangolási élményt. HuggingFace Transformer API-k segítségével a felhasználók nyomon követhetik a mérőszámokat az edzési feladatok során visszahívások. A visszahívások „csak olvasható” kódrészletek, amelyek testreszabhatják a tanítási hurok viselkedését a PyTorch Trainerben, amelyek ellenőrizhetik a képzési hurok állapotát az előrehaladás jelentéséhez, a TensorBoard vagy a SageMaker Experiments Plus rendszerbe való bejelentkezéshez az egyéni logikán keresztül (amely részeként szerepel). ennek a kódbázisnak).
Importálhatja a bejegyzés kódtárában található SageMaker Experiments visszahívási kódot a következő kódblokkban látható módon:
Ez a visszahívás automatikusan naplózza a következő információkat a SageMaker Experiments programba az edzés részeként:
- Képzési paraméterek és hiperparaméterek
- Modellképzés és érvényesítés elvesztése a Step, Epoch és Final szakaszban
- Modell bemeneti és kimeneti melléktermékek (oktatási adatkészlet, érvényesítési adatkészlet, modell kimeneti helye, betanítási hibakereső és egyebek)
A következő grafikon példákat mutat be azokra a diagramokra, amelyeket ezen információk felhasználásával megjeleníthet.
Ez lehetővé teszi több futtatás egyszerű összehasonlítását a SageMaker Experiments Elemzés funkciójával. Kiválaszthatja az összehasonlítani kívánt kísérleti futtatásokat, és ezek automatikusan kitöltik az összehasonlító grafikonokat.
Regisztrálja a finomhangolt modelleket a Model Registry Collectionsbe
Modellnyilvántartási gyűjtemények jellemzője SageMaker Model Registry Ez lehetővé teszi, hogy csoportosítsa a regisztrált modelleket, amelyek kapcsolódnak egymáshoz, és hierarchiákba rendezzék őket, hogy javítsák a modellek felfedezhetőségét a skálán. A Model Registry Collections segítségével nyomon követhetjük az alapmodellt és a finomhangolt változatokat.
Teljes modellmásolás módszere
Az első módszer egyesíti az alapmodellt és a LoRA adaptert, és elmenti a teljes finomhangolt modellt. A következő kód a modell-egyesítési folyamatot szemlélteti, és elmenti a kombinált modellt model.save_pretrained()
.
A LoRA adapter és az alapmodell egyetlen modellműtermékké történő kombinálása a finomhangolás után előnyökkel és hátrányokkal jár. A kombinált modell önálló, és függetlenül kezelhető és telepíthető anélkül, hogy az eredeti alapmodellre lenne szükség. A modell saját entitásként követhető nyomon, az alapmodellt és a finomhangolási adatokat tükröző verziónévvel. Elfogadhatunk egy nómenklatúrát a base_model_name
+ finomhangolt dataset_name
a mintacsoportok megszervezésére. Opcionálisan a modellgyűjtemények társíthatják az eredeti és a finomhangolt modelleket, de ez nem feltétlenül szükséges, mivel a kombinált modell független. A következő kódrészlet megmutatja, hogyan kell regisztrálni a finomhangolt modellt.
A betanítási becslő segítségével regisztrálhatja a modellt a Model Registry-be.
A Model Registry alkalmazásból lekérheti a modellcsomagot, és közvetlenül telepítheti azt.
Ennek a megközelítésnek azonban vannak hátrányai. A modellek kombinálása a tárolás hatékonyságának csökkenéséhez és redundanciához vezet, mivel az alapmodell minden finomhangolt verzióban megduplázódik. A modell méretének és a finomhangolt modellek számának növekedésével ez exponenciálisan megnöveli a tárolási igényeket. A llama2 7b modellt példának vesszük, az alapmodell körülbelül 13 GB, a finomhangolt modell pedig 13.6 GB. A modell 96%-át minden finomhangolás után le kell másolni. Ezenkívül a nagyon nagy modellfájlok terjesztése és megosztása is nehezebbé válik, és működési kihívásokat jelent, mivel a fájlátviteli és kezelési költségek a modellméret növekedésével és a feladatok finomhangolásával nőnek.
Külön adapter és alapmódszer
A második módszer az alapsúlyok és az adaptersúlyok szétválasztására összpontosít, külön modellkomponensként mentve és futás közben egymás után betöltve.
Az alap- és adaptersúlyok mentésének vannak előnyei és hátrányai, hasonlóan a Full Model Copy módszerhez. Egyik előnye, hogy tárhelyet takaríthat meg. Az alapsúlyok, amelyek a finomhangolt modell legnagyobb alkatrészei, csak egyszer kerülnek mentésre, és újra felhasználhatók más, különböző feladatokra hangolt adaptersúlyokkal. Például a Llama2-7B alapsúlya körülbelül 13 GB, de minden finomhangolási feladathoz csak körülbelül 0.6 GB adaptersúlyt kell tárolni, ami 95%-os helymegtakarítást jelent. Egy másik előny, hogy az alapsúlyok külön kezelhetők az adapter súlyaitól a csak alapsúlyok modellnyilvántartás használatával. Ez hasznos lehet azoknál a SageMaker tartományoknál, amelyek csak VPC módban futnak internetes átjáró nélkül, mivel az alapsúlyok az interneten keresztül érhetők el.
Modellcsomag-csoport létrehozása az alapsúlyokhoz
Modellcsomag-csoport létrehozása QLoRA súlyokhoz
A következő kód bemutatja, hogyan lehet QLoRA-súlyokat címkézni az adatkészlet/feladattípussal, és hogyan lehet finomhangolt deltasúlyokat regisztrálni egy külön modell-nyilvántartásba, és külön követni a deltasúlyokat.
A következő részlet a Model Registry nézetét mutatja, ahol a modellek alap- és finomhangolt súlyokra vannak felosztva.
A hiperszemélyre szabott LLM-ek modelljeinek, adatkészleteinek és feladatainak kezelése gyorsan túlterheltté válhat. SageMaker modellnyilvántartási gyűjtemények segíthet a kapcsolódó modellek csoportosításában és hierarchiába rendezésében a modellek felfedezhetőségének javítása érdekében. Ez megkönnyíti az alapsúlyok, az adaptersúlyok és a feladatadatkészletek finomhangolása közötti kapcsolatok nyomon követését. Komplex kapcsolatokat és kapcsolatokat is létrehozhat a modellek között.
Hozzon létre egy új gyűjteményt, és adja hozzá az alapmodell súlyait ehhez a gyűjteményhez
Kapcsolja össze az összes finomhangolt LoRA Adapter Delta súlyát ehhez a gyűjteményhez feladat és/vagy adatkészlet szerint
Ez egy gyűjteményhierarchiát eredményez, amely modell/feladattípus és az alapmodell finomhangolásához használt adatkészlet szerint van összekapcsolva.
Az alap- és adaptermodellek elválasztásának ez a módszere bizonyos hátrányokkal rendelkezik. Az egyik hátrány a modell telepítésének bonyolultsága. Mivel két különálló modelltermékről van szó, további lépésekre van szükség a modell újracsomagolásához, ahelyett, hogy közvetlenül a Model Registry-ből telepítené. A következő kódpéldában először töltse le és csomagolja újra az alapmodell legújabb verzióját.
Ezután töltse le és csomagolja újra a legújabb finomhangolt LoRA adaptersúlyokat.
Mivel a DJL-szolgáltatást deepspeed-del fogja használni a modell hosztolásához, a következtetési könyvtárnak a következőképpen kell kinéznie.
Végül csomagolja be az egyéni következtetési kódot, az alapmodellt és a LoRA-adaptert egyetlen .tar.gz fájlba a telepítéshez.
Tisztítsuk meg
Takarítsa ki erőforrásait a notebook tisztítási részében található utasítások követésével. Hivatkozni Amazon SageMaker árképzés a következtetési példányok költségeivel kapcsolatos részletekért.
Következtetés
Ez a bejegyzés végigvezeti Önt a LoRA finomhangolt modellek Amazon SageMakeren való kezelésének bevált módszerein. Két fő módszerrel foglalkoztunk: az alap- és az adaptersúlyok egy önálló modellbe való összevonása, valamint az alap- és az adaptersúlyok szétválasztása. Mindkét megközelítésnek vannak kompromisszumai, de a súlyok szétválasztása segít optimalizálni a tárolást, és lehetővé teszi a fejlett modellkezelési technikákat, mint például a SageMaker Model Registry Collections. Ez lehetővé teszi hierarchiák és kapcsolatok kialakítását a modellek között a szervezettség és a felfedezhetőség javítása érdekében. Javasoljuk, hogy próbálja ki a mintakódot GitHub tárház hogy maga is kísérletezzen ezekkel a módszerekkel. A generatív mesterséges intelligencia gyors fejlődésével a modellkezelés bevált gyakorlatainak követése segít nyomon követni a kísérleteket, megtalálni a feladatához megfelelő modellt, és hatékonyan kezelni a speciális LLM-eket.
Referenciák
A szerzőkről
James Wu az AWS vezető AI/ML specialista megoldástervezője. segít az ügyfeleknek AI/ML megoldások tervezésében és kivitelezésében. James munkája az ML felhasználási esetek széles skáláját fedi le, elsősorban a számítógépes látás, a mély tanulás és az ML méretezése a vállalaton belül. Mielőtt csatlakozott az AWS-hez, James több mint 10 évig építész, fejlesztő és technológiai vezető volt, ebből 6 évig mérnöki és 4 évig marketing és reklámiparban dolgozott.
Pranav Murthy AI/ML Specialist Solutions Architect az AWS-nél. Arra összpontosít, hogy segítse az ügyfeleket a gépi tanulási (ML) munkaterhelések felépítésében, betanításában, üzembe helyezésében és a SageMakerre való migrálásában. Korábban a félvezetőiparban dolgozott nagy számítógépes látás (CV) és természetes nyelvi feldolgozási (NLP) modellek fejlesztésével a félvezető folyamatok javítása érdekében. Szabadidejében szívesen sakkozik és utazik.
Mecit Gungor az AWS AI/ML specialista megoldástervezője, aki segít az ügyfeleknek nagyszabású AI/ML megoldások tervezésében és kivitelezésében. Az AI/ML felhasználási esetek széles skáláját fedi le a telekommunikációs ügyfelek számára, és jelenleg a generatív AI-ra, az LLM-ekre, valamint a képzésre és a következtetések optimalizálására összpontosít. Gyakran találkozhatunk vele a vadonban túrázni, vagy szabadidejében társasjátékozni a barátaival.
Shelbee Eigenbrode az Amazon Web Services (AWS) fő mesterséges intelligencia és gépi tanulási megoldások szakértője. 24 éve dolgozik a technológia területén, számos iparágat, technológiát és szerepkört felölelve. Jelenleg arra összpontosít, hogy a DevOps és az ML hátteret az MLOps tartományba egyesítse, hogy segítse ügyfeleit az ML munkaterhelések nagyarányú szállításában és kezelésében. A különböző technológiai területeken több mint 35 szabadalommal rendelkezik, ezért szenvedélye a folyamatos innováció és az adatok felhasználása az üzleti eredmények előmozdítására. Shelbee a Coursera gyakorlati adattudományi szakának társalkotója és oktatója. Emellett a Women In Big Data (WiBD) denveri fejezetének társigazgatója. Szabadidejében szívesen tölt időt családjával, barátaival és túlaktív kutyáival.
- SEO által támogatott tartalom és PR terjesztés. Erősödjön még ma.
- PlatoData.Network Vertical Generative Ai. Erősítse meg magát. Hozzáférés itt.
- PlatoAiStream. Web3 Intelligence. Felerősített tudás. Hozzáférés itt.
- PlatoESG. Carbon, CleanTech, Energia, Környezet, Nap, Hulladékgazdálkodás. Hozzáférés itt.
- PlatoHealth. Biotechnológiai és klinikai vizsgálatok intelligencia. Hozzáférés itt.
- Forrás: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :van
- :is
- :nem
- :ahol
- $ UP
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- képesség
- Rólunk
- Elfogad!
- elfogadható
- hozzáférés
- igénybe vett
- át
- alkalmazkodás
- alkalmazkodik
- hozzá
- hozzáadásával
- További
- Ezen kívül
- cím
- elfogadja
- fejlett
- Előny
- előnyei
- Hirdetés
- Után
- Megállapodás
- AI
- AI igaz
- AI / ML
- Minden termék
- lehetővé
- lehetővé teszi, hogy
- már
- Is
- amazon
- Amazon SageMaker
- Amazon SageMaker Studio
- Amazon Simple Storage Service (S3)
- Az Amazon Web Services
- Amazon Web Services (AWS)
- Összegek
- an
- elemez
- és a
- Másik
- bármilyen
- api
- alkalmazások
- megközelítés
- megközelít
- jóváhagyott
- körülbelül
- VANNAK
- területek
- AS
- Társult
- At
- automatikusan
- Automatizálás
- elérhető
- AWS
- vissza
- háttér
- akadályok
- bázis
- BE
- mert
- válik
- válik
- óta
- viselkedés
- Előnyök
- BEST
- legjobb gyakorlatok
- között
- Nagy
- Big adatok
- Billió
- milliárd
- Blokk
- bizottság
- Társasjátékok
- mindkét
- határait
- épít
- üzleti
- de
- by
- visszahívások
- hívott
- TUD
- képesség
- elfog
- óvatos
- eset
- esetek
- kihívás
- kihívások
- Fejezet
- táblázatok
- sakk
- osztály
- világos
- kód
- codebase
- gyűjtemény
- gyűjtemény
- össze
- kombinált
- kombájnok
- kombinálása
- Companies
- összehasonlítani
- összehasonlítás
- versenyképes
- bonyolult
- bonyolultság
- összetevő
- alkatrészek
- számítás
- számítási
- számítógép
- Számítógépes látás
- Körülmények
- figyelembe véve
- tartalom
- tartalomalkotás
- folyamatosan
- folyamatos
- Mag
- Költség
- tudott
- fedett
- Covers
- teremt
- készítette
- teremtés
- kreativitás
- Jelenleg
- szokás
- vevő
- Vevőszolgálat
- Ügyfelek
- testreszabás
- testre
- élvonalbeli
- dátum
- adat-tudomány
- adatkészletek
- mély
- mély tanulás
- mélyebb
- alapértelmezett
- del
- szállít
- Delta
- bizonyítani
- Denver
- telepíteni
- telepített
- bevezetéséhez
- bevetés
- Design
- részletek
- Fejlesztő
- fejlesztése
- Fejlesztés
- különböző
- nehéz
- közvetlenül
- kijelző
- terjeszteni
- elosztó
- merülés
- domain
- domainek
- letöltés
- hátrányai
- hajtás
- alatt
- minden
- könnyebb
- könnyen
- él
- hatékony
- eredményesen
- más
- csiszolókő
- lehetővé teszi
- ösztönzése
- végtől végig
- Endpoint
- Mérnöki
- Vállalkozás
- egység
- Környezet
- korszak
- Ez volt
- stb.
- értékelni
- értékelés
- példa
- példák
- kivételesen
- végrehajtás
- létező
- drága
- tapasztalat
- kísérlet
- kísérletek
- szakvélemény
- exponenciálisan
- Arc
- Kudarc
- család
- gyorsabb
- Funkció
- Jellemzők
- filé
- Fájlok
- Találjon
- végén
- vezetéknév
- rögzített
- Rugalmasság
- koncentrál
- összpontosítás
- következő
- A
- talált
- Alapítvány
- Ingyenes
- barátok
- ból ből
- Tele
- funkció
- további
- jövő
- Nyereség
- szerzett
- Games
- gateway
- generáló
- nemző
- Generatív AI
- Go
- megy
- jó
- GPU
- megadott
- grafikon
- grafikonok
- Csoport
- Csoportok
- kéz
- fogantyú
- Legyen
- tekintettel
- he
- segít
- segít
- segít
- neki
- hierarchia
- nagyon
- övé
- vendéglátó
- legmelegebb
- Hogyan
- How To
- azonban
- HTML
- HTTPS
- HuggingFace
- illusztrálja
- kép
- végre
- végrehajtás
- importál
- fontos
- ami fontos
- behozatal
- javul
- in
- beleértve
- magában foglalja a
- Beleértve
- Növelje
- Növeli
- növekvő
- független
- függetlenül
- iparágak
- ipar
- eredménytelenség
- felfújja
- információ
- Innováció
- bemenet
- példa
- helyette
- utasítás
- integrálni
- integrált
- kamat
- Internet
- bele
- Bemutatja
- IT
- ITS
- james
- Jáva
- Munka
- Állások
- csatlakozott
- jpg
- Tart
- tartás
- Kulcs
- rúg
- tudás
- nyelv
- nagy
- legnagyobb
- legutolsó
- vezető
- vezetékek
- tanulás
- Lets
- szint
- könyvtár
- Engedély
- fekszik
- mint
- Kedvencek
- LINK
- összekapcsolt
- Listázott
- LLM
- kiszámításának
- betöltés
- helyi
- elhelyezkedés
- log
- fakitermelés
- logika
- néz
- hasonló
- keres
- le
- gép
- gépi tanulás
- Fő
- KÉSZÍT
- Gyártás
- kezelése
- sikerült
- vezetés
- kezelése
- sok
- Marketing
- Marketing és reklám
- tömeges
- Lehet..
- Memory design
- megy
- egyesülő
- Metaadatok
- módszer
- mód
- Metrics
- vándorol
- ML
- MLOps
- Mód
- modell
- modellek
- Modulok
- több
- többszörös
- név
- Természetes
- Természetes nyelvi feldolgozás
- elengedhetetlen
- Szükség
- igénylő
- igények
- Új
- NLP
- jegyzetfüzet
- Most
- szám
- of
- kedvezmény
- Ajánlatok
- gyakran
- on
- egyszer
- ONE
- csak
- operatív
- Művelet
- optimalizálás
- Optimalizálja
- optimalizált
- optimalizálása
- or
- szervezet
- szervezetek
- eredeti
- Más
- mi
- eredmények
- teljesítmény
- felett
- Overcome
- túlnyomó
- saját
- csomag
- paraméter
- paraméterek
- rész
- szenvedély
- Szabadalmak
- ösvény
- százalék
- teljesítmény
- engedélyek
- darabok
- Plató
- Platón adatintelligencia
- PlatoData
- játék
- plusz
- politika
- Népszerű
- népszerűség
- porció
- lehetséges
- állás
- hatalom
- erős
- Gyakorlati
- gyakorlat
- előfeltételek
- ajándékot
- megőrzése
- megakadályozása
- korábban
- elsődleges
- Fő
- Előzetes
- folyamat
- Folyamatok
- feldolgozás
- Haladás
- megfelelően
- ingatlanait
- biztosít
- Nyomja
- Piton
- pytorch
- kérdés
- gyorsan
- hatótávolság
- gyorsan
- real-time
- ok
- miatt
- nemrég
- csökkenteni
- Csökkent
- csökkenti
- csökkentő
- utal
- tükrözve
- Regisztráció
- nyilvántartott
- iktató hivatal
- összefüggő
- Kapcsolatok
- figyelemre méltó
- Jelentő
- raktár
- szükség
- kötelező
- követelmények
- Tudástár
- REST
- eredményez
- újra
- jobb
- Szerep
- szerepek
- futás
- futás
- fut
- futásidejű
- sagemaker
- Megtakarítás
- mentett
- megtakarítás
- Megtakarítás
- Skála
- skálázás
- Tudomány
- tudósok
- sdk
- Keresés
- Második
- Rész
- szakaszok
- keres
- félvezető
- idősebb
- különálló
- elválasztó
- szolgáltatás
- Szolgáltatások
- szolgáló
- számos
- Megosztás
- megosztás
- ő
- kellene
- mutatott
- Műsorok
- hasonló
- Egyszerű
- óta
- egyetlen
- Méret
- lassú
- kicsi
- kisebb
- töredék
- megoldások
- Megoldások
- néhány
- forrás
- Hely
- feszültség
- szakember
- specializált
- különleges
- kifejezetten
- költ
- osztott
- érdekeltek
- kezdet
- Állami
- csúcs-
- Állapot
- Lépés
- Lépései
- Még mindig
- tárolás
- tárolni
- memorizált
- stúdió
- ilyen
- támogatás
- TAG
- bevétel
- Feladat
- feladatok
- technika
- technikák
- Technologies
- Technológia
- távközlés
- feltételek
- kipróbált
- szöveg
- hogy
- A
- azok
- Őket
- akkor
- Ott.
- Ezek
- ők
- ezt
- Keresztül
- idő
- nak nek
- együtt
- szerszám
- fáklya
- vágány
- hagyományos
- Vonat
- Képzések
- átruházás
- transzformátor
- transzformerek
- Utazó
- igaz
- megpróbál
- dallam
- hangolt
- hangolás
- kettő
- típus
- típusok
- alatt
- megértés
- Frissítések
- frissítése
- feltöltve
- URL
- használ
- használati eset
- használt
- használó
- Felhasználók
- segítségével
- érvényesítés
- Értékes
- érték
- fajta
- különféle
- Hatalmas
- változat
- verzió
- nagyon
- keresztül
- Megnézem
- látomás
- vizuális
- séta
- sétált
- akar
- volt
- Út..
- módon
- we
- háló
- webes szolgáltatások
- amikor
- ami
- míg
- miért
- széles
- Széleskörű
- lesz
- val vel
- belül
- nélkül
- Női
- Munka
- dolgozott
- munkafolyamatok
- művek
- év
- te
- A te
- magad
- zephyrnet