A nyelvi modellek méretének növekedése a természetes nyelvi feldolgozás (NLP) egyik legnagyobb trendje volt az elmúlt években. 2018 óta példátlan mértékű fejlesztést és bevezetést láthattunk egyre nagyobb nyelvi modelleknél, beleértve a BERT-t és annak változatait, a GPT-2-t, a T-NLG-t és a GPT-3-at (175 milliárd paraméter).
Ezek a modellek kitágították a lehetséges építészeti újítások határait. Számos kihívással kell szembenéznünk a nagy léptékű mély tanulási modellek képzése során, különösen a generatív előképzett transzformátorok új hullámával. Ezek a kihívások magukban foglalják a hardveres korlátokat és a számítással és a hatékonysággal kapcsolatos kompromisszumokat. A modell- és adatpárhuzamosság ezen kihívásainak leküzdésére az AWS a lehetőségek széles skáláját kínálja.
Ebben a bejegyzésben két fő megközelítést mutatunk be: az adatok párhuzamosítását és a modell párhuzamosítását Amazon SageMaker, és megvitassák előnyeiket és hátrányaikat.
A modell
A nyelvi modellhez a dolgozatban bemutatott Transformers-t használjuk Csak a figyelem kell. A transzformátorok mély tanulási modellek, amelyeket az RNN-ek buktatóinak szándékosan történő elkerülésére terveztek azáltal, hogy egy önfigyelő mechanizmusra támaszkodnak, hogy globális függőséget vonjanak le a bemenet és a kimenet között. A Transformer modellarchitektúra lényegesen jobb párhuzamosítást tesz lehetővé, és viszonylag rövid edzési idő alatt nagy teljesítményt érhet el. A Transformers, a BERT sikerére építve, amelyet a lapban mutattak be BERT: Mély kétirányú transzformátorok előképzése a nyelv megértéséhez, hozzáadott kétirányú előképzés a nyelvi reprezentációhoz. A Cloze feladat ihlette a BERT-t a maszkolt nyelvi modellezéssel (MLM), amelyben a modell megtanulja visszaállítani a véletlenszerűen maszkolt tokenek eredeti szavait. A BERT-modell a következő mondat-előrejelzési (NSP) feladatra is előképzett, hogy megjósolja, hogy két mondat helyes olvasási sorrendben van-e. 2018-as megjelenése óta a BERT-et és annak változatait széles körben használják nyelvi modellekben.
Kezdjük azzal, hogy két beágyazási réteget hozunk létre a token és a pozíció szerinti beágyazáshoz. A bemeneti beágyazások a token beágyazások és a pozícióbeágyazások összege.
Ezután definiálunk egy transzformátor dekóder blokkot két alréteggel: egy többfejes önfigyelő réteggel és egy egyszerű, teljesen csatlakoztatott előrecsatolt hálózattal, amelyet rétegnormalizálás és kiesés követ:
Végül elkészítjük nyelvi modellünket az előző beágyazó réteggel és transzformátor blokkokkal:
A hiperparamétereitől függően ezt a modellt több ezer paramétertől több milliárd paraméterig méretezheti. A milliárdparaméteres modellek elsődleges kihívása az, hogy a modellt nem lehet egy példányban tárolni, és a modellt több csomóponton kell elosztani a betanítás és a következtetés érdekében.
Az adatkészlet
Kísérleteink során a Cölöp adatkészlet. A Pile egy 800 GiB-os angol szöveges adatkészlet, amelyet nagyszabású nyelvi modellek betanításához terveztek. 22 változatos és kiváló minőségű adatkészletből jön létre, beleértve a már létrehozott és az újonnan bevezetett NLP-adatkészleteket is.
Az adatkészletet számos adatforrásból hozzák létre, beleértve a könyveket is; GitHub adattárak; weboldalak; csevegési naplók; valamint orvosi, fizikai, matematikai, számítástechnikai és filozófiai dolgozatok. Konkrétan a következő forrásokat használja: Pile-CC, PubMed Central, ArXiv, GitHub, a FreeLaw Project, Stack Exchange, az Egyesült Államok Szabadalmi és Védjegyhivatala, PubMed, Ubuntu, IRC, HackerNews, YouTube, PhilPapers, Books3, Project Gutenberg ( PG-19), OpenSubtitles, angol Wikipédia, DM Mathematics, EuroParl, Enron Emails korpusz és NIH ExPorter. Tartalmazza továbbá az OpenWebText2-t és a BookCorpus2-t, amelyek az eredeti OpenWebText és BookCorpus adatkészletek kiterjesztései. Az adatforrások sokfélesége javíthatja az általános tartományok közötti tudást, és ennek következtében javíthatja a downstream általánosítási képességeket.
Az elsődleges kihívás ezzel az adatkészlettel a puszta méret; az adatkészlet 825 GiB szöveget tartalmaz, ami 4.2 TiB előre feldolgozott és tömörített adatpontot jelent. A modellek betanításával és üzemeltetésével kapcsolatos kihívásokhoz hasonlóan egy modell egyetlen példányon történő betanítása ezzel az adatkészlettel sok időt vesz igénybe, és nem praktikus.
Megoldásunk az, hogy az adatkészletet körülbelül 1 GiB-os adatdarabokra bontjuk, betöltjük és előfeldolgozzuk a funkciókat TensorFlow adatkészlet tárgyakat, és tárolja azokat Amazon Elastic File Service (Amazon EFS). A TensorFlow adatkészletek könnyen használható és nagy teljesítményű adatfolyamot biztosítanak, amely jól integrálható modelljeinkkel. Az Amazon EFS egy könnyen használható szolgáltatás, amely lehetővé teszi számunkra, hogy olyan megosztott fájlrendszert építsünk fel, amely automatikusan skálázódik a fájlok hozzáadásakor és törlésekor. Ezenkívül az Amazon EFS szükség esetén képes magasabb átviteli szintekre felrobbantani, ami kritikus fontosságú adat- és modellképzési folyamatunkban.
Ezután az elosztott képzési stratégiákat vizsgáljuk meg ezeknek a kihívásoknak a kezelésére.
Elosztott képzés
Ebben a projektben két kihívással kellett szembenéznünk: a modell méretének és az adatmennyiségnek a skálázásával. A modell méretének és a betanítható paraméterek számának növelése nagyobb pontosságot eredményezhet, de van egy korlát, hogy egyetlen GPU-memóriába vagy akár több GPU-ba is elférjen egyetlen példányban. Ráadásul a nagyobb modellek betanítása több időt vesz igénybe.
Ezeket a kihívásokat kétféleképpen kezelheti: az adatok párhuzamosságával és a modell párhuzamosságával. Az adatok párhuzamosságával sztochasztikus gradiens süllyedést (SGD) hajtunk végre úgy, hogy egy mini köteg rekordjait szétosztjuk különböző eszközök között, hogy felgyorsítsuk a képzést. A párhuzamos adattanítás azonban extra összetettséggel jár a mini kötegelt gradiensátlagok kiszámításában az összes eszköz gradienseivel, ez a lépés az ún. AllReduce
, ami a képzési klaszter növekedésével nehezebbé válik. Az adatpárhuzam alkalmazása során képesnek kell lennünk arra, hogy a modellt és egyetlen adatpontot egy eszközbe (CPU vagy GPU) illesszük, ami korlátozó tényező a kísérleteinkben, mert egy ekkora modell mérete sokkal nagyobb, mint az egyetlen GPU memóriája. méret.
Egy másik megoldás a modell párhuzamos használata, amely több eszközre osztja fel a modellt. A modellpárhuzam az a folyamat, amikor egy modellt felosztanak több eszköz vagy csomópont (például GPU-val felszerelt példányok) között, és egy hatékony folyamatot hoznak létre a modell betanításához ezeken az eszközökön a GPU kihasználtságának maximalizálása érdekében.
Adatok párhuzamosítása
Az adatok párhuzamosítása a leggyakoribb megközelítés a több GPU-hoz vagy az elosztott képzéshez. Az adatokat kötegelni tudja, elküldheti több eszközre (mindegyik replikált modellt tartalmaz), majd összesítheti az eredményeket. Két csomaggal kísérleteztünk az adatok párhuzamosítására: Horovod és a SageMaker elosztott adatok párhuzamos könyvtár.
A Horovod egy elosztott mélytanulási képzési keretrendszer a TensorFlow, a Keras, a PyTorch és az Apache MXNet számára. A Horovod használatához a következő folyamaton mentünk keresztül:
- Inicializálás futtatással
hvd.init()
. - Minden eszközt egyetlen folyamathoz társítson. Az első folyamat vagy dolgozó az első eszközhöz, a második folyamat a második eszközhöz van társítva, és így tovább.
- Állítsa be a tanulási sebességet az eszközök száma alapján.
- Tekerje be az optimalizálót
hvd.DistributedOptimizer
. - A kezdeti változó állapotok sugárzása az első, 0-s rangú dolgozótól az összes többi folyamat felé. Erre azért van szükség, hogy biztosítsuk az összes dolgozó következetes inicializálását, amikor a képzést véletlenszerű súlyokkal kezdik, vagy egy ellenőrzőpontból állítják vissza.
- Győződjön meg arról, hogy csak a 0-s eszköz mentheti az ellenőrzőpontokat, nehogy más dolgozók megsértsék azokat.
A következő a képzési szkript:
A SageMaker adatpárhuzamos könyvtár lehetővé teszi, hogy szinte lineáris hatékonysággal skálázzuk képzésünket, minimális kódmódosítással felgyorsítva a képzést. A könyvtár egy szokást végez AllReduce
működését és optimalizálja az eszközök közötti kommunikációt az AWS hálózati infrastruktúrájának teljes kihasználásával és Amazon rugalmas számítási felhő (Amazon EC2) példány topológiája. A SageMaker adatpárhuzamos könyvtár használatához a következő folyamaton mentünk keresztül:
- Importálás és inicializálás
sdp.init()
. - Társítson minden eszközt egyetlen eszközhöz
smdistributed.dataparallel
feldolgozni velelocal_rank
.sdp.tensorflow.local_rank()
megadja nekünk az eszközök helyi rangját. A vezető a 0., a munkások pedig az 1., 2., 3. és így tovább. - Állítsa be a tanulási sebességet az eszközök száma alapján.
- Tekerjük
tf.GradientTape
val velDistributedGradientTape
előadniAllReduce
. - Közvetítse a kezdeti modellváltozókat a vezető csomóponttól az összes dolgozó csomóponthoz.
- Győződjön meg arról, hogy csak a 0-s eszköz tud ellenőrzési pontokat menteni.
Modell párhuzamosítás
Beállíthatjuk a hiperparamétereket, hogy a modell elég kicsi legyen ahhoz, hogy egyetlen GPU-val tudjon betanítani, vagy modellpárhuzamot alkalmazhatunk a modell felosztására több GPU között több példányban. A modell betanítható paramétereinek számának növelése nagyobb pontosságot eredményezhet, de az egyetlen GPU-memóriában elhelyezhető maximális modellméret korlátozott. A SageMaker elosztott modell párhuzamos könyvtárát használtuk nagyobb modelljeink betanításához. A lépések a következők:
- Importálja és inicializálja a könyvtárat ezzel
smp.init()
. - A Keras modellnek az smp.DistributedModeltől kell örökölnie a Keras Model osztály helyett.
- Készlet
drop_remainder=True
atf.Dataset.batch()
módszer annak biztosítására, hogy a tétel mérete mindig osztható legyen a mikroadagok számával. - Az adatfolyamban végrehajtott véletlenszerű műveleteknek ugyanazt a magot kell használniuk:
smp.dp_rank()
, Például ashuffle(ds, seed=smp.dp_rank())
. Ez biztosítja az adatminták konzisztenciáját a különböző modellpartíciókat tartalmazó eszközökön. - Az előre és visszafelé irányuló logikának lépésfüggvényben kell lennie
smp.step
dekoráció. - Végezzen utófeldolgozást a kimeneteken a mikrokötegek között StepOutput módszerekkel, mint pl
reduce_mean
Azsmp.step
függvénynek olyan visszatérési értékkel kell rendelkeznie, amely a kimenetétől függsmp.DistributedModel
.
A képzési forgatókönyv a következő:
A SageMaker elosztott modell párhuzamos könyvtár TensorFlow tanító szkriptjének engedélyezésére vonatkozó részletes útmutatóért lásd: Módosítson egy TensorFlow képzési szkriptet. A PyTorch esetében lásd: PyTorch képzési parancsfájl módosítása.
SageMaker hibakereső
Az előző részekben megbeszéltük, hogyan lehet optimalizálni a képzést modell- és adatpárhuzamosítási technikák segítségével. Val vel Amazon SageMaker Debugger, immáron teljesítményprofil-információkat rögzíthetünk edzéseinkből, hogy meghatározzuk, mennyit fejlődött az edzés. Alapértelmezés szerint a Debugger 500 ezredmásodperces mintavételi időközönként rögzíti a rendszermetrikákat minden SageMaker képzési feladathoz, például a GPU-hoz, a CPU-kihasználtsághoz, a memóriához, a hálózathoz és az I/O-hoz. Az adatokhoz az alábbiak szerint férhetünk hozzá:
A Debugger segédprogramokat biztosít a Képzeld a profilalkotási adatokat különböző módokon. A következő példában láthatjuk a teljes GPU és CPU kihasználtságot, valamint az I/O várakozási idejét a több GPU-s betanítási feladathoz a Horovod használatával. A grafikonok létrehozásához a következő kódot futtatjuk:
A GPU kihasználtsága gyakran 0 és 100% között ingadozik, és a magas I/O várakozási idő alacsony GPU kihasználtság mellett az I/O szűk keresztmetszetét jelzi. Továbbá a teljes CPU kihasználtság soha nem haladja meg a 70%-ot, ami azt jelenti, hogy a dolgozói folyamatok számának növelésével javíthatjuk az adatok előfeldolgozását.
A teljesítményt a Horovodról a SageMaker elosztott adatok párhuzamos könyvtárára váltva javíthatjuk. A következő grafikonokon azt láthatjuk, hogy a GPU-kat hatékonyabban használják, és csak rövid időre csökkennek alacsony kihasználtságra.
Képzési infrastruktúra
A modellek betanítására 10 ml.p3.16xnagy példányt használtunk SageMaker képzési feladat segítségével. A SageMaker csökkenti a gépi tanulási (ML) modellek betanításának és hangolásának idejét és költségeit az infrastruktúra kezelése nélkül. A SageMaker segítségével könnyedén betaníthatja és hangolhatja az ML-modelleket a beépített eszközök segítségével a képzési kísérletek kezeléséhez és nyomon követéséhez, automatikusan kiválaszthatja az optimális hiperparamétereket, hibakeresheti a képzési feladatokat, és figyelemmel kísérheti a rendszererőforrások, például a GPU-k, CPU-k és a hálózati sávszélesség kihasználását. Az adatok az Amazon EFS-ben voltak tárolva, ami lehetővé tette számunkra, hogy növekedjünk és csökkenjünk, miközben a fájlokat hozzáadjuk és eltávolítjuk anélkül, hogy szükség lenne kezelésre vagy kiépítésre. Elsődleges célunk az edzés sebességének javítása és a költségek csökkentése volt.
Modell méretezhetőség
Bár ezt az infrastruktúrát elsősorban nyelvgenerálásra használják, a GPT architektúrával és a Pile adatkészlettel ezeket a technikákat használhatja nagyméretű transzformátormodellek betanításához, ami az NLP-n kívül számos területen hasznos. Magában a gépi tanulásban sok számítógépes látási feladatot ma már nagyparaméteres (transzformátoros) architektúrákkal oldanak meg, ahol kimutatták, hogy a hagyományos CNN-eket (Convolutional Neural Network) felülmúlják az olyan feladatokban, mint a reprezentációs tanulás (lásd A számítógépes látás korszerű fejlesztése önfelügyelt transzformátorokkal és 10-szer hatékonyabb képzéssel) és a képek nagyméretű leképezése szöveggé (pl CLIP). A nagyparaméteres modellek az élettudományokban is új utakat törnek olyan területeken, mint pl fehérjeszerkezet elemzés és a orvosi képadatok elemzése.
Az ebben a bejegyzésben részletezett megoldások az elosztott képzésre és a nagy modellek kezelésére vonatkoznak ezen területek bármelyikének modelljére is.
Kompromisszumokat
A kutatói közösségben folyamatosan vita folyik a nagyszabású nyelvi modellek képzésének kockázatairól, és arról, hogy kellőképpen átgondolták-e a kidolgozásukkal kapcsolatos lehetséges kockázatokat és az e kockázatok mérséklésére szolgáló stratégiákat, amelyek közül néhányan a pénzügyi és környezetvédelmi költségek. szerint a papír Az ACM-ben megjelent, egyetlen BERT-alapmodell (hiperparaméter-hangolás nélkül) GPU-kon való betanítása a becslések szerint annyi energiát igényel, mint egy transz-amerikai repülés. A környezeti hatások a modell méretéhez igazodnak, és az ilyen modellek hatékony finomhangolása jelentősen csökkentheti a kibocsátást. Az AWS nemrégiben elindított egy újat Vevői szénlábnyom eszköz, minden AWS-ügyfél számára ingyenesen elérhető, az Amazon fenntarthatóság növelésére és a szén-dioxid-kibocsátás csökkentésére irányuló erőfeszítéseinek részeként. Az alkalmazások AWS felhőn való futtatása potenciálisan csökkentheti a szénlábnyomot (ha összehasonlítjuk azokkal a vállalati adatközpontokkal, amelyek 2019 jelentés).
Következtetés
Ez a bejegyzés egy olyan megoldást mutatott be, amely megkönnyíti a nyelvi modellek finomhangolását milliárd paraméterrel az AWS Cloudban a SageMaker segítségével.
A SageMakerrel való modellpárhuzamról további információkért lásd: Tanítson több mint 175 milliárd paraméterű NLP-modellt modell párhuzamos kiegészítésekkel és Hugging Face-vel az Amazon SageMakeren és a Hogyan használta a Latent Space az Amazon SageMaker modell párhuzamossági könyvtárát a nagyméretű transzformátorok határainak kitűzésére.
Ha segítségre van szüksége az ML használatának felgyorsításához termékeiben és folyamataiban, kérjük, forduljon a Amazon ML Solutions Lab.
A szerzőkről
Sia Gholami vezető adattudós az Amazon ML Solutions Labnál, ahol AI/ML megoldásokat épít ügyfelei számára a különböző iparágakban. Szenvedélye a természetes nyelvi feldolgozás (NLP) és a mély tanulás. A munkán kívül Sia szívesen tölt időt a természetben és teniszez.
Mehdi Noorimenedzser és vezető alkalmazott tudós az Amazon ML Solutions Labnál, ahol különböző iparágakban dolgozó ügyfelekkel dolgozik, és segít nekik felgyorsítani a felhőbe való migrációjukat, valamint megoldani ML problémáikat a legmodernebb megoldások és technológiákat.
Muhyun Kim az Amazon Machine Learning Solutions Lab adattudósa. Gépi tanulással és mély tanulással oldja meg az ügyfelek különféle üzleti problémáit, valamint segíti a szakképzettséget.
Danny Byrd az Amazon ML Solutions Lab alkalmazott tudósa. A laborban segített ügyfeleinek fejlett ML-megoldások kifejlesztésében, az ML-specialitásokon a számítógépes látástól a megerősítő tanulásig. Szenvedélyesen törekszik a technológia előremozdítására és az AWS-termékekben rejlő új lehetőségek felszabadítására.
Francisco Calderon Rodriguez az Amazon ML Solutions Lab adatkutatója. Az ML Solutions Lab tagjaként mély tanulással segít megoldani az AWS-ügyfelek kritikus üzleti problémáit. Szabadidejében Francisco szeret zenélni és gitározni, focizni a lányaival, és élvezi a családjával töltött időt.
Yohei Nakayama az Amazon ML Solutions Lab Deep Learning Architect-je. Különböző ágazatokban együttműködő ügyfelekkel dolgozik, hogy felgyorsítsa a mesterséges intelligencia és az AWS felhőszolgáltatások használatát üzleti kihívásaik megoldása érdekében. Érdekli az ML/AI technológiák alkalmazása az űriparban.
Nathalie Rauschmayr Senior Applied Scientist az AWS-nél, ahol segít az ügyfeleknek mély tanulási alkalmazások fejlesztésében.
- Coinsmart. Európa legjobb Bitcoin- és kriptográfiai tőzsdéje.
- Platoblockchain. Web3 metaverzum intelligencia. Felerősített tudás. SZABAD HOZZÁFÉRÉS.
- CryptoHawk. Altcoin radar. Ingyenes próbaverzió.
- Forrás: https://aws.amazon.com/blogs/machine-learning/create-train-and-deploy-a-billion-parameter-language-model-on-terabytes-of-data-with-tensorflow-and- amazon-sagemaker/
- "
- 10
- 100
- 2019
- a
- Rólunk
- gyorsul
- gyorsuló
- hozzáférés
- Szerint
- Elérése
- át
- hozzáadott
- mellett
- fejlett
- Minden termék
- lehetővé teszi, hogy
- mindig
- amazon
- elemzés
- api
- alkalmazások
- alkalmazott
- alkalmaz
- Alkalmazása
- megközelítés
- megközelít
- körülbelül
- építészeti
- építészet
- Művészet
- mesterséges
- mesterséges intelligencia
- társult
- figyelem
- automatikusan
- elérhető
- átlagos
- AWS
- mert
- hogy
- között
- Túl
- nagyobb
- Legnagyobb
- Billió
- milliárd
- Blokk
- Könyvek
- épít
- épít
- beépített
- üzleti
- képességek
- képes
- elfog
- fogások
- szén
- szén-dioxid kibocsátás
- központi
- kihívás
- kihívások
- A pop-art design, négy időzóna kijelzése egyszerre és méretének arányai azok az érvek, amelyek a NeXtime Time Zones-t kiváló választássá teszik. Válassza a
- osztály
- felhő
- felhő szolgáltatások
- kód
- Közös
- közlés
- közösség
- képest
- számítás
- Kiszámít
- számítógép
- Computer Science
- számítástechnika
- összefüggő
- Hátrányok
- következetes
- kapcsolat
- kiadások
- teremt
- készítette
- teremt
- létrehozása
- kritikai
- szokás
- Ügyfelek
- dátum
- adatközpontok
- adattudós
- mély
- igazolták
- függ
- telepíteni
- bevetés
- tervezett
- részlet
- részletes
- Határozzuk meg
- Fejleszt
- fejlesztése
- Fejlesztés
- eszköz
- Eszközök
- különböző
- megvitatni
- megosztott
- elosztó
- Sokféleség
- DM
- domainek
- le-
- könnyen
- könnyen használható
- hatékonyság
- hatékony
- eredményesen
- erőfeszítések
- Kibocsátások
- lehetővé
- lehetővé teszi
- energia
- Angol
- Vállalkozás
- környezeti
- különösen
- megalapozott
- becsült
- példa
- meghaladja
- csere
- kiterjesztések
- Arc
- szembe
- család
- Jellemzők
- Fields
- pénzügyi
- vezetéknév
- megfelelő
- repülés
- következő
- következik
- Lábnyom
- Előre
- Keretrendszer
- Francisco
- ból ből
- funkció
- Továbbá
- általános
- generál
- generáció
- nemző
- szerzés
- GitHub
- Globális
- GPU
- GPU
- Nő
- útmutató
- hardver
- segít
- segít
- Magas
- jó minőségű
- <p></p>
- tart
- házigazdája
- tárhely
- Hogyan
- How To
- azonban
- HTTPS
- kép
- képek
- javul
- javított
- tartalmaz
- magában foglalja a
- Beleértve
- Növelje
- növekvő
- index
- iparágak
- ipar
- információ
- Infrastruktúra
- újítások
- bemenet
- inspirálta
- példa
- Intelligencia
- érdekelt
- IT
- maga
- Munka
- Állások
- utazás
- Tart
- tudás
- labor
- Címke
- Címkék
- nyelv
- nagy
- nagyobb
- indított
- réteg
- vezető
- tanulás
- szintek
- könyvtár
- Life Sciences
- kiszámításának
- helyi
- néz
- gép
- gépi tanulás
- kezelése
- vezetés
- menedzser
- kezelése
- térképészet
- maszk
- matematikai
- matematika
- eszközök
- orvosi
- tag
- Memory design
- mód
- Metrics
- ML
- modell
- modellek
- monitor
- több
- a legtöbb
- többszörös
- zene
- Természetes
- Természet
- elengedhetetlen
- igények
- hálózat
- NIH
- csomópontok
- szám
- célok
- Ajánlatok
- Office
- folyamatban lévő
- működés
- Művelet
- Optimalizálja
- érdekében
- Más
- Papír
- rész
- szenvedélyes
- szabadalom
- teljesítmény
- időszakok
- filozófia
- Fizika
- játszani
- játék
- pozíció
- lehetséges
- potenciális
- előre
- előrejelzés
- Tippek
- előző
- elsődleges
- problémák
- folyamat
- Folyamatok
- feldolgozás
- Termékek
- profilalkotás
- program
- PROS
- ad
- biztosít
- meglökött
- hatótávolság
- Olvasás
- új
- nemrég
- nyilvántartások
- Meggyógyul
- csökkenteni
- tekintettel
- képviselet
- képviselők
- szükség
- kutatás
- Tudástár
- Eredmények
- visszatérés
- kockázatok
- futás
- futás
- azonos
- Skála
- skálázás
- Tudomány
- TUDOMÁNYOK
- Tudós
- mag
- szolgáltatás
- Szolgáltatások
- számos
- SGD
- Alak
- megosztott
- rövid
- mutatott
- hasonló
- Egyszerű
- óta
- egyetlen
- Méret
- kicsi
- So
- Futball
- megoldások
- Megoldások
- SOLVE
- Megoldja
- néhány
- Hely
- kifejezetten
- sebesség
- Költési
- osztott
- szakadások
- verem
- kezdődött
- Állami
- csúcs-
- Államok
- tárolni
- stratégiák
- siker
- Fenntarthatóság
- rendszer
- feladatok
- technikák
- Technologies
- Technológia
- A
- ezer
- Keresztül
- áteresztőképesség
- idő
- alkalommal
- jelképes
- tokenek
- szerszámok
- vágány
- védjegy
- hagyományos
- Képzések
- Trends
- Ubuntu
- példátlan
- us
- használ
- segédprogramok
- kihasználva
- érték
- fajta
- különféle
- függőlegesek
- látomás
- kötet
- várjon
- hullám
- módon
- vajon
- míg
- Wikipedia
- nélkül
- szavak
- Munka
- munkás
- dolgozók
- művek
- X
- év
- A te
- youtube