Az Amazon SageMaker Automatic Model Tuning akár háromszor gyorsabb hiperparaméterhangolást biztosít a Hyperband PlatoBlockchain Data Intelligence segítségével. Függőleges keresés. Ai.

Az Amazon SageMaker Automatic Model Tuning mostantól akár háromszor gyorsabb hiperparaméterhangolást tesz lehetővé a Hyperband segítségével

Amazon SageMaker Bemutatja az automatikus modellhangolást Hipersáv, egy multi-fidelity technika a hiperparaméterek hangolására az optimális modell megtalálásának gyorsabb és hatékonyabb módjaként. Ebben a bejegyzésben bemutatjuk, hogy a Hyperband funkcióval végzett automatikus modellhangolás miként tud gyorsabb hiperparaméterhangolást elérni – akár háromszor olyan gyorsan.

A Hyperband előnyei

A Hyperband két előnnyel rendelkezik a meglévő black-box hangolási stratégiákhoz képest: hatékony erőforrás-kihasználás és jobb konvergenciaidő.

A gépi tanulási (ML) modellek egyre inkább képzésigényesek, összetett modelleket és nagy adatkészleteket foglalnak magukban, és sok erőfeszítést és erőforrást igényelnek az optimális hiperparaméterek megtalálásához. A hagyományos feketedobozos keresési stratégiák, mint például a Bayes-féle, a véletlenszerű keresés vagy a rácskeresés, hajlamosak lineárisan skálázni az ML probléma összetettségével, ami hosszabb képzési időt igényel.

A hiperparaméter-hangolás felgyorsítása és az edzési költségek optimalizálása érdekében a Hyperband ezt használja Aszinkron egymást követő felezési algoritmus (ASHA), egy olyan stratégia, amely nagymértékben párhuzamosítja a hiperparaméterek hangolását, és automatikusan korán leállítja a betanítási feladatokat azáltal, hogy korábban kiértékelt konfigurációkat használ annak előrejelzésére, hogy egy adott jelölt ígéretes-e vagy sem.

Amint azt ebben a bejegyzésben bemutatjuk, a Hyperband gyorsabban konvergál az optimális célmutatóhoz, mint a legtöbb black-box stratégia, és így edzési időt takarít meg. Ez lehetővé teszi nagyobb léptékű modellek hangolását, ahol az egyes hiperparaméter-konfigurációk kiértékelése költséges képzési ciklust igényel, mint pl. számítógépes látás és természetes nyelvi feldolgozó (NLP) alkalmazások. Ha érdekli a legpontosabb modellek megtalálása, a Hyperband azt is lehetővé teszi, hogy több erőforrással végezze hangolási feladatait, és egy jobb megoldás felé konvergáljon.

Hipersáv SageMakerrel

A hiperparaméterek hangolására megvalósított új hipersávos megközelítés néhány új adatelemet megváltoztatott az AWS API-hívásokon keresztül. Végrehajtás a AWS felügyeleti konzol jelenleg nem elérhető. Nézzünk néhány adatelemet a Hyperband esetében:

  • Stratégia – Ez határozza meg a választandó hiperparaméteres megközelítést. Ezzel a változtatással a Hyperband új értéket vezetünk be. Az érvényes értékek a Bayes-féle, a véletlenszerű és a hipersáv.
  • MinResource – Meghatározza a képzési munkához használandó időszakok vagy iterációk minimális számát, mielőtt döntés születik a képzés leállításáról.
  • MaxResource – Meghatározza a képzési munkához a cél elérése érdekében felhasználható időszakok vagy iterációk maximális számát. Ez a paraméter nem szükséges, ha a hangolási feladatban hiperparaméterként meghatározott számú tanítási korszak van.

Implementáció

A következő mintakód a hangolási feladat konfigurációját és a betanítási feladat meghatározását mutatja:

tuning_job_config = {
    "ParameterRanges": {
    "Strategy": "Hyperband",
    "ResourceLimits": {
        "MaxNumberOfTrainingJobs":20,
        "MaxParallelTrainingJobs": 5},
    "StrategyConfig":{
        "HyperbandStrategyConfig":{
            "MinResource": 10,
            "MaxResource": 100}
            },
    "HyperParameterTuningJobObjective": {
        "MetricName": "validation:auc", 
        "Type": "Maximize"
        },
    "CategoricalParameterRanges": [],
    "ContinuousParameterRanges": [
    {
    "MaxValue": "1",
    "MinValue": "0",
    "Name": "eta",
    },
    {
    "MaxValue": "10",
    "MinValue": "1",
    "Name": "min_child_weight",
    },
    {
    "MaxValue": "2",
    "MinValue": "0",
    "Name": "alpha",
    },
    ],
    "IntegerParameterRanges": [
    {
    "MaxValue": "10",
    "MinValue": "1",
    "Name": "max_depth",
    }
    ],
    },

}

Az előző kód határozza meg strategy mint Hyperband, és meghatározza az alsó és felső korlátot az erőforrás-korlátozáson belül a stratégiai konfiguráción belül HyperbandStrategyConfig, amely karként szolgál az edzési idő szabályozására. Az automatikus modellhangolás konfigurálásával és futtatásával kapcsolatos további részletekért lásd: Adja meg a Hiperparaméter hangolási feladat beállításait.

Hipersáv a feketedobozos kereséshez képest

Ebben a részben két kísérletet végzünk a Hyperband és a feketedobozos keresés összehasonlítására.

Első kísérlet

Az első kísérletben egy bináris osztályozási feladattal egy 5000 adatpontot tartalmazó szintetikus adathalmazon egy háromrétegű, teljesen összekapcsolt hálózat optimalizálását célozzuk meg. A hálózat hiperparaméterei közé tartozik a rétegenkénti egységek száma, az Adam-optimalizáló tanulási sebessége, az L2-szabályozási paraméter és a kötegméret. Ezen paraméterek tartománya a következő:

  • Egységek száma rétegenként – 10-től 1e3-ig
  • Tanulási arány – 1e-4-től 0.1-ig
  • L2 regularizációs paraméter – 1e-6-től 2-ig
  • Csomó méret - 10-200

Az alábbi grafikonon az eredményeink láthatók.

A Hyperbandot más stratégiákkal összehasonlítva, 96%-os célpontosság mellett, a Hyperband 357 másodperc alatt képes elérni ezt a célt, míg a Bayes-féle 560 másodperc, a véletlenszerű keresés pedig 614 másodperc alatt. A Hyperband következetesen megtalálja az optimálisabb megoldást az adott falióra időkeret mellett. Ez a többhűségű optimalizálási algoritmus egyértelmű előnyét mutatja.

Második kísérlet

Ebben a második kísérletben figyelembe vesszük a Cifar10 adatkészlet és betanítja a ResNet-20-at, a számítógépes látási feladatok népszerű hálózati architektúráját. Minden kísérletet ml.g4dn.xlarge példányokon futtatunk, és SGD-n keresztül optimalizáljuk a neurális hálózatot. Szokásos képkibővítést is alkalmazunk, beleértve a véletlenszerű megfordítást és véletlenszerű kivágást. A keresési terület a következő paramétereket tartalmazza:

  • Mini köteg mérete: 4 és 512 közötti egész szám
  • SGD tanulási ráta: 1e-6-tól 1e-1-ig lebeg
  • SGD lendülete: lebegés 0.01 és 0.99 között
  • Súlycsökkenés: úszó 1e-5-ről 1-re

Az alábbi grafikon szemlélteti megállapításainkat.

Az Amazon SageMaker Automatic Model Tuning akár háromszor gyorsabb hiperparaméterhangolást biztosít a Hyperband PlatoBlockchain Data Intelligence segítségével. Függőleges keresés. Ai.

A 0.87-es célellenőrzési pontosság mellett a Hyperband kevesebb, mint 2000 másodperc alatt éri el, míg a Random és a Bayes-féle 10000 9000, illetve közel 5 másodpercet igényel. Ez ~4.5-szörös és ~XNUMX-szörös gyorsulási tényezőt jelent a Hyperband esetében ennél a feladatnál a véletlenszerű és bayesi stratégiákhoz képest. Ez egyértelmű előnyt jelent a több hűségű optimalizálási algoritmus számára, amely jelentősen csökkenti a mélytanulási modellek hangolásához szükséges falióra idejét.

Következtetés

A SageMaker automatikus modellhangolása lehetővé teszi, hogy csökkentse a modell hangolásához szükséges időt azáltal, hogy automatikusan megkeresi a legjobb hiperparaméter-konfigurációt a megadott tartományokon belül. A modell legjobb verzióját úgy találhatja meg, ha több keresési stratégiával, például feketedobozos vagy multi-fidelity stratégiákkal oktatási feladatokat futtat az adatkészletén.

Ebben a bejegyzésben megvitattuk, hogyan használhatod most az úgynevezett multi-fidelity stratégiát Hipersáv a SageMakerben, hogy megtalálja a legjobb modellt. A Hyperband támogatása lehetővé teszi a SageMaker Automatic Model Tuning számára, hogy nagyobb léptékű modelleket hangoljon, ahol az egyes hiperparaméter-konfigurációk kiértékelése költséges képzési ciklust igényel, például számítógépes látás és NLP alkalmazásokban.

Végül láttuk, hogy a Hyperband hogyan optimalizálja tovább a futásidőt a korai leállítású black-box stratégiákhoz képest azáltal, hogy korábban kiértékelt konfigurációkat használ annak előrejelzésére, hogy egy adott jelölt ígéretes-e, és ha nem, leállítja az értékelést, hogy csökkentse a teljes időt és a számítási költségeket. A Hyperband használata a SageMakerben lehetővé teszi a minimális és maximális erőforrás megadását is HyperbandStrategyConfig paraméter a további futásidejű vezérlésekhez.

Ha többet szeretne megtudni, látogasson el Végezze el az automatikus modellhangolást a SageMaker segítségével.


A szerzőkről

Az Amazon SageMaker Automatic Model Tuning akár háromszor gyorsabb hiperparaméterhangolást biztosít a Hyperband PlatoBlockchain Data Intelligence segítségével. Függőleges keresés. Ai.Doug Mbaya Senior Partner Solution építész, aki az adatokra és az elemzésekre összpontosít. A Doug szorosan együttműködik az AWS-partnerekkel, segítve őket az adatok és az elemzési megoldások felhőbe való integrálásában.

Az Amazon SageMaker Automatic Model Tuning akár háromszor gyorsabb hiperparaméterhangolást biztosít a Hyperband PlatoBlockchain Data Intelligence segítségével. Függőleges keresés. Ai.Gopi Mudiyala az AWS vezető műszaki ügyfélmenedzsere. Segíti az ügyfeleket a pénzügyi szolgáltatások ágazatában az AWS-ben végzett tevékenységeikben. Gépi tanulási specialistaként a Gopi azon dolgozik, hogy segítse ügyfeleit az ML útjukon.

Az Amazon SageMaker Automatic Model Tuning akár háromszor gyorsabb hiperparaméterhangolást biztosít a Hyperband PlatoBlockchain Data Intelligence segítségével. Függőleges keresés. Ai.Xingchen Ma az AWS alkalmazott tudósa. A SageMaker Automatic Model Tuning szolgáltatását birtokló csapatban dolgozik.

Időbélyeg:

Még több AWS gépi tanulás