Bemutatkozik a Fortuna: Egy könyvtár a bizonytalanság számszerűsítéséhez PlatoBlockchain Data Intelligence. Függőleges keresés. Ai.

Bemutatkozik Fortuna: Könyvtár a bizonytalanság számszerűsítésére

A prediktív bizonytalanság megfelelő becslése alapvető fontosságú a kritikus döntéseket jelentő alkalmazásokban. A bizonytalanság felhasználható a modell-előrejelzések megbízhatóságának felmérésére, emberi beavatkozás kiváltására, vagy annak eldöntésére, hogy egy modell biztonságosan alkalmazható-e a vadonban.

bemutatjuk Fortuna, egy nyílt forráskódú könyvtár a bizonytalanság számszerűsítésére. A Fortuna olyan kalibrációs módszereket biztosít, mint például a konform előrejelzés, amely bármely képzett neurális hálózaton alkalmazható kalibrált bizonytalansági becslések készítéséhez. A könyvtár emellett számos Bayes-féle következtetési módszert támogat, amelyek alkalmazhatók a beírt mély neurális hálózatokra Len. A könyvtár megkönnyíti a benchmarkok futtatását, és lehetővé teszi a szakemberek számára, hogy robusztus és megbízható mesterségesintelligencia-megoldásokat építsenek ki a fejlett bizonytalanság-számítási technikák kihasználásával.

A túlzott önbizalom problémája a mély tanulásban

Ha valaha is megnézte egy betanított mély neurális hálózati osztályozó által visszaadott osztályvalószínűségeket, akkor megfigyelhette, hogy az egyik osztály valószínűsége sokkal nagyobb, mint a többi. Valami ilyesmi, például:

p = [0.0001, 0.0002, …, 0.9991, 0.0003, …, 0.0001]

Ha az előrejelzések többsége esetében ez a helyzet, akkor a modellje túlságosan magabiztos lehet. Az osztályozó által visszaadott valószínűségek érvényességének értékeléséhez összevethetjük azokat egy holdout adatsoron elért tényleges pontossággal. Valójában természetes azt feltételezni, hogy a helyesen osztályozott adatpontok arányának megközelítőleg meg kell egyeznie az előre jelzett osztály becsült valószínűségével. Ez a koncepció az úgynevezett kalibráció [Guo C. et al., 2017].

Sajnos sok betanított mély neurális hálózat rosszul van kalibrálva, ami azt jelenti, hogy a megjósolt osztály becsült valószínűsége sokkal nagyobb, mint a helyesen osztályozott bemeneti adatpontok aránya. Más szóval, az osztályozó túlságosan magabiztos.

A túlzott magabiztosság problémát jelenthet a gyakorlatban. Az orvos nem rendelhet el releváns további vizsgálatokat egy mesterséges intelligencia által felállított túlságosan magabiztos, egészséges diagnózis eredményeként. Egy önvezető autó dönthet úgy, hogy nem fékez, mert magabiztosan értékelte, hogy az előtte haladó tárgy nem személy. A kormányzó dönthet úgy, hogy kiürít egy várost, mert a mesterséges intelligencia becslése szerint túl nagy a valószínűsége egy kiemelkedő természeti katasztrófának. Ezekben és sok más alkalmazásban a kalibrált bizonytalansági becslések kritikus fontosságúak a modell-előrejelzések megbízhatóságának értékeléséhez, az emberi döntéshozóhoz tartoznak, vagy annak eldöntéséhez, hogy egy modell biztonságosan alkalmazható-e.

Fortuna: Könyvtár a bizonytalanság számszerűsítésére

Számos publikált technika létezik az előrejelzések bizonytalanságának becslésére vagy kalibrálására, pl. Bayes-i következtetés [Wilson AG, 2020], hőmérséklet-skálázás [Guo C. et al., 2017]és konform előrejelzés [Angelopoulos AN et al., 2022] mód. A bizonytalanság számszerűsítésére szolgáló meglévő eszközök és könyvtárak azonban szűk hatókörrel rendelkeznek, és nem kínálnak egyetlen helyen technikák széles skáláját. Ez jelentős többletköltséget eredményez, ami gátolja a bizonytalanság átvételét a termelési rendszerekbe.

Ennek a hiánynak a pótlása érdekében elindítjuk a Fortunát, a bizonytalanság számszerűsítésére szolgáló könyvtárat, amely egyesíti a szakirodalom kiemelkedő módszereit, és szabványosított és intuitív felülettel teszi elérhetővé a felhasználók számára.

Példaként tegyük fel, hogy oktatási, kalibrációs és tesztadat-betöltőket használ tensorflow.Tensor formátumban, nevezetesen train_data_loader, calib_data_loader és a test_data_loader. Ezenkívül be van írva egy mély tanulási modell Len, nevezetesen modell. Ezután a Fortuna segítségével:

  1. illeszkedjen egy hátsó eloszláshoz;
  2. kalibrálja a modell kimeneteit;
  3. kalibrált előrejelzéseket készíteni;
  4. bizonytalansági becslések becslése;
  5. kiértékelési mérőszámok kiszámítása.

A következő kód mindezt elvégzi Ön helyett.

from fortuna.data import DataLoader
from fortuna.prob_model.classification import ProbClassifier
from fortuna.metric.classification import expected_calibration_error

# convert data loaders
train_data_loader = DataLoader.from_tensorflow_data_loader(train_data_loader)
calib_data_loader = DataLoader.from_tensorflow_data_loader(calib_data_loader)
test_data_loader = DataLoader.from_tensorflow_data_loader(test_data_loader)

# define and train a probabilistic model
prob_model = ProbClassifier(model=model)
train_status = prob_model.train(train_data_loader=train_data_loader, calib_data_loader=calib_data_loader)

# make predictions and estimate uncertainty
test_inputs_loader = test_data_loader.to_inputs_loader()
test_means = prob_model.predictive.mean(inputs_loader=test_inputs_loader)
test_modes = prob_model.predictive.mode(inputs_loader=test_inputs_loader, means=test_means)

# compute the expected calibration error and plot a reliability diagram
test_targets = test_data_loader.to_array_targets()
ece = expected_calibration_error(preds=test_modes, probs=test_means, targets=test_targets)

A fenti kód számos alapértelmezett beállítást használ, beleértve a SWAG-ot [Maddox WJ et al., 2019] utólagos következtetési módszerként a hőmérséklet-skálázás [Guo C. et al., 2017] a modellkimenetek kalibrálásához és egy szabványos Gauss-előzetes eloszláshoz, valamint a hátsó illesztési és kalibrációs folyamatok konfigurációjához. Könnyedén konfigurálhatja ezeket az összetevőket, és ezt erősen javasoljuk, ha egy adott konfigurációt keres, vagy ha több komponenst szeretne összehasonlítani.

Felhasználási módok

A Fortuna három használati módot kínál: 1/ Len modellektől kezdve, 2 / A modell kimeneteitől kezdveés 3/ A bizonytalansági becslésekből kiindulva. Csővezetékeiket a következő ábra mutatja, mindegyik a zöld panelek egyikéből indul ki. A fenti kódrészlet egy példa a Fortuna használatára, amely a Flax modellekből indul ki, ami lehetővé teszi a modell oktatását Bayes-féle következtetési eljárásokkal. Alternatív megoldásként kiindulhat a modell kimeneteiből vagy közvetlenül a saját bizonytalansági becsléseiből. Mindkét utóbbi mód az keretfüggetlen és segít a kalibrált bizonytalansági becslések megszerzésében a képzett modell.

1/ A bizonytalansági becslésekből kiindulva

A bizonytalansági becslésekből kiindulva minimális kompatibilitási követelmények vannak, és ez a leggyorsabb interakció szintje a könyvtárral. Ez a használati mód konform előrejelzési módszereket kínál mind az osztályozáshoz, mind a regresszióhoz. Ezek bizonytalansági becsléseket vesznek fel numpy.ndarray formátumban, és szigorú előrejelzéskészleteket ad vissza, amelyek megtartják a felhasználó által megadott valószínűségi szintet. Az egydimenziós regressziós feladatokban a konform halmazok a megbízhatóság vagy a hiteles intervallumok kalibrált változatainak tekinthetők.

Ne feledje, hogy ha a bemenetekben megadott bizonytalansági becslések pontatlanok, akkor a konform halmazok nagyok és használhatatlanok lehetnek. Emiatt, ha pályázata ezt lehetővé teszi, vegye figyelembe a A modell kimeneteitől kezdve és a Len modellektől kezdve az alábbiakban részletezett használati módok.

2/ A modell kimeneteitől kezdve

Ez a mód azt feltételezi, hogy már betanított egy modellt valamilyen keretrendszerben, és megérkezik a Fortunához a modell kimenetekkel numpy.ndarray formátumot minden bemeneti adatponthoz. Ez a használati mód lehetővé teszi a modellkimenetek kalibrálását, a bizonytalanság becslését, a metrikák kiszámítását és a konform halmazok beszerzését.

Összehasonlítva a A bizonytalansági becslésekből kiindulva használati mód, A modell kimeneteitől kezdve jobb vezérlést biztosít, mivel megbizonyosodhat arról, hogy a bizonytalansági becslések megfelelően lettek kalibrálva. Ha azonban a modellt klasszikus módszerekkel képezték volna, akkor a modell (más néven episztemikus) bizonytalanság számszerűsítése gyenge lehet. A probléma enyhítése érdekében vegye figyelembe a Len modellektől kezdve használati mód.

3/ Len modellektől kezdve

A Len modellektől kezdve magasabb kompatibilitási követelmények vannak, mint a A bizonytalansági becslésekből kiindulva és a A modell kimeneteitől kezdve használati módok, mivel ehhez beírt mély tanulási modellekre van szükség Len. Lehetővé teszi azonban, hogy a szabványos modellképzést skálázható Bayes-féle következtetési eljárásokkal helyettesítse, ami jelentősen javíthatja a prediktív bizonytalanság számszerűsítését.

A Bayes-féle módszerek úgy működnek, hogy a bizonytalanságot a modell paraméterei feletti bizonytalanságon keresztül reprezentálják, hogy melyik megoldás a helyes, korlátozott információ mellett. Az ilyen típusú bizonytalanságot episztemikus bizonytalanságnak nevezik. Mivel a neurális hálózatok sokféle megoldást képviselhetnek, paramétereik különböző beállításainak megfelelően, a Bayes-módszerek különösen hatásosak lehetnek a mély tanulásban. Számos méretezhető Bayes-következtetési eljárást biztosítunk, amelyek gyakran felhasználhatók bizonytalansági becslések, valamint jobb pontosság és kalibrálás készítésére, gyakorlatilag oktatási idő többletköltsége nélkül.

Következtetés

Bejelentettük a Fortuna, a mélytanulási bizonytalanság számszerűsítésére szolgáló könyvtár általános elérhetőségét. A Fortuna egyesíti a szakirodalom kiemelkedő módszereit, például a konform módszereket, a hőmérséklet-skálázást és a Bayes-i következtetést, és szabványos és intuitív felülettel teszi elérhetővé a felhasználók számára. A Fortuna használatának megkezdéséhez tekintse meg a következő forrásokat:

Próbálja ki a Fortunát, és ossza meg velünk véleményét! Arra bátorítjuk, hogy járuljon hozzá a könyvtárhoz, vagy hagyja meg javaslatait és hozzájárulásait – csak hozzon létre egy kérdés vagy nyissa meg a húzza meg a kérést. A mi oldalunkon továbbra is fejlesztjük a Fortunat, növeljük a bizonytalanság számszerűsítési módszereinek lefedettségét, és további példákat adunk hozzá, amelyek számos forgatókönyvben bemutatják annak hasznosságát.


A szerzőkről

Bemutatkozik a Fortuna: Egy könyvtár a bizonytalanság számszerűsítéséhez PlatoBlockchain Data Intelligence. Függőleges keresés. Ai.

 

Gianluca Detommaso az AWS alkalmazott tudósa. Jelenleg a bizonytalanság számszerűsítésén dolgozik a mély tanulásban. Szabadidejében Gianluca szeret sportolni, finomat enni és új készségeket tanulni.

Bemutatkozik a Fortuna: Egy könyvtár a bizonytalanság számszerűsítéséhez PlatoBlockchain Data Intelligence. Függőleges keresés. Ai.Alberto Gasparin 2021 júliusa óta az Amazon Community Shopping alkalmazott tudósa. Érdeklődési köre a természetes nyelvi feldolgozás, az információkeresés és a bizonytalanság számszerűsítése. Élelmiszer- és borrajongó.

Bemutatkozik a Fortuna: Egy könyvtár a bizonytalanság számszerűsítéséhez PlatoBlockchain Data Intelligence. Függőleges keresés. Ai.Michele Donini az AWS Sr alkalmazott tudósa. Egy felelős AI-n dolgozó tudóscsoportot vezet, kutatási területe pedig az Algorithmic Fairness és az Explainable Machine Learning.

Bemutatkozik a Fortuna: Egy könyvtár a bizonytalanság számszerűsítéséhez PlatoBlockchain Data Intelligence. Függőleges keresés. Ai.Seeger Mátyás az AWS vezető alkalmazott tudósa.

Bemutatkozik a Fortuna: Egy könyvtár a bizonytalanság számszerűsítéséhez PlatoBlockchain Data Intelligence. Függőleges keresés. Ai.Cedric Archambeau az AWS vezető alkalmazottja, valamint az Európai Tanulási és Intelligens Rendszerek Laboratóriumának munkatársa.

Bemutatkozik a Fortuna: Egy könyvtár a bizonytalanság számszerűsítéséhez PlatoBlockchain Data Intelligence. Függőleges keresés. Ai.Andrew Gordon Wilson a Courant Institute of Mathematical Sciences és a New York-i Egyetem Adattudományi Központjának docense, valamint az AWS Amazon látogató akadémikusa. Különösen foglalkozik a Bayes-féle és valószínűségi mélytanulás módszereinek kidolgozásával, a méretezhető Gauss-folyamatokkal, a Bayes-i optimalizálással és a fizika által inspirált gépi tanulással.

Időbélyeg:

Még több AWS gépi tanulás