10 csodálatos gépi tanulási vizualizáció, amelyet 2023-ban ismernie kell

Yellowbrick gépi tanulási diagramok létrehozásához kevesebb kóddal

Fotó David Pisnoy on Unsplash

Az adatvizualizáció fontos szerepet játszik a gépi tanulásban.

Az adatvizualizációs felhasználási esetek a gépi tanulásban a következők:

  • Hiperparaméter hangolás
  • Modell teljesítményértékelés
  • Modell feltevések érvényesítése
  • Kiugró értékek keresése
  • A legfontosabb jellemzők kiválasztása
  • A jellemzők közötti minták és összefüggések azonosítása

Azokat a vizualizációkat, amelyek közvetlenül kapcsolódnak a gépi tanulás fenti kulcsfontosságú dolgaihoz, ún gépi tanulási vizualizációk.

A gépi tanulási vizualizációk létrehozása néha bonyolult folyamat, mivel még Pythonban is sok kódot igényel. De a Python nyílt forráskódjának köszönhetően Sárga tégla könyvtár, még összetett gépi tanulási vizualizációk is létrehozhatók kevesebb kóddal. Ez a könyvtár kiterjeszti a Scikit-learn API-t, és olyan magas szintű funkciókat biztosít a vizuális diagnosztikához, amelyeket a Scikit-learn nem biztosít.

Ma a következő típusú gépi tanulási vizualizációkat, azok felhasználási eseteit és a Yellowbrick megvalósítását fogom részletesen tárgyalni.

Yellowbrick ML vizualizációk
-----------------------------
01. Elsődleges komponens ábrázolása
02. Érvényesítési görbe
03. Tanulási görbe
04. Könyök telek
05. Sziluett telek
06. Osztályegyensúlyi terv
07. Maradékok telek
08. Prediction Error Plot
09. Cook's Distance Plot
10. Funkció fontossági cselekmény

Telepítés

A Yellowbrick telepítése a következő parancsok valamelyikének futtatásával végezhető el.

  • gyümölcsmag csomag telepítő:
pip install yellowbrick
  • megye csomag telepítő:
conda install -c districtdatalabs yellowbrick

Yellowbrick használata

A Yellowbrick vizualizálók Scikit-learn-szerű szintaxissal rendelkeznek. A vizualizáló olyan objektum, amely az adatokból tanul a vizualizáció létrehozásához. Gyakran használják Scikit-learn becsléssel. A vizualizáló betanításához a fit() metódusát hívjuk.

A cselekmény mentése

A Yellowbrick vizualizálóval létrehozott cselekmény mentéséhez a show() metódust a következőképpen hívjuk meg. Ez a cselekményt PNG-fájlként menti a lemezre.

visualizer.show(outpath="a_telek_neve.png")

Használat

A főkomponens diagram nagydimenziós adatokat jelenít meg 2D vagy 3D szórásdiagramban. Ezért ez a diagram rendkívül hasznos a nagy dimenziós adatok fontos mintáinak azonosításához.

Yellowbrick megvalósítás

Ennek a cselekménynek a hagyományos módszerrel való elkészítése bonyolult és időigényes. Először PCA-t kell alkalmaznunk az adatkészletre, majd a matplotlib könyvtárat használjuk a szóródási diagram létrehozásához.

Ehelyett használhatjuk a Yellowbrick PCA megjelenítő osztályát, hogy elérjük ugyanazt a funkciót. Kihasználja a főkomponens-elemzési módszert, csökkenti az adathalmaz dimenzióit, és 2 vagy 3 soros kóddal elkészíti a szóródiagramot! Mindössze annyit kell tennünk, hogy megadunk néhány kulcsszó argumentumot a PCA() osztályban.

Vegyünk egy példát ennek jobb megértéséhez. Itt használjuk a mellrák adatkészlet (lásd Idézet a végén), amely 30 szolgáltatást és 569 mintát tartalmaz két osztályból (gonosz és a Jóindulatú). Az adatok nagy dimenzióssága (30 jellemzője) miatt lehetetlen az eredeti adatokat 2D-s vagy 3D-s szórásdiagramban ábrázolni, hacsak nem alkalmazunk PCA-t az adatkészletre.

A következő kód elmagyarázza, hogyan használhatjuk a Yellowbrick PCA megjelenítőjét egy 2 dimenziós adatkészlet 30D szórásdiagramjának létrehozására.

(Kód a szerzőtől)
Főkomponens diagram – 2D (Kép: autr)

Beállítással 3D szórásdiagramot is készíthetünk projection=3a PCA() osztályban.

(Kód a szerzőtől)
Főkomponens diagram – 3D (Kép a szerzőtől)

A PCA megjelenítő legfontosabb paraméterei a következők:

  • skála: bool, alapértelmezett True. Ez jelzi, hogy az adatokat skálázni kell-e vagy sem. A PCA futtatása előtt méreteznünk kell az adatokat. Tudj meg többet itt.
  • kivetítés: int, az alapértelmezett 2. Amikor projection=2, 2D szórásdiagram jön létre. Amikor projection=3, 3D szórásdiagram jön létre.
  • osztályok: lista, alapértelmezett None. Ez jelzi az egyes osztályok osztálycímkéit y-ban. Az osztálynevek lesznek a jelmagyarázat címkéi.

Használat

Az érvényesítési görbe az a hatását ábrázolja egyetlen hiperparaméter a vonaton és az érvényesítési készlet. A görbét megnézve meghatározhatjuk a modell túlillesztését, alulillesztését és éppen megfelelő feltételeit az adott hiperparaméter megadott értékeihez. Ha több hiperparamétert kell egyszerre hangolni, az érvényesítési görbe nem használható. Bejelentette, használhat rácsos vagy véletlenszerű keresést.

Yellowbrick megvalósítás

A hitelesítési görbe hagyományos módszerrel történő elkészítése bonyolult és időigényes. Ehelyett használhatjuk a Yellowbrick ValidationCurve vizualizálóját.

Egy érvényességi görbe Yellowbirckben való ábrázolásához egy véletlenszerű erdőosztályozót készítünk ugyanezzel mellrák adatkészlet (lásd Idézet a végén). Megrajzoljuk a hatását maximális mélység hiperparaméter a véletlenszerű erdőmodellben.

A következő kód elmagyarázza, hogyan használhatjuk a Yellowbrick ValidationCurve vizualizálóját érvényesítési görbe létrehozásához a mellrák adatkészlet.

(Kód a szerzőtől)
Érvényesítési görbe (Kép a szerzőtől)

A modell kezd túlfitni, miután a maximális mélység értéke 6. Mikor max_depth=6, a modell nagyon jól illeszkedik a képzési adatokhoz, és jól általánosít új, nem látott adatokon is.

A ValidationCurve vizualizáló legfontosabb paraméterei a következők:

  • becslő: Ez lehet bármilyen Scikit-learn ML modell, például döntési fa, véletlenszerű erdő, támogató vektorgép stb.
  • param_name: Ez annak a hiperparaméternek a neve, amelyet figyelni szeretnénk.
  • param_range: Ez magában foglalja a lehetséges értékeket param_name.
  • önéletrajz: int, meghatározza a hajtások számát a keresztellenőrzéshez.
  • pontozás: húr, tartalmazza a modell pontozási módszerét. Az osztályozáshoz, pontosság előnyös.

Használat

A tanulási görbe a betanítási és érvényesítési hibákat vagy pontosságokat ábrázolja az epochák vagy a betanítási példányok számának függvényében. Azt gondolhatja, hogy mind a tanulási, mind az érvényesítési görbék ugyanúgy jelennek meg, de az iterációk száma a tanulási görbe x tengelyén, míg a hiperparaméter értékei az érvényesítési görbe x tengelyén vannak ábrázolva.

A tanulási görbe felhasználási területei a következők:

  • A tanulási görbe az észlelésre szolgál alulszerelés, túlfeszített és a pont jó a modell feltételei.
  • A tanulási görbe az azonosításra szolgál salacsony konvergencia, oszcilláló, divergenciával oszcilláló és a megfelelő konvergencia forgatókönyveket, amikor megtaláljuk egy neurális hálózat vagy ML modell optimális tanulási sebességét.
  • A tanulási görbét arra használjuk, hogy megnézzük, mennyit profitál a modellünkből, ha több edzési adatot adunk hozzá. Ha így használjuk, az x tengely a betanítási példányok számát mutatja.

Yellowbrick megvalósítás

A tanulási görbe létrehozása hagyományos módszerrel bonyolult és időigényes. Ehelyett használhatjuk a Yellowbrick's LearningCurve vizualizálót.

A Yellowbirck tanulási görbéjének ábrázolásához egy támogató vektorosztályozót készítünk ugyanezzel mellrák adatkészlet (lásd Idézet a végén).

A következő kód elmagyarázza, hogyan használhatjuk a Yellowbrick LearningCurve vizualizálóját érvényesítési görbe létrehozására a mellrák adatkészlet.

(Kód a szerzőtől)
Tanulási görbe (Kép a szerzőtől)

A modellnek nem lesz előnyös további képzési példányok hozzáadása. A modellt már 569 oktatási példával betanították. Az érvényesítési pontosság nem javul 175 oktatási példány után.

A LearningCurve vizualizáló legfontosabb paraméterei a következők:

  • becslő: Ez lehet bármilyen Scikit-learn ML modell, például döntési fa, véletlenszerű erdő, támogató vektorgép stb.
  • önéletrajz: int, meghatározza a hajtások számát a keresztellenőrzéshez.
  • pontozás: húr, tartalmazza a modell pontozási módszerét. Az osztályozáshoz, pontosság előnyös.

Használat

A könyökábra a klaszterek optimális számának kiválasztására szolgál a K-Means klaszterezésben. A modell arra a pontra illeszkedik a legjobban, ahol a könyök előfordul a vonaldiagramon. A könyök az inflexiós pont a diagramon.

Yellowbrick megvalósítás

A könyökrajz hagyományos módszerrel történő elkészítése összetett és időigényes. Ehelyett használhatjuk a Yellowbrick's KElbowVisualizer-t.

A tanulási görbe Yellowbirckben való ábrázolásához felállítunk egy K-Means klaszterezési modellt a írisz adatkészlet (lásd Idézet a végén).

A következő kód elmagyarázza, hogyan használhatjuk a Yellowbrick's KElbowVisualizer-t egy könyökábra létrehozásához a írisz adatkészlet.

(Kód a szerzőtől)
Könyök telek (Kép a szerzőtől)

A könyök k=4-nél fordul elő (szaggatott vonallal jelölve). A diagram azt mutatja, hogy a modell optimális klaszterszáma 4. Más szóval, a modell jól illeszkedik 4 klaszterrel.

A KElbowVisualizer legfontosabb paraméterei a következők:

  • becslő: K-Means modellpéldány
  • k: int vagy tuple. Ha egész szám, akkor a (2, k) tartományba eső klaszterek pontszámait fogja kiszámítani. Ha egy sor, akkor az adott tartományban lévő klaszterek pontszámait fogja kiszámítani, például (3, 11).

Használat

A sziluettábra a klaszterek optimális számának kiválasztására szolgál a K-Means klaszterezésben, valamint a klaszterek egyensúlyhiányának kimutatására. Ez a diagram nagyon pontos eredményeket ad, mint a könyökábra.

Yellowbrick megvalósítás

A sziluett terv elkészítése hagyományos módszerrel bonyolult és időigényes. Ehelyett használhatjuk a Yellowbrick's SilhouetteVisualizer-t.

A Yellowbirckben sziluettrajz létrehozásához készítünk egy K-Means klaszterezési modellt a írisz adatkészlet (lásd Idézet a végén).

A következő kódblokkok bemutatják, hogyan használhatjuk fel a Yellowbrick's SilhouetteVisualizer-t sziluettrajzok létrehozására a írisz adatkészlet különböző k (klaszterek száma) értékekkel.

k = 2

(Kód a szerzőtől)
Sziluett telek 2 klaszterrel (k=2), (Kép a szerzőtől)

A KMeans() osztályban lévő klaszterek számának megváltoztatásával a fenti kódot különböző időpontokban hajthatjuk végre, hogy sziluett diagramokat hozzunk létre, amikor k=3, k=4 és k=5.

k = 3

Sziluett telek 3 klaszterrel (k=3), (Kép a szerzőtől)

k = 4

Sziluett telek 4 klaszterrel (k=4), (Kép a szerzőtől)

k = 5

Sziluett telek 4 klaszterrel (k=5), (Kép a szerzőtől)

A sziluett diagram fürtönként egy kés formát tartalmaz. Minden kés alakzatot sávok hoznak létre, amelyek a fürt összes adatpontját képviselik. Tehát a kés alakzatának szélessége a fürt összes példányának számát jelenti. A sáv hossza a sziluett együtthatóját jelenti minden egyes példányra vonatkozóan. A szaggatott vonal a sziluett pontszámát jelzi – Forrás: Praktikus K-Means klaszterezés (én írtam).

A nagyjából egyenlő szélességű kés alakzatokat tartalmazó diagram azt mutatja, hogy a klaszterek jól kiegyensúlyozottak, és nagyjából ugyanannyi példányuk van az egyes klasztereken belül – ez az egyik legfontosabb feltételezés a K-Means klaszterezésben.

Amikor a kés alakú rudak kiterjesztik a szaggatott vonalat, a klaszterek jól elkülönülnek – ez egy másik fontos feltételezés a K-Means klaszterezésben.

Ha k=3, akkor a klaszterek jól kiegyensúlyozottak és jól elkülönülnek. Tehát a példánkban a klaszterek optimális száma 3.

A SilhouetteVisualizer legfontosabb paraméterei a következők:

  • becslő: K-Means modellpéldány
  • színek: húr, az egyes késformákhoz használt színek gyűjteménye. 'yellowbrick' vagy valamelyik Matplotlib színtérkép karakterlánc, például 'Accent', 'Set1' stb.

Használat

Az osztálykiegyensúlyozatlansági diagram az osztályozási adatkészletek céloszlopában lévő osztályok kiegyensúlyozatlanságát észleli.

Osztálykiegyensúlyozatlanság akkor fordul elő, ha az egyik osztálynak lényegesen több példánya van, mint a másik osztálynak. Például egy spam e-mail észleléssel kapcsolatos adatkészlet 9900 példányt tartalmaz a „Nem spam” kategóriában, és csak 100 példányt a „Spam” kategóriában. A modell nem fogja megragadni a kisebbségi osztályt (a Levélszemét kategória). Ennek eredményeként a modell nem lesz pontos a kisebbségi osztály előrejelzésében, ha osztályegyensúlyhiány lép fel — Forrás: A 20 legjobb gépi tanulási és mély tanulási hiba, amelyek titokban történnek a színfalak mögött (én írtam).

Yellowbrick megvalósítás

Az osztálykiegyensúlyozatlansági diagram elkészítése a hagyományos módszerrel bonyolult és időigényes. Ehelyett használhatjuk a Yellowbrick ClassBalance vizualizálóját.

Az osztálykiegyensúlyozatlanság ábrázolásához Yellowbirckben használjuk a mellrák adatkészlet (osztályozási adatkészlet, lásd Idézet a végén).

A következő kód elmagyarázza, hogyan használhatjuk a Yellowbrick ClassBalance vizualizálóját osztálykiegyensúlyozatlansági diagram létrehozásához a mellrák adatkészlet.

(Kód a szerzőtől)
Osztályegyensúlyi terv (Kép a szerzőtől)

Több mint 200 példány található a gonosz osztályban és több mint 350 példányban Jóindulatú osztály. Ezért itt nem láthatunk nagy osztályegyensúlytalanságot, bár a példányok nem egyenlően oszlanak meg a két osztály között.

A ClassBalance vizualizáló legfontosabb paraméterei a következők:

  • címkék: listában az egyedi osztályok nevei a céloszlopban.

Használat

A maradékok lineáris regressziós ábrázolása annak meghatározására szolgál, hogy a reziduumok (megfigyelt értékek-előrejelzett értékek) nem korrelálnak-e (függetlenek), a hibák szórásának elemzésével egy regressziós modellben.

A maradékok diagramja úgy jön létre, hogy a maradékokat az előrejelzésekkel szemben ábrázolja. Ha van bármilyen minta az előrejelzések és a maradékok között, az megerősíti, hogy az illesztett regressziós modell nem tökéletes. Ha a pontok véletlenszerűen vannak elszórva az x tengely körül, akkor a regressziós modell jól illeszkedik az adatokhoz.

Yellowbrick megvalósítás

A maradványterület hagyományos módszerrel történő elkészítése bonyolult és időigényes. Ehelyett használhatjuk a Yellowbrick ResidualsPlot vizualizálóját.

Maradékábra ábrázolásához Yellowbirckben használjuk a Hirdetés (Reklám.csvLásd: Idézet végén) adatkészlet.

A következő kód elmagyarázza, hogyan használhatjuk a Yellowbrick ResidualsPlot vizualizálóját maradék diagram létrehozásához a Hirdetés adatkészlet.

(Kód a szerzőtől)
Maradékok telek (Kép a szerzőtől)

Jól látunk valamiféle nemlineáris mintázatot az előrejelzések és a maradékok között a maradék diagramon. Az illesztett regressziós modell nem tökéletes, de elég jó.

A ResidualsPlot megjelenítő legfontosabb paraméterei a következők:

  • becslő: Ez lehet bármilyen Scikit-learn regresszor.
  • hist: bool, alapértelmezett True. Meg kell-e ábrázolni a reziduumok hisztogramját, amelyet egy másik feltevés ellenőrzésére használnak – A maradékok megközelítőleg normális eloszlásúak, az átlag 0 és egy rögzített szórása.

Használat

A lineáris regresszió predikciós hibadiagramja egy grafikus módszer, amelyet a regressziós modell értékelésére használnak.

Az előrejelzési hibagörbe úgy jön létre, hogy az előrejelzéseket összevetjük a tényleges célértékekkel.

Ha a modell nagyon pontos előrejelzéseket ad, akkor a pontoknak a 45 fokos egyenesen kell lenniük. Ellenkező esetben a pontok az adott vonal körül vannak szétszórva.

Yellowbrick megvalósítás

Az előrejelzési hibadiagram létrehozása a hagyományos módszerrel bonyolult és időigényes. Ehelyett használhatjuk a Yellowbrick PredictionError megjelenítőjét.

Előrejelzési hibagörbe Yellowbirckben való ábrázolásához használjuk a Hirdetés (Reklám.csvLásd: Idézet végén) adatkészlet.

A következő kód elmagyarázza, hogyan használhatjuk a Yellowbrick PredictionError vizualizálóját maradék diagram létrehozásához a Hirdetés adatkészlet.

(Kód a szerzőtől)
Prediction Error Plot (Kép a szerzőtől)

A pontok nem pontosan a 45 fokos vonalon vannak, de a modell elég jó.

A PredictionError megjelenítő legfontosabb paraméterei a következők:

  • becslő: Ez lehet bármilyen Scikit-learn regresszor.
  • identitás: bool, alapértelmezett True. Meg kell-e húzni a 45 fokos vonalat.

Használat

A Cook-távolság méri a példányok hatását a lineáris regresszióra. A nagy hatású esetek kiugró értéknek számítanak. A nagyszámú kiugró adathalmaz nem alkalmas előfeldolgozás nélkül lineáris regresszióra. Egyszerűen a Cook-féle távolság diagramot használják az adatkészletben lévő kiugró értékek észlelésére.

Yellowbrick megvalósítás

A Szakács távolsági diagramjának elkészítése a hagyományos módszerrel bonyolult és időigényes. Ehelyett használhatjuk a Yellowbrick CooksDistance vizualizálóját.

Egy Cook-féle távolsági diagram Yellowbirckben történő ábrázolásához használjuk a Hirdetés (Reklám.csvLásd: Idézet végén) adatkészlet.

A következő kód elmagyarázza, hogyan használhatjuk fel a Yellowbrick's CooksDistance vizualizálót Cook-féle távolság diagram létrehozására a Hirdetés adatkészlet.

(Kód a szerzőtől)
Cook's Distance Plot (Kép a szerzőtől)

Vannak olyan megfigyelések, amelyek kiterjesztik a küszöb (vízszintes piros) vonalat. Kiugróak. Tehát minden regressziós modell elkészítése előtt elő kell készítenünk az adatokat.

A CooksDistance vizualizáló legfontosabb paraméterei a következők:

  • draw_threshold: bool, alapértelmezett True. Meg kell-e húzni a küszöbvonalat.

Használat

A jellemző fontossági diagramja a minimálisan szükséges fontos jellemzők kiválasztására szolgál egy ML modell létrehozásához. Mivel nem minden funkció járul hozzá egyformán a modellhez, a kevésbé fontos jellemzőket eltávolíthatjuk a modellből. Ez csökkenti a modell összetettségét. Az egyszerű modelleket könnyű betanítani és értelmezni.

A jellemző fontossági diagramja az egyes jellemzők relatív fontosságát jeleníti meg.

Yellowbrick megvalósítás

A jellegzetesség fontossági cselekményének elkészítése a hagyományos módszerrel bonyolult és időigényes. Ehelyett használhatjuk a Yellowbrick FeatureImportances megjelenítőjét.

Jellemzők fontosságának ábrázolásához Yellowbirckben használjuk a mellrák adatkészlet (lásd Idézet végén), amely 30 jellemzőt tartalmaz.

A következő kód elmagyarázza, hogyan használhatjuk a Yellowbrick FeatureImportances vizualizálóját a jellemzők fontosságának diagramjának létrehozásához a mellrák adatkészlet.

(Kód a szerzőtől)
Funkció fontossági cselekmény (Kép a szerzőtől)

Az adatkészlet nem mind a 30 funkciója járult hozzá nagy mértékben a modellhez. A jellemzőket kis sávokkal eltávolíthatjuk az adatkészletből, és a modellt a kiválasztott jellemzőkkel illeszthetjük újra.

A FeatureImportances megjelenítő legfontosabb paraméterei a következők:

  • becslő: Bármilyen Scikit-learn becslő, amely bármelyiket támogatja feature_importances_ attribútum ill coef_ tulajdonság.
  • relatív: bool, alapértelmezett True. A relatív fontosságot százalékban kell-e ábrázolni. Ha False, a jellemző fontosságának nyers numerikus pontszáma látható.
  • abszolút: bool, alapértelmezett False. Csak az együtthatók nagyságát vegyük figyelembe a negatív előjelek elkerülésével.
  1. A fő komponens cselekménye: PCA(), Használat – A nagydimenziós adatokat 2D-s vagy 3D-s szórásdiagramban jeleníti meg, amely felhasználható a nagydimenziós adatok fontos mintáinak azonosítására.
  2. Érvényesítési görbe: Validation Curve(), Használat – ábrázolja a hatását egyetlen hiperparaméter a vonaton és az érvényesítési készlet.
  3. Tanulási görbe: Tanulási görbe(), Használat — Érzékeli alulszerelés, túlfeszített és a pont jó egy modell feltételei, azonosítja salacsony konvergencia, oszcilláló, divergenciával oszcilláló és a megfelelő konvergencia forgatókönyvek, amikor megtaláljuk egy neurális hálózat optimális tanulási sebességét, Megmutatja, hogy a modellünknek mekkora haszna származik több betanítási adat hozzáadásával.
  4. Könyökrajz: KElbowVisualizer(), Használat – Kiválasztja a fürtök optimális számát a K-Means klaszterezésben.
  5. Sziluett cselekmény: SilhouetteVisualizer(), Használat — Kiválasztja a fürtök optimális számát a K-Means fürtözésben, észleli a fürt egyensúlyhiányát a K-Means klaszterezésben.
  6. Osztálykiegyensúlyozatlansági terv: Osztályegyenleg(), Használat – érzékeli az osztályok kiegyensúlyozatlanságát a céloszlopban az osztályozási adatkészletekben.
  7. Maradék telek: ResidualsPlot(), Használat – Meghatározza, hogy a reziduumok (megfigyelt értékek-előrejelzett értékek) nem korrelálnak-e (függetlenek) a hibák szórásának elemzésével egy regressziós modellben.
  8. Előrejelzési hiba diagram: PredictionError(), Használat – Grafikus módszer, amelyet egy regressziós modell értékelésére használnak.
  9. Szakács távolság cselekménye: CooksDistance(), Használat – Kiugró értékeket észlel az adatkészletben a Cook példányok távolsága alapján.
  10. Funkció fontossági cselekmény: FeatureIportances(), Használat – Kiválasztja a minimálisan szükséges fontos jellemzőket az egyes jellemzők relatív fontossága alapján egy ML modell létrehozásához.

Ez a mai bejegyzés vége.

Kérjük, tudassa velem, ha bármilyen kérdése vagy visszajelzése van.

Olvassa el a következőt (ajánlott)

  • Sárgatégla a funkciók fontosságának megjelenítéséhez egyetlen kódsor használatával
  • Az érvényesítési görbe magyarázata – ábrázolja egyetlen hiperparaméter hatását
  • A tanulási görbe felrajzolása egy neurális hálózat képzési teljesítményének elemzéséhez
  • Praktikus K-Means klaszterezés

Támogass engem íróként

Remélem, örömmel olvasta ezt a cikket. Ha támogatni szeretnél engem íróként, nyugodtan fontold meg tagságra való feliratkozás hogy korlátlan hozzáférést kapjon a Médiumhoz. Csak havi 5 dollárba kerül, és megkapom a tagdíjad egy részét.

Köszönöm szépen a folyamatos támogatást! Találkozunk a következő cikkben. Jó tanulást mindenkinek!

Mellrák adatkészlet információ

  • Idézet: Dua, D. és Graff, C. (2019). UCI Machine Learning Repository [http://archive.ics.uci.edu/ml]. Irvine, CA: University of California, School of Information and Computer Science.
  • Forrás: https://archive.ics.uci.edu/ml/datasets/breast+cancer+wisconsin+(diagnostic)
  • Licenc: Dr. William H. Wolberg (Általános Sebészeti Oszt.
    Wisconsini Egyetem), W. Nick Street (Számítástechnikai Oszt.
    University of Wisconsin) és Olvi L. Mangasarian (Computer Sciences Dept. University of Wisconsin) birtokolja ennek az adatkészletnek a szerzői jogait. Nick Street adományozta ezt az adatkészletet a nyilvánosság számára Creative Commons Nevezd meg! 4.0 Nemzetközi licenc (CC BY 4.0). További információ a különböző adatkészlet-licenctípusokról itt.

Iris adatkészlet információ

  • Idézet: Dua, D. és Graff, C. (2019). UCI Machine Learning Repository [http://archive.ics.uci.edu/ml]. Irvine, CA: University of California, School of Information and Computer Science.
  • Forrás: https://archive.ics.uci.edu/ml/datasets/iris
  • Licenc: RA Fisher ennek az adatkészletnek a szerzői joga. Michael Marshall adományozta ezt az adatkészletet a nyilvánosság számára Creative Commons Public Domain Dedication License (CC0). További információ a különböző adatkészlet-licenctípusokról itt.

Hirdetési adatkészlet információi

Referenciák

10 csodálatos gépi tanulási vizualizáció, amelyet 2023-ban ismernie kell, újraközölve a következő forrásból: https://towardsdatascience.com/10-amazing-machine-learning-visualizations-you-should-know-in-2023-528282940582?source=7c60?source=5620c9-4 XNUMX a https://towardsdatascience.com/feed oldalon

<!–

->

Időbélyeg:

Még több Blockchain tanácsadók