10 hämmästyttävää koneoppimisvisualisaatiota, jotka sinun pitäisi tietää vuonna 2023

Keltainen tiili koneoppimiskaavioiden luomiseen vähemmällä koodilla

Kuva David Pisnoy on Unsplash

Datan visualisoinnilla on tärkeä rooli koneoppimisessa.

Datan visualisoinnin käyttötapauksia koneoppimisessa ovat mm.

  • Hyperparametrien viritys
  • Mallin suorituskyvyn arviointi
  • Mallin olettamusten vahvistaminen
  • Poikkeamien löytäminen
  • Tärkeimpien ominaisuuksien valinta
  • Ominaisuuksien välisten kuvioiden ja korrelaatioiden tunnistaminen

Visualisointeja, jotka liittyvät suoraan yllä oleviin koneoppimisen avainasioihin, kutsutaan koneoppimisen visualisointeja.

Koneoppimisen visualisointien luominen on joskus monimutkainen prosessi, koska sen kirjoittaminen vaatii paljon koodia jopa Pythonissa. Mutta kiitos Pythonin avoimen lähdekoodin Keltainen tiili kirjasto, jopa monimutkaisia ​​koneoppimisen visualisointeja voidaan luoda vähemmällä koodilla. Tämä kirjasto laajentaa Scikit-learn-sovellusliittymää ja tarjoaa korkean tason toimintoja visuaaliseen diagnostiikkaan, joita Scikit-learn ei tarjoa.

Tänään käsittelen yksityiskohtaisesti seuraavan tyyppisiä koneoppimisen visualisointeja, niiden käyttötapauksia ja Yellowbrick-toteutusta.

Keltatiilinen ML-visualisoinnit
-----------------------------
01. Pääkomponenttikaavio
02. Validointikäyrä
03. Oppimiskäyrä
04. Kyynärpään tontti
05. Siluetin juoni
06. Luokan epätasapainon juoni
07. Jäännöstontti
08. Ennustusvirhekaavio
09. Cookin etäisyyden juoni
10. Ominaisuuden tärkeyskaavio

Asennus

Yellowbrickin asennus voidaan tehdä suorittamalla jokin seuraavista komennoista.

  • pIP paketin asennusohjelma:
pip asennus keltatiili
  • Conda paketin asennusohjelma:
conda install -c districtdatalabs yellowbrick

Yellowbrickin käyttö

Keltatiilinen visualisoijissa on Scikit-learn-tyyppinen syntaksi. Visualisoija on objekti, joka oppii tiedoista visualisoinnin tuottamiseksi. Sitä käytetään usein Scikit-learn-estimaattorin kanssa. Visualisoijan kouluttamiseksi kutsumme sen fit()-menetelmää.

Juonen pelastaminen

Yellowbrick-visualisoijalla luodun juonen tallentamiseksi kutsumme show()-menetelmää seuraavasti. Tämä tallentaa kaavion PNG-tiedostona levylle.

visualizer.show(outpath="juonen_nimi.png")

Käyttö

Pääkomponenttikaavio visualisoi korkeaulotteisen datan 2D- tai 3D-sirontakuvaajalla. Siksi tämä käyrä on erittäin hyödyllinen tärkeiden kuvioiden tunnistamisessa korkeaulotteisessa datassa.

Keltatiilinen toteutus

Tämän juonen luominen perinteisellä menetelmällä on monimutkaista ja aikaa vievää. Meidän on ensin sovellettava PCA:ta tietojoukkoon ja sitten käytettävä matplotlib-kirjastoa sirontakuvaajan luomiseen.

Sen sijaan voimme käyttää Yellowbrickin PCA-visualisointiluokkaa saavuttaaksemme saman toiminnallisuuden. Se hyödyntää pääkomponenttianalyysimenetelmää, vähentää aineiston dimensiota ja luo sirontakuvaajan 2 tai 3 koodirivillä! Meidän tarvitsee vain määrittää joitakin avainsanaargumentteja PCA()-luokassa.

Otetaan esimerkki tämän ymmärtämiseksi paremmin. Tässä käytämme rintasyöpä tietojoukko (katso Lainaus lopussa), jossa on 30 ominaisuutta ja 569 näytettä kahdesta luokasta (pahanlaatuinen ja Hyvänlaatuinen). Tiedon suuren ulottuvuuden (30 ominaisuutta) vuoksi on mahdotonta piirtää alkuperäistä dataa 2D- tai 3D-hajakuvaajalla, ellemme käytä PCA:ta tietojoukossa.

Seuraava koodi selittää, kuinka voimme käyttää Yellowbrickin PCA-visualisoijaa luodaksemme 2D-sirontakuvaajan 30-ulotteisesta tietojoukosta.

(Koodi tekijän mukaan)
Pääkomponenttikaavio — 2D (Kuva: autr)

Voimme myös luoda 3D-sirontakuvaajan asettamalla projection=3PCA()-luokassa.

(Koodi tekijän mukaan)
Pääkomponenttikaavio — 3D (Kuva tekijältä)

PCA-visualisaattorin tärkeimmät parametrit ovat:

  • asteikko: bool, oletusarvo True. Tämä osoittaa, pitäisikö tiedot skaalata vai ei. Meidän tulee skaalata tietoja ennen PCA:n suorittamista. Lisätietoja: tätä.
  • projektio: int, oletusarvo on 2. Milloin projection=2, luodaan 2D-sirontakuvaaja. Kun projection=3, luodaan 3D-sirontakuvaaja.
  • luokat: lista, oletus None. Tämä osoittaa kunkin luokan luokkatunnisteet y:ssä. Luokkien nimet ovat legendan nimilaput.

Käyttö

Validointikäyrä kuvaa a:n vaikutuksen single hyperparametri junassa ja validointijoukko. Käyrää katsomalla voidaan määrittää mallin ylisovitus, alisovitus ja juuri oikeat ehdot tietyn hyperparametrin määritetyille arvoille. Kun viritettävänä on useita hyperparametreja kerralla, validointikäyrää ei voida käyttää. Voit käyttää ruudukkohakua tai satunnaista hakua.

Keltatiilinen toteutus

Validointikäyrän luominen perinteisellä menetelmällä on monimutkaista ja aikaa vievää. Sen sijaan voimme käyttää Yellowbrickin ValidationCurve visualisaattoria.

Piirtääksemme validointikäyrän Yellowbirckissä, rakennamme satunnaisen metsäluokituksen käyttämällä samaa rintasyöpä tietojoukko (katso Lainaus lopussa). Suunnittelemme vaikutuksen max_depth hyperparametri satunnaisessa metsämallissa.

Seuraava koodi selittää, kuinka voimme käyttää Yellowbrickin ValidationCurve-visualisaattoria validointikäyrän luomiseen käyttämällä rintasyöpä aineisto.

(Koodi tekijän mukaan)
Validointikäyrä (Kuva tekijältä)

Malli alkaa istua liikaa sen jälkeen max_depth arvo 6. Milloin max_depth=6, malli sopii hyvin harjoitustietoihin ja yleistyy hyvin myös uuteen näkemättömään dataan.

ValidationCurve-visualisoijan tärkeimmät parametrit ovat:

  • arvio: Tämä voi olla mikä tahansa Scikit-learn ML -malli, kuten päätöspuu, satunnainen metsä, tukivektorikone jne.
  • param_name: Tämä on sen hyperparametrin nimi, jota haluamme valvoa.
  • param_range: Tämä sisältää mahdolliset arvot parametrin_nimi.
  • CV: int, määrittää ristiintarkistuksen taitteiden lukumäärän.
  • pisteytys: merkkijono, sisältää mallin pisteytysmenetelmän. Luokittelua varten, tarkkuus on edullinen.

Käyttö

Oppimiskäyrä piirtää koulutus- ja validointivirheet tai -tarkkuudet aikakausien tai harjoittelutapausten lukumäärän funktiona. Saatat ajatella, että sekä oppimis- että validointikäyrät näyttävät samalta, mutta iteraatioiden määrä piirretään oppimiskäyrän x-akselille, kun taas hyperparametrin arvot piirretään validointikäyrän x-akselille.

Oppimiskäyrän käyttökohteita ovat mm.

  • Oppimiskäyrää käytetään havaitsemiseen alasovitus, liikaa ja juuri oikea mallin olosuhteet.
  • Oppimiskäyrää käytetään tunnistamiseen salhainen konvergenssi, värähtelevän, värähtelee eron kanssa ja asianmukaista lähentymistä skenaarioita, kun löydetään hermoverkon tai ML-mallin optimaalinen oppimisnopeus.
  • Oppimiskäyrää käytetään sen selvittämiseen, kuinka paljon mallimme hyötyy harjoitustietojen lisäämisestä. Tällä tavalla käytettynä x-akseli näyttää harjoitustapahtumien lukumäärän.

Keltatiilinen toteutus

Oppimiskäyrän luominen perinteisellä menetelmällä on monimutkaista ja aikaa vievää. Sen sijaan voimme käyttää Yellowbrickin LearningCurve visualisaattoria.

Oppimiskäyrän piirtämiseksi Yellowbirckissä rakennamme tukivektoriluokituksen käyttämällä samaa rintasyöpä tietojoukko (katso Lainaus lopussa).

Seuraava koodi selittää, kuinka voimme käyttää Yellowbrickin LearningCurve visualisaattoria validointikäyrän luomiseen käyttämällä rintasyöpä aineisto.

(Koodi tekijän mukaan)
Oppimiskäyrä (Kuva tekijältä)

Malli ei hyödy koulutustapahtumien lisäämisestä. Mallia on koulutettu jo 569 harjoituskerralla. Validointitarkkuus ei parane 175 harjoituskerran jälkeen.

LearningCurve-visualisoijan tärkeimmät parametrit ovat:

  • arvio: Tämä voi olla mikä tahansa Scikit-learn ML -malli, kuten päätöspuu, satunnainen metsä, tukivektorikone jne.
  • CV: int, määrittää ristiintarkistuksen taitteiden lukumäärän.
  • pisteytys: merkkijono, sisältää mallin pisteytysmenetelmän. Luokittelua varten, tarkkuus on edullinen.

Käyttö

Kyynärpääkäyrää käytetään valitsemaan optimaalinen määrä klustereita K-Means-klusteroinnissa. Malli sopii parhaiten kohtaan, jossa kyynärpää esiintyy viivakaaviossa. Kyynärpää on kaavion käännekohta.

Keltatiilinen toteutus

Elbow-juonteen luominen perinteisellä menetelmällä on monimutkaista ja aikaa vievää. Sen sijaan voimme käyttää Yellowbrickin KElbowVisualizeria.

Oppimiskäyrän piirtämiseksi Yellowbirckissä rakennamme K-Means-klusterointimallin käyttämällä iiris tietojoukko (katso Lainaus lopussa).

Seuraava koodi selittää, kuinka voimme käyttää Yellowbrickin KElbowVisualizeria luomaan kyynärpääkuvaajan käyttämällä iiris aineisto.

(Koodi tekijän mukaan)
Kyynärpään tontti (Kuva tekijältä)

- kyynärpää esiintyy kohdassa k = 4 (merkitty katkoviivalla). Kaavio osoittaa, että optimaalinen klusterien lukumäärä mallille on 4. Toisin sanoen malliin sopii hyvin 4 klusteria.

KElbowVisualizerin tärkeimmät parametrit ovat:

  • arvio: K-Means malliesimerkki
  • k: int tai tuple. Jos kokonaisluku, se laskee pisteet klustereille alueella (2, k). Jos monikko, se laskee pisteet klustereille tietyllä alueella, esimerkiksi (3, 11).

Käyttö

Siluettikaaviota käytetään K-Means-klusteroinnin optimaalisen klusterimäärän valitsemiseen ja myös klusterin epätasapainon havaitsemiseen. Tämä kuvaaja antaa erittäin tarkat tulokset kuin kyynärpääkuvaaja.

Keltatiilinen toteutus

Siluettijuonen luominen perinteisellä menetelmällä on monimutkaista ja aikaa vievää. Sen sijaan voimme käyttää Yellowbrickin SilhouetteVisualizeria.

Luodaksemme siluettikuvan Yellowbirckissä rakennamme K-Means-klusterointimallin käyttämällä iiris tietojoukko (katso Lainaus lopussa).

Seuraavat koodilohkot selittävät, kuinka voimme käyttää Yellowbrickin SilhouetteVisualizer-ohjelmaa siluettikaavioiden luomiseen käyttämällä iiris tietojoukko eri k-arvoilla (klusterien lukumäärä).

k = 2

(Koodi tekijän mukaan)
Siluetti, jossa on 2 klusteria (k=2), (Kuva tekijältä)

Muuttamalla klustereiden määrää KMeans()-luokassa, voimme suorittaa yllä olevan koodin eri aikoina luodaksemme siluettikaavioita, kun k=3, k=4 ja k=5.

k = 3

Siluetti, jossa on 3 klusteria (k=3), (Kuva tekijältä)

k = 4

Siluetti, jossa on 4 klusteria (k=4), (Kuva tekijältä)

k = 5

Siluetti, jossa on 4 klusteria (k=5), (Kuva tekijältä)

Siluettikaavio sisältää yhden veitsen muodon per klusteri. Jokainen veitsen muoto luodaan palkkeilla, jotka edustavat kaikkia klusterin datapisteitä. Joten veitsen muodon leveys edustaa klusterin kaikkien esiintymien määrää. Palkin pituus edustaa kunkin esiintymän siluettikerrointa. Katkoviiva osoittaa siluetin pistemäärän — Lähde: Käytännön K-Means-klusterointi (minun kirjoittama).

Suunnilleen yhtä leveitä veitsimuotoja sisältävä kuvaaja kertoo meille, että klusterit ovat hyvin tasapainotettuja ja niissä on suunnilleen sama määrä esiintymiä kussakin klusterissa – yksi tärkeimmistä K-Means-klusteroinnin oletuksista.

Kun veitsen muotoiset tangot jatkavat katkoviivaa, klusterit erottuvat hyvin toisistaan ​​- toinen tärkeä oletus K-Means-klusteroinnissa.

Kun k = 3, klusterit ovat hyvin tasapainotettuja ja hyvin erotettuja. Joten optimaalinen klusterien lukumäärä esimerkissämme on 3.

SilhouetteVisualizerin tärkeimmät parametrit ovat:

  • arvio: K-Means malliesimerkki
  • värit: merkkijono, jokaiseen veitsen muotoon käytetty värikokoelma. 'yellowbrick' tai jokin Matplotlib-värikarttamerkkijonoista, kuten 'Accent', 'Set1' jne.

Käyttö

Luokkaepätasapainokaavio havaitsee luokkien epätasapainon luokitustietojoukoissa kohdesarakkeessa.

Luokkaepätasapaino tapahtuu, kun yhdellä luokalla on huomattavasti enemmän esiintymiä kuin toisessa. Esimerkiksi roskapostin tunnistamiseen liittyvässä tietojoukossa on 9900 100 esiintymää Ei roskapostiluokassa ja vain XNUMX esiintymää roskapostiluokassa. Malli ei pysty vangitsemaan vähemmistöluokkaa ( roskapostin kategoria). Tämän seurauksena malli ei ole tarkka vähemmistöluokan ennustamisessa luokkaepätasapainon ilmaantuessa — Lähde: 20 parasta koneoppimisen ja syvän oppimisen virhettä, jotka tapahtuvat salaa kulissien takana (minun kirjoittama).

Keltatiilinen toteutus

Luokkaepätasapainokaavion luominen perinteisellä menetelmällä on monimutkaista ja aikaa vievää. Sen sijaan voimme käyttää Yellowbrickin ClassBalance-visualisoijaa.

Luokkaepätasapainokaavion piirtämiseksi Yellowbirckissä käytämme rintasyöpä tietojoukko (luokittelutietojoukko, katso Lainaus lopussa).

Seuraava koodi selittää, kuinka voimme käyttää Yellowbrickin ClassBalance-visualisoijaa luomaan luokkaepätasapainokaavion käyttämällä rintasyöpä aineisto.

(Koodi tekijän mukaan)
Luokan epätasapainon juoni (Kuva tekijältä)

Siinä on yli 200 tapausta pahanlaatuinen luokassa ja yli 350 esiintymää Hyvänlaatuinen luokkaa. Siksi emme voi nähdä tässä paljon luokkaepätasapainoa, vaikka esiintymät eivät ole tasaisesti jakautuneet kahden luokan kesken.

ClassBalance-visualisaattorin tärkeimmät parametrit ovat:

  • etiketit: luettelo, kohdesarakkeen yksilöllisten luokkien nimet.

Käyttö

Lineaarisen regression residuaalikaaviota käytetään määrittämään, ovatko jäännökset (havaitut arvot ja ennustetut arvot) korreloimattomia (riippumattomia), analysoimalla virheiden varianssia regressiomallissa.

Jäännöskäyrä luodaan piirtämällä jäännökset ennusteita vastaan. Jos ennusteiden ja jäännösten välillä on jonkinlainen kuvio, se vahvistaa, että sovitettu regressiomalli ei ole täydellinen. Jos pisteet ovat satunnaisesti hajallaan x-akselin ympärille, regressiomalli sopii hyvin dataan.

Keltatiilinen toteutus

Jäännöskaavion luominen perinteisellä menetelmällä on monimutkaista ja aikaa vievää. Sen sijaan voimme käyttää Yellowbrickin ResidualsPlot-visualisoijaa.

Jäännöskuvaajan piirtämiseksi Yellowbirckissä käytämme mainonta (Advertising.csvKatso Lainaus lopussa) tietojoukko.

Seuraava koodi selittää, kuinka voimme käyttää Yellowbrickin ResidualsPlot-visualisoijaa jäännöskaavion luomiseen käyttämällä mainonta aineisto.

(Koodi tekijän mukaan)
Jäännöstontti (Kuva tekijältä)

Näemme selvästi jonkinlaisen epälineaarisen kuvion ennusteiden ja jäännösten välillä jäännöskaaviossa. Sovitettu regressiomalli ei ole täydellinen, mutta riittävän hyvä.

ResidualsPlot-visualisaattorin tärkeimmät parametrit ovat:

  • arvio: Tämä voi olla mikä tahansa Scikit-learn regressori.
  • hist: bool, oletusarvo True. Piirretäänkö jäännösten histogrammi, jota käytetään toisen oletuksen tarkistamiseen — Residuaalit jakautuvat likimäärin normaalijakaumaan keskiarvon 0 ja kiinteän keskihajonnan kanssa.

Käyttö

Lineaarisen regression ennustevirhekaavio on graafinen menetelmä, jota käytetään regressiomallin arvioimiseen.

Ennustevirhekaavio luodaan piirtämällä ennusteet todellisia tavoitearvoja vastaan.

Jos malli tekee erittäin tarkkoja ennusteita, pisteiden tulee olla 45 asteen linjalla. Muuten pisteet ovat hajallaan tämän viivan ympärillä.

Keltatiilinen toteutus

Ennustevirhekaavion luominen perinteisellä menetelmällä on monimutkaista ja aikaa vievää. Sen sijaan voimme käyttää Yellowbrickin PredictionError visualisaattoria.

Ennusteen virhekaavion piirtämiseksi Yellowbirckissä käytämme mainonta (Advertising.csvKatso Lainaus lopussa) tietojoukko.

Seuraava koodi selittää, kuinka voimme käyttää Yellowbrickin PredictionError-visualisoijaa jäännöskaavion luomiseen käyttämällä mainonta aineisto.

(Koodi tekijän mukaan)
Ennustusvirhekaavio (Kuva tekijältä)

Pisteet eivät ole aivan 45 asteen linjalla, mutta malli on riittävän hyvä.

PredictionError-visualisaattorin tärkeimmät parametrit ovat:

  • arvio: Tämä voi olla mikä tahansa Scikit-learn regressori.
  • henkilöllisyys: bool, oletusarvo True. Piirretäänkö 45 asteen viiva.

Käyttö

Cookin etäisyys mittaa esiintymien vaikutusta lineaariseen regressioon. Tapaukset, joilla on suuri vaikutus, katsotaan poikkeaviksi. Tietojoukko, jossa on paljon poikkeamia, ei sovellu lineaariseen regressioon ilman esikäsittelyä. Yksinkertaisesti Cookin etäisyysdiagrammaa käytetään havaitsemaan poikkeamat tietojoukossa.

Keltatiilinen toteutus

Cookin etäisyyskaavion luominen perinteisellä menetelmällä on monimutkaista ja aikaa vievää. Sen sijaan voimme käyttää Yellowbrickin CooksDistance visualisaattoria.

Käytämme Cookin etäisyyskaavion piirtämiseksi Yellowbirckissä mainonta (Advertising.csvKatso Lainaus lopussa) tietojoukko.

Seuraava koodi selittää, kuinka voimme käyttää Yellowbrickin CooksDistance-visualisaattoria Cookin etäisyyskaavion luomiseen käyttämällä mainonta aineisto.

(Koodi tekijän mukaan)
Cookin etäisyyden juoni (Kuva tekijältä)

Jotkut havainnot laajentavat kynnysviivaa (vaakasuuntainen punainen). Ne ovat poikkeavia. Joten meidän pitäisi valmistella tiedot ennen kuin teemme mitään regressiomallia.

CooksDistance-visualisaattorin tärkeimmät parametrit ovat:

  • draw_threshold: bool, oletusarvo True. Piirretäänkö kynnysviiva.

Käyttö

Ominaisuuksien tärkeyskaaviota käytetään ML-mallin tuottamiseen tarvittavien tärkeiden ominaisuuksien vähimmäisvaatimuksen valitsemiseen. Koska kaikki ominaisuudet eivät vaikuta malliin samalla tavalla, voimme poistaa mallista vähemmän tärkeitä ominaisuuksia. Tämä vähentää mallin monimutkaisuutta. Yksinkertaisia ​​malleja on helppo kouluttaa ja tulkita.

Ominaisuuksien tärkeyskaavio visualisoi kunkin ominaisuuden suhteellisen tärkeyden.

Keltatiilinen toteutus

Ominaisuuksien tärkeysjuonen luominen perinteisellä menetelmällä on monimutkaista ja aikaa vievää. Sen sijaan voimme käyttää Yellowbrickin FeatureImportances -visualisaattoria.

Piirrän piirteiden tärkeyskaavion piirtämiseksi Yellowbirckissä käytämme rintasyöpä tietojoukko (katso Lainaus lopussa), joka sisältää 30 ominaisuutta.

Seuraava koodi selittää, kuinka voimme käyttää Yellowbrickin FeatureImportances -visualisaattoria luomaan piirteiden tärkeyskaavion käyttämällä rintasyöpä aineisto.

(Koodi tekijän mukaan)
Ominaisuuden tärkeyskaavio (Kuva tekijältä)

Kaikki tietojoukon 30 ominaisuutta eivät ole paljon mukana mallissa. Voimme poistaa tietojoukosta pieniä palkkeja sisältävät ominaisuudet ja täydentää mallin valituilla ominaisuuksilla.

FeatureImportances -visualisaattorin tärkeimmät parametrit ovat:

  • arvio: mitään Scikit-learn estimaattori, joka tukee jompaakumpaa feature_importances_ attribuutti tai coef_ määrite.
  • suhteellinen: bool, oletusarvo True. Kuvataanko suhteellinen tärkeys prosentteina. Jos False, näytetään ominaisuuden tärkeyden raaka numeerinen pistemäärä.
  • ehdoton: bool, oletusarvo False. Otetaanko vain kertoimien suuruus huomioon välttämällä negatiivisia merkkejä.
  1. Pääkomponentin juoni: PCA(), Käyttö — Visualisoi korkeaulotteisen datan 2D- tai 3D-sirontakaaviona, jota voidaan käyttää tärkeiden kuvioiden tunnistamiseen suuriulotteisessa datassa.
  2. Validointikäyrä: Validation Curve(), Käyttö — piirtää vaikutuksen a single hyperparametri junassa ja validointijoukko.
  3. Oppimiskäyrä: Oppimiskäyrä(), Käyttö — Havaitsee alasovitus, liikaa ja juuri oikea mallin ehdot, tunnistaa salhainen konvergenssi, värähtelevän, värähtelee eron kanssa ja asianmukaista lähentymistä skenaariot, kun löydetään hermoverkon optimaalinen oppimisnopeus, Näyttää kuinka paljon mallimme hyötyy harjoitustietojen lisäämisestä.
  4. Kyynärpääpiirros: KElbowVisualizer(), Käyttö — Valitsee optimaalisen klustereiden määrän K-Means-klusteroinnissa.
  5. Siluetin juoni: SilhouetteVisualizer(), Käyttö — Valitsee optimaalisen klusterimäärän K-Means-klusteroinnissa. Havaitsee klusterin epätasapainon K-Means-klusteroinnissa.
  6. Luokan epätasapainokaavio: Luokkasaldo(), Käyttö — Havaitsee luokkien epätasapainon luokitustietojoukon kohdesarakkeessa.
  7. Jäännöskaavio: Jäännöskaavio(), Käyttö — Määrittää, ovatko jäännökset (havaitut arvot-ennustetut arvot) korreloimattomia (riippumattomia), analysoimalla virheiden varianssia regressiomallissa.
  8. Ennustusvirhekaavio: PredictionError(), Käyttö — Graafinen menetelmä, jota käytetään regressiomallin arvioimiseen.
  9. Cookin etäisyyden juoni: CooksDistance(), Käyttö — Havaitsee poikkeamat tietojoukosta Cookin esiintymien etäisyyksien perusteella.
  10. Ominaisuuden tärkeyskaavio: Ominaisuuksien tärkeys(), Käyttö — Valitsee vaaditut vähimmäisominaisuudet kunkin ominaisuuden suhteellisen tärkeyden perusteella ML-mallin tuottamiseksi.

Tämä on tämän päivän postauksen loppu.

Kerro minulle, jos sinulla on kysyttävää tai palautetta.

Lue seuraava (suositus)

  • Keltainen tiili ominaisuuksien tärkeyden visualisointiin yhdellä koodirivillä
  • Validointikäyrä selitetty — Piirrä yhden hyperparametrin vaikutus
  • Oppimiskäyrän piirtäminen hermoverkon harjoitussuorituskyvyn analysoimiseksi
  • Käytännön K-Means-klusterointi

Tue minua kirjoittajana

Toivottavasti nautit tämän artikkelin lukemisesta. Jos haluat tukea minua kirjailijana, harkitse ystävällisesti liittymällä jäseneksi saadaksesi rajoittamattoman pääsyn Mediumiin. Se maksaa vain 5 dollaria kuukaudessa ja saan osan jäsenmaksustasi.

Lämmin kiitos jatkuvasta tuestanne! Nähdään seuraavassa artikkelissa. Hyvää oppimista kaikille!

Rintasyövän tietojoukon tiedot

  • Citation: Dua, D. ja Graff, C. (2019). UCI-koneoppimisen arkisto [http://archive.ics.uci.edu/ml]. Irvine, Kalifornia: Kalifornian yliopisto, Informaatiotieteiden korkeakoulu.
  • Lähde: https://archive.ics.uci.edu/ml/datasets/breast+cancer+wisconsin+(diagnostic)
  • lisenssi: Tri William H. Wolberg (Yleinen kirurgian osasto
    Wisconsinin yliopisto), W. Nick Street ( Tietojenkäsittelytieteen laitos
    Wisconsinin yliopisto) ja Olvi L. Mangasarian (Computer Sciences Dept. University of Wisconsin) omistaa tämän tietojoukon tekijänoikeudet. Nick Street lahjoitti tämän tietojoukon yleisölle Creative Commons Attribution 4.0 - kansainvälinen lisenssi (CC BY 4.0). Saat lisätietoja eri tietojoukon lisenssityypeistä tätä.

Iris-tietojoukon tiedot

  • Citation: Dua, D. ja Graff, C. (2019). UCI-koneoppimisen arkisto [http://archive.ics.uci.edu/ml]. Irvine, Kalifornia: Kalifornian yliopisto, Informaatiotieteiden korkeakoulu.
  • Lähde: https://archive.ics.uci.edu/ml/datasets/iris
  • lisenssi: RA Fisher omistaa tämän tietojoukon tekijänoikeudet. Michael Marshall lahjoitti tämän tietojoukon yleisölle Creative Commons Public Domain Dedication License (CC0). Saat lisätietoja eri tietojoukon lisenssityypeistä tätä.

Mainosaineiston tiedot

Viitteet

10 hämmästyttävää koneoppimisvisualisaatiota, jotka sinun pitäisi tietää vuonna 2023, julkaistu uudelleen lähteestä https://towardsdatascience.com/10-amazing-machine-learning-visualizations-you-should-know-in-2023-528282940582?source=7rss—cf-60 5620 osoitteessa https://towardsdatascience.com/feed

<!-

->

Aikaleima:

Lisää aiheesta Blockchain-konsultit