10 hämmastavat masinõppe visualiseerimist, mida peaksite teadma 2023. aastal

Kollane telliskivi vähema koodiga masinõppegraafikute loomiseks

Foto: David Pisnoy on Unsplash

Andmete visualiseerimine mängib masinõppes olulist rolli.

Andmete visualiseerimise kasutusjuhtumid masinõppes hõlmavad järgmist:

  • Hüperparameetrite häälestamine
  • Mudeli jõudluse hindamine
  • Mudeli eelduste kinnitamine
  • Kõrvalväärtuste leidmine
  • Kõige olulisemate funktsioonide valimine
  • Tunnuste vaheliste mustrite ja korrelatsioonide tuvastamine

Visualisatsioone, mis on otseselt seotud ülaltoodud võtmeasjadega masinõppes, nimetatakse masinõppe visualiseerimised.

Masinõppe visualiseerimiste loomine on mõnikord keeruline protsess, kuna selle kirjutamine nõuab isegi Pythonis palju koodi. Kuid tänu Pythoni avatud lähtekoodile Kollane telliskivi raamatukogu, isegi keerukaid masinõppe visualiseerimisi saab luua vähema koodiga. See raamatukogu laiendab Scikit-learni API-d ja pakub visuaalseks diagnostikaks kõrgetasemelisi funktsioone, mida Scikit-learn ei paku.

Täna käsitlen üksikasjalikult järgmist tüüpi masinõppe visualiseerimisi, nende kasutusjuhtumeid ja Yellowbricki rakendamist.

Yellowbrick ML visualisatsioonid
-----------------------------
01. Põhikomponendi graafik
02. Valideerimiskõver
03. Õppimiskõver
04. Küünarnukk
05. Silueti maatükk
06. Klassi tasakaalustamatuse skeem
07. Jääkide maatükk
08. Ennustuse vea graafik
09. Cooki kauguse süžee
10. Funktsiooni tähtsuse süžee

paigaldamine

Yellowbricki installimise saab teha ühe järgmistest käskudest käivitades.

  • pip paketi installija:
pip install yellowbrick
  • konda paketi installija:
conda install -c districtdatalabs yellowbrick

Yellowbricki kasutamine

Yellowbrick visualiseerijatel on Scikit-learni süntaks. Visualiseerija on objekt, mis õpib andmetest visualiseerimise loomiseks. Seda kasutatakse sageli koos Scikit-learn hindajaga. Visualiseerija treenimiseks kutsume selle fit()-meetodiks.

Krundi päästmine

Yellowbrick visualiseerija abil loodud süžee salvestamiseks kutsume show() meetodit järgmiselt. See salvestab graafiku kettale PNG-failina.

visualizer.show(outpath="maatüki_nimi.png")

Kasutus

Põhikomponendi graafik visualiseerib suuremõõtmelisi andmeid 2D või 3D hajuvusgraafikul. Seetõttu on see graafik ülimalt kasulik suuremõõtmeliste andmete oluliste mustrite tuvastamiseks.

Kollase tellise teostus

Selle süžee loomine traditsioonilisel meetodil on keeruline ja aeganõudev. Peame esmalt andmestikule rakendama PCA ja seejärel kasutama hajuvusdiagrammi loomiseks matplotlib teeki.

Selle asemel saame sama funktsionaalsuse saavutamiseks kasutada Yellowbricki PCA visualiseerimisklassi. See kasutab põhikomponentide analüüsi meetodit, vähendab andmestiku dimensioonilisust ja loob 2 või 3 koodireaga hajuvusdiagrammi! Kõik, mida me peame tegema, on määrata PCA() klassis mõned märksõnaargumendid.

Selle paremaks mõistmiseks võtame näite. Siin kasutame rinnavähk andmestik (vt Viide lõpus), millel on 30 funktsiooni ja 569 kahe klassi näidist (Pahaloomuline ja Healoomuline). Andmete suure mõõtmelisuse (30 tunnust) tõttu on algandmeid võimatu 2D- või 3D-hajumisgraafikul joonistada, välja arvatud juhul, kui rakendame andmestikule PCA-d.

Järgmine kood selgitab, kuidas saame kasutada Yellowbricki PCA visualiseerijat, et luua 2-mõõtmelise andmestiku 30D hajuvusgraafik.

(Autori kood)
Põhikomponendi graafik – 2D (Pilt autor: autr)

Seadistades saame luua ka 3D-hajumisdiagrammi projection=3PCA() klassis.

(Autori kood)
Põhikomponendi graafik – 3D (Pilt autorilt)

PCA visualiseerija kõige olulisemad parameetrid on järgmised:

  • skaala: bool, vaikimisi True. See näitab, kas andmeid tuleks skaleerida või mitte. Enne PCA käivitamist peaksime andmeid skaleerima. Lisateavet siin.
  • projektsioon: int, vaikimisi on 2. Millal projection=2, luuakse 2D hajuvusdiagramm. Millal projection=3, luuakse 3D-hajumisdiagramm.
  • klassid: loend, vaikimisi None. See näitab y-s iga klassi klassi silte. Klasside nimed on legendi siltideks.

Kasutus

Valideerimiskõver kujutab a mõju ühekordne hüperparameeter rongis ja valideerimiskomplekt. Kõverat vaadates saame määrata mudeli üle-, ala- ja õiged tingimused antud hüperparameetri määratud väärtuste puhul. Kui häälestada on korraga mitu hüperparameetrit, ei saa valideerimiskõverat kasutada. Instated, saate kasutada ruudustikuotsingut või juhuslikku otsingut.

Kollase tellise teostus

Valideerimiskõvera loomine traditsioonilise meetodiga on keeruline ja aeganõudev. Selle asemel saame kasutada Yellowbricki ValidationCurve visualiseerijat.

Valideerimiskõvera joonistamiseks Yellowbirckis koostame juhusliku metsaklassifikaatori, kasutades sama rinnavähk andmestik (vt Viide lõpus). Joonistame selle mõju max_sügavus hüperparameeter juhuslikus metsamudelis.

Järgmine kood selgitab, kuidas saame kasutada Yellowbricki ValidationCurve visualiseerijat valideerimiskõvera loomiseks, kasutades rinnavähk andmestik.

(Autori kood)
Valideerimiskõver (Pilt autorilt)

Mudel hakkab pärast max_sügavus väärtus 6. Millal max_depth=6, sobib mudel treeningandmetega väga hästi ja üldistab hästi ka uutele seninägematutele andmetele.

ValidationCurve visualiseerija kõige olulisemad parameetrid on järgmised:

  • hindaja: See võib olla mis tahes Scikit-learn ML-mudel, näiteks otsustuspuu, juhuslik mets, tugivektori masin jne.
  • param_name: See on hüperparameetri nimi, mida tahame jälgida.
  • param_range: See hõlmab võimalikke väärtusi param_nimi.
  • cv: int, määrab ristvalideerimise voltide arvu.
  • skoorimine: string, sisaldab mudeli punktiarvestuse meetodit. Klassifitseerimiseks, täpsus on eelistatud.

Kasutus

Õppimiskõver joonistab treening- ja valideerimisvead või täpsused ajajärkude arvu või koolitusjuhtumite arvu suhtes. Võib arvata, et nii õppimis- kui ka valideerimiskõverad näivad ühesugused, kuid iteratsioonide arv kantakse õppimiskõvera x-teljele, hüperparameetri väärtused aga valideerimiskõvera x-teljele.

Õppimiskõvera kasutusalad hõlmavad järgmist:

  • Tuvastamiseks kasutatakse õppimiskõverat alamvarustuses, üleliigne ja just-õige mudeli tingimused.
  • Tuvastamiseks kasutatakse õppimiskõverat smadal konvergents, võnkuvad, võnkuv lahknemisega ja õige konvergents stsenaariumid närvivõrgu või ML-mudeli optimaalse õppimiskiiruse leidmisel.
  • Õppimiskõverat kasutatakse selleks, et näha, kui palju kasu on meie mudelist treeningandmete lisamisest. Sellisel viisil kasutamisel näitab x-telg treeningute arvu.

Kollase tellise teostus

Õppimiskõvera loomine traditsioonilise meetodiga on keeruline ja aeganõudev. Selle asemel saame kasutada Yellowbricki LearningCurve visualiseerijat.

Yellowbirckis õppimiskõvera joonistamiseks koostame sama abil tugivektori klassifikaatori rinnavähk andmestik (vt Viide lõpus).

Järgmine kood selgitab, kuidas saame kasutada Yellowbricki LearningCurve visualiseerijat valideerimiskõvera loomiseks, kasutades rinnavähk andmestik.

(Autori kood)
Õppimiskõver (Pilt autorilt)

Mudel ei too kasu rohkemate koolitusjuhtumite lisamisest. Mudelit on koolitatud juba 569 koolituseksemplariga. Valideerimise täpsus ei parane pärast 175 koolitust.

LearningCurve visualiseerija kõige olulisemad parameetrid on järgmised:

  • hindaja: See võib olla mis tahes Scikit-learn ML-mudel, näiteks otsustuspuu, juhuslik mets, tugivektori masin jne.
  • cv: int, määrab ristvalideerimise voltide arvu.
  • skoorimine: string, sisaldab mudeli punktiarvestuse meetodit. Klassifitseerimiseks, täpsus on eelistatud.

Kasutus

Küünarnuki graafikut kasutatakse K-Meansi klastrite optimaalse arvu valimiseks. Mudel sobib kõige paremini kohta, kus joondiagrammil esineb küünarnukk. Küünarnukk on diagrammil pöördepunkt.

Kollase tellise teostus

Küünarnuki süžee loomine traditsioonilisel meetodil on keeruline ja aeganõudev. Selle asemel võime kasutada Yellowbricki KElbowVisualizerit.

Õppimiskõvera joonistamiseks Yellowbirckis koostame K-Meansi klastrimudeli, kasutades iiris andmestik (vt Viide lõpus).

Järgmine kood selgitab, kuidas saame kasutada Yellowbricki KElbowVisualizerit, et luua küünarnuki graafik, kasutades iiris andmestik.

(Autori kood)
Küünarnukk (Pilt autorilt)

. küünarnukk esineb k=4 juures (märgitud katkendjoonega). Graafik näitab, et mudeli optimaalne klastrite arv on 4. Teisisõnu sobib mudel hästi 4 klastriga.

KElbowVisualizeri kõige olulisemad parameetrid on järgmised:

  • hindaja: K-Meansi mudeli eksemplar
  • k: int või korteež. Kui see on täisarv, arvutab see klastrite hinded vahemikus (2, k). Kui see on korteež, siis arvutab see antud vahemikus olevate klastrite hinded, näiteks (3, 11).

Kasutus

Silueti graafikut kasutatakse K-Meansi klastrite optimaalse arvu valimiseks ja ka klastrite tasakaalustamatuse tuvastamiseks. See graafik annab väga täpseid tulemusi kui küünarnuki graafik.

Kollase tellise teostus

Traditsioonilisel meetodil silueti süžee loomine on keeruline ja aeganõudev. Selle asemel saame kasutada Yellowbricki SilhouetteVisualizerit.

Yellowbirckis siluetiplaani loomiseks koostame K-Meansi klastrimudeli, kasutades iiris andmestik (vt Viide lõpus).

Järgmised koodiplokid selgitavad, kuidas saame kasutada Yellowbricki SilhouetteVisualizerit, et luua siluettdiagramme, kasutades iiris erinevate k (klastrite arv) väärtustega andmestik.

k = 2

(Autori kood)
2 klastriga siluetijoon (k = 2), (Pilt autorilt)

Muutes KMeans() klassi klastrite arvu, saame ülaltoodud koodi käivitada erinevatel aegadel, et luua siluettgraafikuid, kui k=3, k=4 ja k=5.

k = 3

3 klastriga siluetijoon (k = 3), (Pilt autorilt)

k = 4

4 klastriga siluetijoon (k = 4), (Pilt autorilt)

k = 5

4 klastriga siluetijoon (k = 5), (Pilt autorilt)

Silueti graafik sisaldab ühte noa kuju klastri kohta. Iga noa kuju luuakse ribadega, mis tähistavad kõiki klastri andmepunkte. Niisiis, noa kuju laius tähistab klastri kõigi eksemplaride arvu. Riba pikkus tähistab iga eksemplari silueti koefitsienti. Katkendjoon näitab silueti skoori — Allikas: Praktiline K-Meansi rühmitamine (minu kirjutatud).

Ligikaudu võrdse laiusega noakujuga graafik näitab, et klastrid on hästi tasakaalustatud ja neil on igas klastris ligikaudu sama arv eksemplare – üks K-Meansi klastrite kõige olulisemaid eeldusi.

Kui noakujulised vardad pikendavad katkendjoont, on klastrid hästi eraldatud – veel üks oluline eeldus K-Meansi klastrites.

Kui k = 3, on klastrid hästi tasakaalustatud ja hästi eraldatud. Seega on meie näites optimaalne klastrite arv 3.

SilhouetteVisualizeri kõige olulisemad parameetrid on järgmised:

  • hindaja: K-Meansi mudeli eksemplar
  • värvid: string, värvide kogum, mida kasutatakse iga noakuju jaoks. 'yellowbrick' või mõni Matplotlibi värvikaardi stringidest, nagu 'Accent', 'Set1' jne.

Kasutus

Klasside tasakaalustamatuse diagramm tuvastab klassifikatsiooni andmekogumite sihtveerus olevate klasside tasakaalustamatuse.

Klassi tasakaalustamatus tekib siis, kui ühes klassis on oluliselt rohkem esinemisjuhte kui teises klassis. Näiteks rämpsposti tuvastamisega seotud andmestikul on kategooria „Pole rämpspost” jaoks 9900 eksemplari ja kategoorias „Rämpspost” ainult 100 eksemplari. Mudel ei suuda tabada vähemusklassi ( Spam kategooria). Selle tulemusena ei ole mudel klassi tasakaalustamatuse ilmnemisel vähemusklassi ennustamisel täpne — Allikas: 20 parimat masinõppe ja süvaõppe viga, mis kulisside taga salaja juhtuvad (minu kirjutatud).

Kollase tellise teostus

Klassi tasakaalustamatuse graafiku loomine traditsioonilisel meetodil on keeruline ja aeganõudev. Selle asemel saame kasutada Yellowbricki ClassBalance visualiseerijat.

Klassi tasakaalustamatuse graafiku joonistamiseks Yellowbirckis kasutame rinnavähk andmestik (klassifikatsiooni andmestik, vt Viide lõpus).

Järgmine kood selgitab, kuidas saame kasutada Yellowbricki ClassBalance visualiseerijat klassi tasakaalustamatuse graafiku loomiseks, kasutades rinnavähk andmestik.

(Autori kood)
Klassi tasakaalustamatuse skeem (Pilt autorilt)

Selles on rohkem kui 200 juhtumit Pahaloomuline klassis ja rohkem kui 350 eksemplari Healoomuline klass. Seetõttu ei saa me siin näha suurt klasside tasakaalustamatust, kuigi eksemplarid pole kahe klassi vahel võrdselt jaotunud.

ClassBalance'i visualiseerija kõige olulisemad parameetrid on järgmised:

  • sildid: loendis sihtveerus olevate unikaalsete klasside nimed.

Kasutus

Lineaarse regressiooniga jääkide graafikut kasutatakse selleks, et teha kindlaks, kas jäägid (vaadeldud väärtused-prognoositud väärtused) on korrelatsioonita (sõltumatud), analüüsides regressioonimudelis esinevate vigade dispersiooni.

Jääkide graafik luuakse jääkide ja ennustuste vastastikuse graafiku abil. Kui prognooside ja jääkide vahel on mingisugune muster, kinnitab see, et kohandatud regressioonimudel ei ole täiuslik. Kui punktid on x-telje ümber juhuslikult hajutatud, sobitub regressioonimudel andmetega hästi.

Kollase tellise teostus

Jääkplaani loomine traditsioonilisel meetodil on keeruline ja aeganõudev. Selle asemel saame kasutada Yellowbricki ResidualsPlot visualiseerijat.

Jääkgraafiku joonistamiseks Yellowbirckis kasutame reklaam (Advertising.csvVt Viide lõpus) ​​andmestik.

Järgmine kood selgitab, kuidas saame kasutada Yellowbricki ResidualsPlot visualiseerijat jääkgraafiku loomiseks, kasutades reklaam andmestik.

(Autori kood)
Jääkide maatükk (Pilt autorilt)

Jääkgraafikul näeme selgelt mingit mittelineaarset mustrit ennustuste ja jääkide vahel. Paigaldatud regressioonimudel ei ole täiuslik, kuid see on piisavalt hea.

ResidualsPlot visualiseerija kõige olulisemad parameetrid on järgmised:

  • hindaja: See võib olla mis tahes Scikit-learn regressor.
  • hist: bool, vaikimisi True. Kas joonistada jääkide histogramm, mida kasutatakse mõne muu eelduse kontrollimiseks — jäägid jaotuvad ligikaudu normaalselt keskmise 0 ja fikseeritud standardhälbega.

Kasutus

Lineaarse regressiooni ennustusvea graafik on graafiline meetod, mida kasutatakse regressioonimudeli hindamiseks.

Prognooside veagraafik luuakse prognooside ja tegelike sihtväärtuste graafikul.

Kui mudel teeb väga täpseid ennustusi, peaksid punktid asuma 45-kraadisel joonel. Vastasel juhul on punktid selle joone ümber hajutatud.

Kollase tellise teostus

Ennustusvea graafiku loomine traditsioonilise meetodiga on keeruline ja aeganõudev. Selle asemel saame kasutada Yellowbricki PredictionError visualiseerijat.

Yellowbirckis ennustusvea graafiku joonistamiseks kasutame reklaam (Advertising.csvVt Viide lõpus) ​​andmestik.

Järgmine kood selgitab, kuidas saame kasutada Yellowbricki PredictionError visualiseerijat jääkgraafiku loomiseks, kasutades reklaam andmestik.

(Autori kood)
Ennustuse vea graafik (Pilt autorilt)

Punktid ei asu täpselt 45-kraadisel joonel, kuid mudel on piisavalt hea.

PredictionError visualiseerija kõige olulisemad parameetrid on järgmised:

  • hindaja: See võib olla mis tahes Scikit-learn regressor.
  • identiteet: bool, vaikimisi True. Kas tõmmata 45-kraadine joon.

Kasutus

Cooki kaugus mõõdab eksemplaride mõju lineaarsele regressioonile. Suure mõjuga juhtumeid peetakse kõrvalekalleteks. Suure hulga kõrvalekalletega andmestik ei sobi lineaarseks regressiooniks ilma eeltöötluseta. Lihtsalt kasutatakse Cooki kaugusgraafikut andmekogus kõrvalekallete tuvastamiseks.

Kollase tellise teostus

Koka distantsiplaani loomine traditsioonilisel meetodil on keeruline ja aeganõudev. Selle asemel saame kasutada Yellowbricki CooksDistance visualiseerijat.

Cooki kaugusgraafiku joonistamiseks Yellowbirckis kasutame reklaam (Advertising.csvVt Viide lõpus) ​​andmestik.

Järgmine kood selgitab, kuidas saame kasutada Yellowbricki CooksDistance visualiseerijat Cooki kaugusgraafiku loomiseks, kasutades reklaam andmestik.

(Autori kood)
Cooki kauguse süžee (Pilt autorilt)

On mõned tähelepanekud, mis pikendavad läve (horisontaalne punane) joont. Need on kõrvalekalded. Seega peaksime andmed enne regressioonimudeli loomist ette valmistama.

CooksDistance visualiseerija kõige olulisemad parameetrid on järgmised:

  • draw_threshold: bool, vaikimisi True. Kas tõmmata läve joon.

Kasutus

Funktsioonide tähtsuse graafikut kasutatakse ML-mudeli loomiseks vajalike minimaalsete oluliste funktsioonide valimiseks. Kuna kõik funktsioonid ei panusta mudelisse ühtemoodi, saame mudelist eemaldada vähem olulised funktsioonid. See vähendab mudeli keerukust. Lihtsaid mudeleid on lihtne koolitada ja tõlgendada.

Funktsioonide tähtsuse graafik visualiseerib iga funktsiooni suhtelist tähtsust.

Kollase tellise teostus

Funktsiooni tähtsuse süžee loomine traditsioonilisel meetodil on keeruline ja aeganõudev. Selle asemel saame kasutada Yellowbricki funktsiooni FeatureImportances visualiseerijat.

Funktsiooni tähtsuse graafiku joonistamiseks Yellowbirckis kasutame rinnavähk andmestik (vt Viide lõpus), mis sisaldab 30 funktsiooni.

Järgmine kood selgitab, kuidas saame kasutada Yellowbricki funktsiooni FeatureImportances visualiseerijat, et luua funktsioonide tähtsuse graafik, kasutades rinnavähk andmestik.

(Autori kood)
Funktsiooni tähtsuse süžee (Pilt autorilt)

Kõik andmestiku 30 funktsiooni ei ole mudelisse palju kaasatud. Saame andmestikust eemaldada väikeste ribadega funktsioonid ja kohandada mudelit valitud funktsioonidega.

Visualiseerija FeatureImportances kõige olulisemad parameetrid on järgmised:

  • hindaja: mistahes Scikit-learn hindaja, mis toetab kumbagi feature_importances_ atribuut või coef_ atribuut.
  • sugulane: bool, vaikimisi True. Kas näidata suhtelist tähtsust protsentides. Kui False, kuvatakse funktsiooni tähtsuse töötlemata numbriline skoor.
  • absoluutne: bool, vaikimisi False. Kas võtta arvesse ainult koefitsientide suurust, vältides negatiivseid märke.
  1. Põhikomponendi süžee: PCA(), Kasutus – visualiseerib suuremõõtmelisi andmeid 2D- või 3D-hajumisgraafikul, mida saab kasutada suuremõõtmelistes andmetes oluliste mustrite tuvastamiseks.
  2. Valideerimiskõver: Validation Curve(), Kasutamine — joonistab a mõju ühekordne hüperparameeter rongis ja valideerimiskomplekt.
  3. Õppimiskõver: LearningCurve(), Kasutus – tuvastab alamvarustuses, üleliigne ja just-õige mudeli tingimused, identifitseerib smadal konvergents, võnkuvad, võnkuv lahknemisega ja õige konvergents stsenaariumid närvivõrgu optimaalse õppimiskiiruse leidmisel. Näitab, kui palju kasu on meie mudelist rohkemate treeningandmete lisamisest.
  4. Küünarnuki joonis: KElbowVisualizer(), Kasutus – valib K-Meansi klastrite optimaalse arvu klastreid.
  5. Silueti süžee: SilhouetteVisualizer(), Kasutus – valib K-Meansi klastrites optimaalse klastrite arvu, tuvastab K-Meansi klastrites klastrite tasakaalustamatuse.
  6. Klassi tasakaalustamatuse graafik: Klassi tasakaal (), Kasutus – tuvastab klassifikatsiooni andmekogumite sihtveeru klasside tasakaalustamatuse.
  7. Jääkide graafik: Jääkgraafik(), Kasutus – määrab regressioonimudeli vigade dispersiooni analüüsimise teel, kas jäägid (vaadeldud väärtused-ennustatud väärtused) on korrelatsioonita (sõltumatud).
  8. Ennustuse vea skeem: PredictionError(), Kasutus – graafiline meetod, mida kasutatakse regressioonimudeli hindamiseks.
  9. Cooki kauguse süžee: Cooks Distance (), Kasutus – tuvastab andmestikust kõrvalekalded Cooki eksemplaride vahemaade põhjal.
  10. Funktsiooni tähtsuse süžee: Funktsiooni tähtsus (), Kasutus – valib minimaalselt nõutavad olulised funktsioonid, lähtudes iga funktsiooni suhtelisest tähtsusest, et luua ML-mudel.

See on tänase postituse lõpp.

Palun andke mulle teada, kui teil on küsimusi või tagasisidet.

Loe järgmist (soovitatav)

  • Kollane telliskivi funktsioonide tähtsuse visualiseerimiseks ühe koodirea abil
  • Valideerimiskõvera selgitus – joonistage ühe hüperparameetri mõju
  • Õppimiskõvera joonistamine närvivõrgu treeningtulemuse analüüsimiseks
  • Praktiline K-Meansi rühmitamine

Toeta mind kirjanikuna

Loodan, et teile meeldis selle artikli lugemine. Kui soovite mind kirjanikuna toetada, kaaluge seda liikmeks registreerumine Meediumile piiramatu juurdepääsu saamiseks. See maksab ainult 5 dollarit kuus ja ma saan osa teie liikmemaksust.

Tänan teid väga teie pideva toetuse eest! Kohtumiseni järgmises artiklis. Head õppimist kõigile!

Teave rinnavähi andmestiku kohta

  • Viide: Dua, D. ja Graff, C. (2019). UCI masinõppe hoidla [http://archive.ics.uci.edu/ml]. Irvine, CA: California ülikooli info- ja arvutiteaduste kool.
  • Allikas: https://archive.ics.uci.edu/ml/datasets/breast+cancer+wisconsin+(diagnostic)
  • litsents: Dr William H. Wolberg (üldkirurgia osakond.
    Wisconsini ülikool), W. Nicki tänav (arvutiteaduste osakond
    Wisconsini Ülikool) ja Olvi L. Mangasarian (Computer Sciences Dept. University of Wisconsin) omab selle andmestiku autoriõigusi. Nick Street kinkis selle andmestiku üldsusele Creative Commons Attribution 4.0 rahvusvaheline litsents (CC BY 4.0). Saate lisateavet erinevate andmekogumi litsentsitüüpide kohta siin.

Iirise andmestiku teave

  • Viide: Dua, D. ja Graff, C. (2019). UCI masinõppe hoidla [http://archive.ics.uci.edu/ml]. Irvine, CA: California ülikooli info- ja arvutiteaduste kool.
  • Allikas: https://archive.ics.uci.edu/ml/datasets/iris
  • litsents: RA Fisher omab selle andmestiku autoriõigusi. Michael Marshall kinkis selle andmestiku üldsusele all Creative Commonsi avaliku domeeni pühendumise litsents (CC0). Saate lisateavet erinevate andmekogumi litsentsitüüpide kohta siin.

Reklaamiandmestiku teave

viited

10 hämmastavat masinõppe visualiseerimist, mida peaksite teadma aastal 2023, uuesti avaldatud allikast https://towardsdatascience.com/10-amazing-machine-learning-visualizations-you-should-know-in-2023-528282940582?source=7c60?source=5620c9-4 XNUMX https://towardsdatascience.com/feed kaudu

<!–

->

Ajatempel:

Veel alates Blockchaini konsultandid