10 straordinarie visualizzazioni di machine learning che dovresti conoscere nel 2023

Yellowbrick per creare grafici di machine learning con meno codice

Foto di David Pisnoy on Unsplash

La visualizzazione dei dati gioca un ruolo importante nell'apprendimento automatico.

I casi d'uso della visualizzazione dei dati nell'apprendimento automatico includono:

  • Sintonia dell'iperparametro
  • Valutazione delle prestazioni del modello
  • Convalida delle ipotesi del modello
  • Trovare valori anomali
  • Selezione delle caratteristiche più importanti
  • Identificazione di modelli e correlazioni tra le caratteristiche

Vengono chiamate le visualizzazioni che sono direttamente correlate alle cose chiave di cui sopra nell'apprendimento automatico visualizzazioni di apprendimento automatico.

La creazione di visualizzazioni di machine learning a volte è un processo complicato in quanto richiede molto codice da scrivere anche in Python. Ma, grazie all'open source di Python mattone giallo libreria, anche le visualizzazioni complesse di machine learning possono essere create con meno codice. Quella libreria estende l'API Scikit-learn e fornisce funzioni di alto livello per la diagnostica visiva che non sono fornite da Scikit-learn.

Oggi parlerò in dettaglio dei seguenti tipi di visualizzazioni di machine learning, dei relativi casi d'uso e dell'implementazione di Yellowbrick.

Visualizzazioni ML Yellowbrick
-----------------------------
01 Trama delle componenti principali
02 Curva di validazione
03 Curva di apprendimento
04 Trama del gomito
05 Trama della sagoma
06 Grafico degli squilibri di classe
07 Grafico dei residui
08 Grafico degli errori di previsione
09 Il diagramma delle distanze di Cook
10 Trama delle importanza delle caratteristiche

Installazione

L'installazione di Yellowbrick può essere eseguita eseguendo uno dei seguenti comandi.

  • seme programma di installazione del pacchetto:
pip installa il mattone giallo
  • contea programma di installazione del pacchetto:
conda install -c Districtdatalabs Yellowbrick

Usando Yellowbrick

I visualizzatori Yellowbrick hanno una sintassi simile a Scikit-learn. Un visualizzatore è un oggetto che apprende dai dati per produrre una visualizzazione. Viene spesso utilizzato con uno stimatore Scikit-learn. Per addestrare un visualizzatore, chiamiamo il suo metodo fit().

Salvare la trama

Per salvare un grafico creato utilizzando un visualizzatore Yellowbrick, chiamiamo il metodo show() come segue. Ciò salverà la trama come file PNG sul disco.

visualizer.show(outpath="name_of_the_plot.png")

Impiego

Il grafico della componente principale visualizza i dati ad alta dimensione in un grafico a dispersione 2D o 3D. Pertanto, questo grafico è estremamente utile per identificare modelli importanti nei dati ad alta dimensione.

Implementazione di Yellowbrick

La creazione di questa trama con il metodo tradizionale è complessa e richiede tempo. Dobbiamo prima applicare PCA al set di dati e quindi utilizzare la libreria matplotlib per creare il grafico a dispersione.

Invece, possiamo usare la classe del visualizzatore PCA di Yellowbrick per ottenere la stessa funzionalità. Utilizza il metodo di analisi delle componenti principali, riduce la dimensionalità del set di dati e crea il grafico a dispersione con 2 o 3 righe di codice! Tutto quello che dobbiamo fare è specificare alcuni argomenti di parole chiave nella classe PCA().

Facciamo un esempio per capire meglio questo. Qui usiamo il cancro al seno set di dati (vedi Citazione alla fine) che ha 30 caratteristiche e 569 campioni di due classi (Maligno ed benigno). A causa dell'elevata dimensionalità (30 caratteristiche) nei dati, è impossibile tracciare i dati originali in un grafico a dispersione 2D o 3D a meno che non applichiamo PCA al set di dati.

Il codice seguente spiega come utilizzare il visualizzatore PCA di Yellowbrick per creare un grafico a dispersione 2D di un set di dati a 30 dimensioni.

(Codice per autore)
Trama delle componenti principali: 2D (Immagine di autr)

Possiamo anche creare un grafico a dispersione 3D impostando projection=3nella classe PCA().

(Codice per autore)
Trama delle componenti principali: 3D (Immagine dell'autore)

I parametri più importanti del visualizzatore PCA includono:

  • scala: bool, predefinito True. Indica se i dati devono essere ridimensionati o meno. Dovremmo ridimensionare i dati prima di eseguire PCA. Impara di più riguardo qui.
  • proiezione: int, il valore predefinito è 2. Quando projection=2, viene creato un grafico a dispersione 2D. quando projection=3, viene creato un grafico a dispersione 3D.
  • classi: elenco, predefinito None. Questo indica le etichette di classe per ogni classe in y. I nomi delle classi saranno le etichette per la legenda.

Impiego

La curva di validazione traccia l'influenza di a singolo iperparametro sul treno e set di validazione. Osservando la curva, possiamo determinare le condizioni di overfitting, underfitting e just-right del modello per i valori specificati dell'iperparametro dato. Quando sono presenti più iperparametri da ottimizzare contemporaneamente, la curva di convalida non può essere utilizzata. Installato, puoi utilizzare la ricerca a griglia o la ricerca casuale.

Implementazione di Yellowbrick

La creazione di una curva di convalida con il metodo tradizionale è complessa e richiede tempo. Invece, possiamo usare il visualizzatore ValidationCurve di Yellowbrick.

Per tracciare una curva di convalida in Yellowbirck, costruiremo un classificatore di foreste casuali utilizzando lo stesso cancro al seno set di dati (vedi Citazione alla fine). Tracciamo l'influenza del profondità massima iperparametro nel modello foresta casuale.

Il codice seguente spiega come possiamo utilizzare il visualizzatore ValidationCurve di Yellowbrick per creare una curva di convalida utilizzando il cancro al seno set di dati.

(Codice per autore)
Curva di validazione (Immagine dell'autore)

Il modello inizia a sovradimensionarsi dopo il profondità massima valore di 6. Quando max_depth=6, il modello si adatta molto bene ai dati di addestramento e si generalizza bene anche sui nuovi dati invisibili.

I parametri più importanti del visualizzatore ValidationCurve includono:

  • estimatore: Può trattarsi di qualsiasi modello ML di Scikit-learn come un albero decisionale, una foresta casuale, una macchina vettoriale di supporto e così via.
  • nome_parametro: Questo è il nome dell'iperparametro che vogliamo monitorare.
  • intervallo_param: Questo include i possibili valori per nome_parametro.
  • CV: int, definisce il numero di volte per la convalida incrociata.
  • punteggio: stringa, contiene il metodo di scoring del modello. Per la classificazione, precisione è preferito.

Impiego

La curva di apprendimento traccia gli errori o le precisioni di addestramento e convalida rispetto al numero di epoche o al numero di istanze di addestramento. Si potrebbe pensare che entrambe le curve di apprendimento e convalida appaiano uguali, ma il numero di iterazioni viene tracciato nell'asse x della curva di apprendimento mentre i valori dell'iperparametro vengono tracciati nell'asse x della curva di convalida.

Gli usi della curva di apprendimento includono:

  • La curva di apprendimento viene utilizzata per rilevare inadeguato, overfitting ed giusto condizioni del modello.
  • La curva di apprendimento viene utilizzata per identificare sbassa convergenza, oscillante, oscillante con la divergenza ed giusta convergenza scenari quando si trova il tasso di apprendimento ottimale di una rete neurale o di un modello ML.
  • La curva di apprendimento viene utilizzata per vedere quanto il nostro modello trae vantaggio dall'aggiunta di più dati di addestramento. Se utilizzato in questo modo, l'asse x mostra il numero di istanze di addestramento.

Implementazione di Yellowbrick

Creare la curva di apprendimento con il metodo tradizionale è complesso e richiede tempo. Invece, possiamo usare il visualizzatore LearningCurve di Yellowbrick.

Per tracciare una curva di apprendimento in Yellowbirck, creeremo un classificatore di vettori di supporto utilizzando lo stesso cancro al seno set di dati (vedi Citazione alla fine).

Il codice seguente spiega come possiamo utilizzare il visualizzatore LearningCurve di Yellowbrick per creare una curva di convalida utilizzando il cancro al seno set di dati.

(Codice per autore)
Curva di apprendimento (Immagine dell'autore)

Il modello non trarrà vantaggio dall'aggiunta di ulteriori istanze di addestramento. Il modello è già stato addestrato con 569 istanze di addestramento. L'accuratezza della convalida non migliora dopo 175 istanze di addestramento.

I parametri più importanti del visualizzatore LearningCurve includono:

  • estimatore: Può trattarsi di qualsiasi modello ML di Scikit-learn come un albero decisionale, una foresta casuale, una macchina vettoriale di supporto e così via.
  • CV: int, definisce il numero di volte per la convalida incrociata.
  • punteggio: stringa, contiene il metodo di scoring del modello. Per la classificazione, precisione è preferito.

Impiego

Il grafico Elbow viene utilizzato per selezionare il numero ottimale di cluster nel clustering K-Means. Il modello si adatta meglio al punto in cui si verifica il gomito nel grafico a linee. Il gomito è il punto di flesso sul grafico.

Implementazione di Yellowbrick

La creazione della trama del gomito con il metodo tradizionale è complessa e richiede tempo. Invece, possiamo usare KElbowVisualizer di Yellowbrick.

Per tracciare una curva di apprendimento in Yellowbirck, creeremo un modello di clustering K-Means utilizzando il iris set di dati (vedi Citazione alla fine).

Il codice seguente spiega come possiamo utilizzare KElbowVisualizer di Yellowbrick per creare un grafico Elbow usando il iris set di dati.

(Codice per autore)
Trama del gomito (Immagine dell'autore)

Il gomito si verifica in k=4 (annotato con una linea tratteggiata). Il grafico indica che il numero ottimale di cluster per il modello è 4. In altre parole, il modello si adatta bene con 4 cluster.

I parametri più importanti di KElbowVisualizer includono:

  • estimatore: Istanza del modello K-Means
  • k: int o tupla. Se un numero intero, calcolerà i punteggi per i cluster nell'intervallo di (2, k). Se è una tupla, calcolerà i punteggi per i cluster nell'intervallo specificato, ad esempio (3, 11).

Impiego

Il grafico della silhouette viene utilizzato per selezionare il numero ottimale di cluster nel clustering K-Means e anche per rilevare lo squilibrio dei cluster. Questo grafico fornisce risultati molto accurati rispetto al grafico Elbow.

Implementazione di Yellowbrick

La creazione della trama della silhouette con il metodo tradizionale è complessa e richiede tempo. Invece, possiamo usare SilhouetteVisualizer di Yellowbrick.

Per creare un grafico di silhouette in Yellowbirck, costruiremo un modello di clustering K-Means utilizzando il iris set di dati (vedi Citazione alla fine).

I seguenti blocchi di codice spiegano come possiamo utilizzare SilhouetteVisualizer di Yellowbrick per creare grafici di silhouette utilizzando il iris set di dati con diversi valori k (numero di cluster).

k = 2

(Codice per autore)
Grafico delle silhouette con 2 cluster (k=2), (Immagine dell'autore)

Modificando il numero di cluster nella classe KMeans(), possiamo eseguire il codice precedente in momenti diversi per creare grafici di silhouette quando k=3, k=4 e k=5.

k = 3

Grafico delle silhouette con 3 cluster (k=3), (Immagine dell'autore)

k = 4

Grafico delle silhouette con 4 cluster (k=4), (Immagine dell'autore)

k = 5

Grafico delle silhouette con 4 cluster (k=5), (Immagine dell'autore)

La trama della silhouette contiene una forma di coltello per grappolo. Ogni forma di coltello è creata da barre che rappresentano tutti i punti dati nel cluster. Pertanto, la larghezza di una forma a coltello rappresenta il numero di tutte le istanze nel cluster. La lunghezza della barra rappresenta il coefficiente di sagoma per ogni istanza. La linea tratteggiata indica il punteggio della silhouette — Fonte: Clustering K-Mean pratico (scritto da me).

Un grafico con larghezze approssimativamente uguali delle forme dei coltelli ci dice che i cluster sono ben bilanciati e hanno all'incirca lo stesso numero di istanze all'interno di ciascun cluster, uno dei presupposti più importanti nel clustering K-Means.

Quando le barre a forma di coltello estendono la linea tratteggiata, i cluster sono ben separati, un altro presupposto importante nel clustering K-Means.

Quando k=3, i cluster sono ben bilanciati e ben separati. Quindi, il numero ottimale di cluster nel nostro esempio è 3.

I parametri più importanti di SilhouetteVisualizer includono:

  • estimatore: Istanza del modello K-Means
  • colori: stringa, una raccolta di colori utilizzati per ogni forma di coltello. 'yellowbrick' o una delle stringhe della mappa dei colori Matplotlib come 'Accent', 'Set1', ecc.

Impiego

Il grafico dello squilibrio delle classi rileva lo squilibrio delle classi nella colonna di destinazione nei set di dati di classificazione.

Lo squilibrio di classe si verifica quando una classe ha molte più istanze rispetto all'altra classe. Ad esempio, un set di dati relativo al rilevamento della posta indesiderata ha 9900 istanze per la categoria "Non spam" e solo 100 istanze per la categoria "Spam". Il modello non riuscirà a catturare la classe di minoranza (la Spam categoria). Di conseguenza, il modello non sarà accurato nel prevedere la classe di minoranza quando si verifica uno squilibrio di classe — Fonte: I 20 principali errori di machine learning e deep learning che accadono segretamente dietro le quinte (scritto da me).

Implementazione di Yellowbrick

La creazione del grafico dello squilibrio di classe con il metodo tradizionale è complessa e richiede tempo. Invece, possiamo usare il visualizzatore ClassBalance di Yellowbrick.

Per tracciare un grafico dello squilibrio di classe in Yellowbirck, useremo il cancro al seno set di dati (set di dati di classificazione, cfr Citazione alla fine).

Il codice seguente spiega come possiamo utilizzare il visualizzatore ClassBalance di Yellowbrick per creare un grafico di squilibrio di classe utilizzando il cancro al seno set di dati.

(Codice per autore)
Grafico degli squilibri di classe (Immagine dell'autore)

Ci sono più di 200 istanze in Maligno classe e più di 350 istanze in benigno classe. Pertanto, non possiamo vedere molto squilibrio di classe qui, sebbene le istanze non siano equamente distribuite tra le due classi.

I parametri più importanti del visualizzatore ClassBalance includono:

  • etichette: list, i nomi delle classi univoche nella colonna di destinazione.

Impiego

Il grafico dei residui nella regressione lineare viene utilizzato per determinare se i residui (valori osservati-valori previsti) non sono correlati (indipendenti) analizzando la varianza degli errori in un modello di regressione.

Il grafico dei residui viene creato tracciando i residui rispetto alle previsioni. Se c'è qualche tipo di schema tra previsioni e residui, conferma che il modello di regressione adattato non è perfetto. Se i punti sono distribuiti in modo casuale attorno all'asse x, il modello di regressione si adatta bene ai dati.

Implementazione di Yellowbrick

Creare il grafico dei residui con il metodo tradizionale è complesso e richiede tempo. Invece, possiamo usare il visualizzatore ResidualsPlot di Yellowbrick.

Per tracciare un grafico dei residui in Yellowbirck, useremo il Pubblicità (Pubblicità.csv, Vedere Citazione alla fine) set di dati.

Il codice seguente spiega come possiamo utilizzare il visualizzatore ResidualsPlot di Yellowbrick per creare un grafico dei residui utilizzando il Pubblicità set di dati.

(Codice per autore)
Grafico dei residui (Immagine dell'autore)

Possiamo vedere chiaramente una sorta di schema non lineare tra previsioni e residui nel grafico dei residui. Il modello di regressione adattato non è perfetto, ma è abbastanza buono.

I parametri più importanti del visualizzatore ResidualsPlot includono:

  • estimatore: Questo può essere qualsiasi regressore di Scikit-learn.
  • storia: bool, predefinito True. Se tracciare l'istogramma dei residui, utilizzato per verificare un'altra ipotesi: i residui sono approssimativamente distribuiti normalmente con la media 0 e una deviazione standard fissa.

Impiego

Il grafico dell'errore di previsione nella regressione lineare è un metodo grafico utilizzato per valutare un modello di regressione.

Il grafico dell'errore di previsione viene creato tracciando le previsioni rispetto ai valori target effettivi.

Se il modello effettua previsioni molto accurate, i punti dovrebbero trovarsi sulla linea dei 45 gradi. Altrimenti, i punti sono dispersi attorno a quella linea.

Implementazione di Yellowbrick

La creazione del grafico dell'errore di previsione con il metodo tradizionale è complessa e richiede tempo. Invece, possiamo usare il visualizzatore PredictionError di Yellowbrick.

Per tracciare un grafico dell'errore di previsione in Yellowbirck, useremo il Pubblicità (Pubblicità.csv, Vedere Citazione alla fine) set di dati.

Il codice seguente spiega come possiamo utilizzare il visualizzatore PredictionError di Yellowbrick per creare un grafico dei residui utilizzando il Pubblicità set di dati.

(Codice per autore)
Grafico degli errori di previsione (Immagine dell'autore)

I punti non sono esattamente sulla linea dei 45 gradi, ma il modello è abbastanza buono.

I parametri più importanti del visualizzatore PredictionError includono:

  • estimatore: Questo può essere qualsiasi regressore di Scikit-learn.
  • identità: bool, predefinito True. Se disegnare la linea a 45 gradi.

Impiego

La distanza di Cook misura l'impatto delle istanze sulla regressione lineare. Le istanze con grandi impatti sono considerate valori anomali. Un set di dati con un numero elevato di valori anomali non è adatto per la regressione lineare senza preelaborazione. Semplicemente, il grafico della distanza di Cook viene utilizzato per rilevare valori anomali nel set di dati.

Implementazione di Yellowbrick

La creazione del diagramma della distanza di Cook con il metodo tradizionale è complessa e richiede tempo. Invece, possiamo usare il visualizzatore CooksDistance di Yellowbrick.

Per tracciare un grafico della distanza di Cook a Yellowbirck, useremo il Pubblicità (Pubblicità.csv, Vedere Citazione alla fine) set di dati.

Il codice seguente spiega come possiamo utilizzare il visualizzatore CooksDistance di Yellowbrick per creare un grafico della distanza di Cook utilizzando il Pubblicità set di dati.

(Codice per autore)
Il diagramma delle distanze di Cook (Immagine dell'autore)

Ci sono alcune osservazioni che estendono la linea di soglia (rossa orizzontale). Sono valori anomali. Quindi, dovremmo preparare i dati prima di creare qualsiasi modello di regressione.

I parametri più importanti del visualizzatore CooksDistance includono:

  • soglia_disegna: bool, predefinito True. Se disegnare la linea di soglia.

Impiego

Il grafico dell'importanza delle funzionalità viene utilizzato per selezionare le funzionalità importanti minime richieste per produrre un modello ML. Poiché non tutte le funzionalità contribuiscono allo stesso modo al modello, è possibile rimuovere le funzionalità meno importanti dal modello. Ciò ridurrà la complessità del modello. I modelli semplici sono facili da addestrare e interpretare.

Il grafico dell'importanza delle funzionalità visualizza l'importanza relativa di ciascuna funzionalità.

Implementazione di Yellowbrick

La creazione del grafico dell'importanza delle caratteristiche con il metodo tradizionale è complessa e richiede tempo. Invece, possiamo usare il visualizzatore FeatureImportances di Yellowbrick.

Per tracciare una trama di importanza delle caratteristiche in Yellowbirck, useremo il cancro al seno set di dati (vedi Citazione alla fine) che contiene 30 funzioni.

Il codice seguente spiega come possiamo utilizzare il visualizzatore FeatureImportances di Yellowbrick per creare un grafico dell'importanza delle funzionalità utilizzando il cancro al seno set di dati.

(Codice per autore)
Trama delle importanza delle caratteristiche (Immagine dell'autore)

Non tutte le 30 funzionalità nel set di dati hanno contribuito molto al modello. Possiamo rimuovere le feature con barre piccole dal set di dati e riadattare il modello con le feature selezionate.

I parametri più importanti del visualizzatore FeatureImportances includono:

  • estimatore: Qualsiasi Stimatore Scikit-learn che supporta entrambi feature_importances_ attributo o coef_ attributo.
  • parente: bool, predefinito True. Se tracciare l'importanza relativa come percentuale. Se False, viene visualizzato il punteggio numerico grezzo dell'importanza della caratteristica.
  • assoluto: bool, predefinito False. Se considerare solo la grandezza dei coefficienti evitando i segni negativi.
  1. Componente principale Trama: APC(), Utilizzo: visualizza i dati ad alta dimensione in un grafico a dispersione 2D o 3D che può essere utilizzato per identificare modelli importanti nei dati ad alta dimensione.
  2. Curva di convalida: Curva di convalida(), Usage — Rappresenta l'influenza di a singolo iperparametro sul treno e set di validazione.
  3. Curva di apprendimento: Curva di apprendimento(), Utilizzo — Rileva inadeguato, overfitting ed giusto condizioni di un modello, Identifica sbassa convergenza, oscillante, oscillante con la divergenza ed giusta convergenza scenari quando si trova il tasso di apprendimento ottimale di una rete neurale, Mostra quanto il nostro modello trae vantaggio dall'aggiunta di più dati di addestramento.
  4. Trama del gomito: KElbowVisualizer(), Usage — Seleziona il numero ottimale di cluster nel clustering K-Means.
  5. Trama della sagoma: Visualizzatore di silhouette(), Utilizzo: seleziona il numero ottimale di cluster nel clustering K-Means, rileva lo squilibrio del cluster nel clustering K-Means.
  6. Grafico dello squilibrio di classe: BilanciaClasse(), Utilizzo: rileva lo squilibrio delle classi nella colonna di destinazione nei set di dati di classificazione.
  7. Trama dei residui: ResiduiPlot(), Utilizzo — Determina se i residui (valori osservati-valori previsti) sono non correlati (indipendenti) analizzando la varianza degli errori in un modello di regressione.
  8. Grafico dell'errore di previsione: PredizioneErrore(), Utilizzo — Un metodo grafico utilizzato per valutare un modello di regressione.
  9. Trama della distanza di Cook: CooksDistanza(), Utilizzo: rileva i valori anomali nel set di dati in base alle distanze delle istanze di Cook.
  10. Trama dell'importanza delle caratteristiche: CaratteristicaImportanze(), Utilizzo: seleziona le funzionalità importanti minime richieste in base all'importanza relativa di ciascuna funzionalità per produrre un modello ML.

Questa è la fine del post di oggi.

Per favore fatemi sapere se avete domande o feedback.

Leggi successivo (consigliato)

  • Yellowbrick per visualizzare l'importanza delle funzionalità utilizzando una singola riga di codice
  • Spiegazione della curva di convalida: traccia l'influenza di un singolo iperparametro
  • Tracciare la curva di apprendimento per analizzare le prestazioni di allenamento di una rete neurale
  • Clustering K-Mean pratico

Sostienimi come scrittore

Spero che ti sia piaciuto leggere questo articolo. Se desideri supportarmi come scrittore, ti preghiamo di considerare registrarsi per un abbonamento per ottenere accesso illimitato a Medium. Costa solo $ 5 al mese e riceverò una parte della tua quota associativa.

Grazie mille per il vostro continuo supporto! Ci vediamo nel prossimo articolo. Buon apprendimento a tutti!

Informazioni sul set di dati sul cancro al seno

  • Citazione: Dua, D. e Graff, C. (2019). UCI Machine Learning Repository [http://archive.ics.uci.edu/ml]. Irvine, CA: Università della California, School of Information and Computer Science.
  • Fonte: https://archive.ics.uci.edu/ml/datasets/breast+cancer+wisconsin+(diagnostic)
  • Licenza: Il dottor William H. Wolberg (Dipartimento di Chirurgia Generale.
    Università del Wisconsin), Via W. Nick (Dip. Informatica
    Università del Wisconsin) e Olvi L. Mangasarian (Computer Sciences Dept. University of Wisconsin) detiene il copyright di questo set di dati. Nick Street ha donato questo set di dati al pubblico sotto il Licenza internazionale Creative Commons Attribution 4.0 (CC BY 4.0). Puoi saperne di più sui diversi tipi di licenza del set di dati qui.

Informazioni sul set di dati dell'iride

  • Citazione: Dua, D. e Graff, C. (2019). UCI Machine Learning Repository [http://archive.ics.uci.edu/ml]. Irvine, CA: Università della California, School of Information and Computer Science.
  • Fonte: https://archive.ics.uci.edu/ml/datasets/iris
  • Licenza: RA Fisher detiene il copyright di questo set di dati. Michael Marshall ha donato questo set di dati al pubblico sotto il Licenza Creative Commons di Dedica al Dominio Pubblico (CC0). Puoi saperne di più sui diversi tipi di licenza del set di dati qui.

Informazioni sul set di dati pubblicitari

Riferimenti

10 incredibili visualizzazioni di machine learning che dovresti conoscere nel 2023 Ripubblicato dalla fonte https://towardsdatascience.com/10-amazing-machine-learning-visualizations-you-should-know-in-2023-528282940582?source=rss—-7f60cf5620c9— 4 tramite https://towardsdatascience.com/feed

<!–

->

Timestamp:

Di più da Consulenti Blockchain