10 Visualisasi Pembelajaran Mesin Menakjubkan yang Harus Anda Ketahui di Tahun 2023

Yellowbrick untuk membuat plot pembelajaran mesin dengan lebih sedikit kode

Foto oleh David Pisnoy on Unsplash

Visualisasi data memainkan peran penting dalam pembelajaran mesin.

Kasus penggunaan visualisasi data dalam pembelajaran mesin meliputi:

  • Penyetelan Hyperparameter
  • Evaluasi kinerja model
  • Memvalidasi asumsi model
  • Menemukan outlier
  • Memilih fitur yang paling penting
  • Mengidentifikasi pola dan korelasi antar fitur

Visualisasi yang terkait langsung dengan hal-hal utama di atas dalam pembelajaran mesin disebut visualisasi pembelajaran mesin.

Membuat visualisasi pembelajaran mesin terkadang merupakan proses yang rumit karena memerlukan banyak kode untuk ditulis bahkan dengan Python. Tapi, berkat open-source Python bata kuning perpustakaan, bahkan visualisasi pembelajaran mesin yang rumit dapat dibuat dengan lebih sedikit kode. Pustaka tersebut memperluas Scikit-learn API dan menyediakan fungsi tingkat tinggi untuk diagnostik visual yang tidak disediakan oleh Scikit-learn.

Hari ini, saya akan membahas jenis visualisasi pembelajaran mesin berikut, kasus penggunaannya, dan penerapan Yellowbrick secara mendetail.

Visualisasi Yellowbrick ML
-----------------------------
01. Plot Komponen Utama
02. Kurva Validasi
03. Kurva Belajar
04. Plot Siku
05. Plot Siluet
06. Plot Ketidakseimbangan Kelas
07. Petak Residu
08. Plot Kesalahan Prediksi
09. Plot Jarak Cook
10. Fitur Pentingnya Plot

Instalasi

Instalasi Yellowbrick dapat dilakukan dengan menjalankan salah satu dari perintah berikut.

  • biji pemasang paket:
pip instal bata kuning
  • konda pemasang paket:
conda install -c distrikdatalabs yellowbrick

Menggunakan Yellowbrick

Visualizer Yellowbrick memiliki sintaks seperti Scikit-learn. Visualizer adalah objek yang belajar dari data untuk menghasilkan visualisasi. Ini sering digunakan dengan estimator Scikit-learn. Untuk melatih visualizer, kita memanggil metode fit() nya.

Menyimpan plot

Untuk menyimpan plot yang dibuat menggunakan visualizer Yellowbrick, kita memanggil metode show() sebagai berikut. Ini akan menyimpan plot sebagai file PNG pada disk.

visualizer.show(outpath="nama_of_the_plot.png")

penggunaan

Plot komponen utama memvisualisasikan data dimensi tinggi dalam plot pencar 2D atau 3D. Oleh karena itu, plot ini sangat berguna untuk mengidentifikasi pola-pola penting dalam data berdimensi tinggi.

Implementasi Yellowbrick

Membuat plot ini dengan metode tradisional itu rumit dan memakan waktu. Kita perlu menerapkan PCA ke dataset terlebih dahulu dan kemudian menggunakan library matplotlib untuk membuat scatter plot.

Sebagai gantinya, kita dapat menggunakan kelas visualizer PCA Yellowbrick untuk mencapai fungsionalitas yang sama. Ini menggunakan metode analisis komponen utama, mengurangi dimensi dataset dan membuat plot pencar dengan 2 atau 3 baris kode! Yang perlu kita lakukan adalah menentukan beberapa argumen kata kunci di kelas PCA().

Mari kita ambil contoh untuk lebih memahami hal ini. Di sini, kami menggunakan kanker payudara kumpulan data (lihat Kutipan pada akhirnya) yang memiliki 30 fitur dan 569 sampel dari dua kelas (Ganas dan Jinak). Karena dimensi yang tinggi (30 fitur) dalam data, tidak mungkin memplot data asli dalam plot pencar 2D atau 3D kecuali kami menerapkan PCA ke kumpulan data.

Kode berikut menjelaskan bagaimana kita dapat memanfaatkan visualisator PCA Yellowbrick untuk membuat plot pencar 2D dari kumpulan data 30 dimensi.

(Kode oleh penulis)
Plot Komponen Utama โ€” 2D (Gambar oleh autr)

Kami juga dapat membuat plot pencar 3D dengan pengaturan projection=3di kelas PCA().

(Kode oleh penulis)
Plot Komponen Utama โ€” 3D (Gambar oleh penulis)

Parameter terpenting dari visualisator PCA meliputi:

  • skala: bool, bawaan True. Ini menunjukkan apakah data harus diskalakan atau tidak. Kita harus menskalakan data sebelum menjalankan PCA. Belajar lebih tentang di sini.
  • proyeksi: int, standarnya adalah 2. Kapan projection=2, plot pencar 2D dibuat. Kapan projection=3, plot pencar 3D dibuat.
  • kelas: daftar, bawaan None. Ini menunjukkan label kelas untuk setiap kelas di y. Nama kelas akan menjadi label untuk legenda.

penggunaan

Kurva validasi memplot pengaruh a tunggal hyperparameter pada set kereta dan validasi. Dengan melihat kurva, kita dapat menentukan kondisi model overfitting, underfitting dan just-right untuk nilai yang ditentukan dari hyperparameter yang diberikan. Ketika ada beberapa hyperparameter untuk disetel sekaligus, kurva validasi tidak dapat digunakan. Instated, Anda dapat menggunakan pencarian grid atau pencarian acak.

Implementasi Yellowbrick

Membuat kurva validasi dengan metode tradisional itu rumit dan memakan waktu. Sebagai gantinya, kita dapat menggunakan visualizer ValidationCurve Yellowbrick.

Untuk memplot kurva validasi di Yellowbirck, kami akan membuat pengklasifikasi hutan acak menggunakan yang sama kanker payudara kumpulan data (lihat Kutipan pada akhirnya). Kami akan merencanakan pengaruh dari max_kedalaman hyperparameter dalam model hutan acak.

Kode berikut menjelaskan bagaimana kita dapat memanfaatkan visualizer ValidationCurve Yellowbrick untuk membuat kurva validasi menggunakan kanker payudara Himpunan data.

(Kode oleh penulis)
Kurva Validasi (Gambar oleh penulis)

Model mulai overfit setelah max_kedalaman nilai 6. Kapan max_depth=6, model sangat cocok dengan data pelatihan dan juga menggeneralisasi dengan baik pada data baru yang tidak terlihat.

Parameter terpenting dari visualizer ValidationCurve meliputi:

  • penaksir: Ini bisa berupa model ML Scikit-learn seperti pohon keputusan, hutan acak, mesin vektor dukungan, dll.
  • nama_param: Ini adalah nama hyperparameter yang ingin kita pantau.
  • rentang_param: Ini termasuk kemungkinan nilai untuk nama_param.
  • CV: int, menentukan jumlah lipatan untuk validasi silang.
  • skor: rangkaian, berisi metode penilaian model. Untuk klasifikasi, ketepatan lebih disukai.

penggunaan

Kurva pembelajaran memplot kesalahan atau akurasi pelatihan dan validasi terhadap jumlah zaman atau jumlah contoh pelatihan. Anda mungkin berpikir bahwa kurva pembelajaran dan validasi tampak sama, tetapi jumlah iterasi diplot dalam sumbu x kurva pembelajaran sementara nilai hyperparameter diplot dalam sumbu x kurva validasi.

Kegunaan kurva belajar antara lain:

  • Kurva pembelajaran digunakan untuk mendeteksi kurang pas, terlalu pas dan tepat kondisi model.
  • Kurva belajar digunakan untuk mengidentifikasi skonvergensi rendah, berosilasi, berosilasi dengan divergensi dan konvergensi yang tepat skenario saat menemukan tingkat pembelajaran optimal dari jaringan saraf atau model ML.
  • Kurva pembelajaran digunakan untuk melihat seberapa besar manfaat model kita dari menambahkan lebih banyak data pelatihan. Saat digunakan dengan cara ini, sumbu x menunjukkan jumlah instance pelatihan.

Implementasi Yellowbrick

Membuat kurva pembelajaran dengan metode tradisional itu rumit dan memakan waktu. Sebagai gantinya, kita dapat menggunakan visualisator LearningCurve Yellowbrick.

Untuk memplot kurva pembelajaran di Yellowbirck, kami akan membuat classifier vektor dukungan menggunakan yang sama kanker payudara kumpulan data (lihat Kutipan pada akhirnya).

Kode berikut menjelaskan bagaimana kita dapat memanfaatkan visualizer LearningCurve Yellowbrick untuk membuat kurva validasi menggunakan kanker payudara Himpunan data.

(Kode oleh penulis)
Kurva Belajar (Gambar oleh penulis)

Model tidak akan mendapat manfaat dari menambahkan lebih banyak instance pelatihan. Model tersebut telah dilatih dengan 569 instance pelatihan. Akurasi validasi tidak meningkat setelah 175 contoh pelatihan.

Parameter terpenting dari visualizer LearningCurve meliputi:

  • penaksir: Ini bisa berupa model ML Scikit-learn seperti pohon keputusan, hutan acak, mesin vektor dukungan, dll.
  • CV: int, menentukan jumlah lipatan untuk validasi silang.
  • skor: rangkaian, berisi metode penilaian model. Untuk klasifikasi, ketepatan lebih disukai.

penggunaan

Plot Elbow digunakan untuk memilih jumlah cluster yang optimal dalam clustering K-Means. Model paling cocok pada titik di mana siku terjadi di bagan garis. Siku adalah titik belok pada grafik.

Implementasi Yellowbrick

Membuat plot Siku dengan metode tradisional itu rumit dan memakan waktu. Sebagai gantinya, kita dapat menggunakan KElbowVisualizer dari Yellowbrick.

Untuk memplot kurva pembelajaran di Yellowbirck, kami akan membangun model pengelompokan K-Means menggunakan bunga iris kumpulan data (lihat Kutipan pada akhirnya).

Kode berikut menjelaskan bagaimana kita dapat memanfaatkan KElbowVisualizer Yellowbrick untuk membuat plot Elbow menggunakan bunga iris Himpunan data.

(Kode oleh penulis)
Plot Siku (Gambar oleh penulis)

Grafik siku terjadi pada k=4 (dijelaskan dengan garis putus-putus). Plot menunjukkan bahwa jumlah cluster optimal untuk model adalah 4. Dengan kata lain, model cocok dengan 4 cluster.

Parameter terpenting dari KElbowVisualizer meliputi:

  • penaksir: Contoh model K-Means
  • k: int atau tupel. Jika bilangan bulat, itu akan menghitung skor untuk cluster di kisaran (2, k). Jika tuple, itu akan menghitung skor untuk cluster dalam rentang yang diberikan, misalnya (3, 11).

penggunaan

Plot siluet digunakan untuk memilih jumlah klaster yang optimal dalam pengelompokan K-Means dan juga untuk mendeteksi ketidakseimbangan klaster. Plot ini memberikan hasil yang sangat akurat dibandingkan dengan plot Elbow.

Implementasi Yellowbrick

Membuat plot siluet dengan metode tradisional itu rumit dan memakan waktu. Sebaliknya, kita dapat menggunakan SilhouetteVisualizer dari Yellowbrick.

Untuk membuat plot siluet di Yellowbirck, kita akan membangun model pengelompokan K-Means menggunakan bunga iris kumpulan data (lihat Kutipan pada akhirnya).

Blok kode berikut menjelaskan bagaimana kita dapat menggunakan SilhouetteVisualizer dari Yellowbrick untuk membuat plot siluet menggunakan bunga iris dataset dengan nilai k (jumlah cluster) yang berbeda.

k = 2

(Kode oleh penulis)
Plot Siluet dengan 2 Cluster (k=2), (Gambar oleh penulis)

Dengan mengubah jumlah cluster di kelas KMeans(), kita dapat mengeksekusi kode di atas pada waktu yang berbeda untuk membuat plot siluet saat k=3, k=4 dan k=5.

k = 3

Plot Siluet dengan 3 Cluster (k=3), (Gambar oleh penulis)

k = 4

Plot Siluet dengan 4 Cluster (k=4), (Gambar oleh penulis)

k = 5

Plot Siluet dengan 4 Cluster (k=5), (Gambar oleh penulis)

Plot siluet berisi satu bentuk pisau per kelompok. Setiap bentuk pisau dibuat oleh batang yang mewakili semua titik data dalam cluster. Jadi, lebar bentuk pisau merepresentasikan jumlah semua instance dalam cluster. Panjang batang mewakili Koefisien Silhouette untuk setiap instans. Garis putus-putus menunjukkan skor siluet โ€” Sumber: Pengelompokan K-Means Langsung (ditulis oleh saya).

Plot dengan lebar bentuk pisau yang kira-kira sama memberi tahu kita bahwa kluster seimbang dan memiliki jumlah instance yang kira-kira sama dalam setiap kluster โ€” salah satu asumsi terpenting dalam kluster K-Means.

Ketika palang dalam bentuk pisau memperpanjang garis putus-putus, cluster dipisahkan dengan baik โ€” asumsi penting lainnya dalam pengelompokan K-Means.

Ketika k = 3, kluster seimbang dan terpisah dengan baik. Jadi, jumlah cluster optimal dalam contoh kita adalah 3.

Parameter paling penting dari SilhouetteVisualizer meliputi:

  • penaksir: Contoh model K-Means
  • warna: string, kumpulan warna yang digunakan untuk setiap bentuk pisau. 'yellowbrick' atau salah satu string peta warna Matplotlib seperti 'Accent', 'Set1', dll.

penggunaan

Plot ketidakseimbangan kelas mendeteksi ketidakseimbangan kelas di kolom target dalam kumpulan data klasifikasi.

Ketidakseimbangan kelas terjadi ketika satu kelas memiliki instance yang jauh lebih banyak daripada kelas lainnya. Misalnya, kumpulan data yang terkait dengan deteksi email spam memiliki 9900 instans untuk kategori โ€œBukan spamโ€ dan hanya 100 instans untuk kategori โ€œSpamโ€. Model akan gagal untuk menangkap kelas minoritas (the Spam kategori). Akibatnya, model tidak akan akurat dalam memprediksi kelas minoritas ketika terjadi ketidakseimbangan kelas โ€” Sumber: 20 Kesalahan Pembelajaran Mesin dan Pembelajaran Mendalam yang Diam-diam Terjadi di Balik Layar (ditulis oleh saya).

Implementasi Yellowbrick

Membuat plot ketidakseimbangan kelas dengan metode tradisional itu rumit dan memakan waktu. Sebagai gantinya, kita dapat menggunakan visualisator ClassBalance Yellowbrick.

Untuk memplot plot ketidakseimbangan kelas di Yellowbirck, kami akan menggunakan kanker payudara dataset (dataset klasifikasi, lihat Kutipan pada akhirnya).

Kode berikut menjelaskan bagaimana kita dapat menggunakan visualisator ClassBalance Yellowbrick untuk membuat plot ketidakseimbangan kelas menggunakan metode kanker payudara Himpunan data.

(Kode oleh penulis)
Plot Ketidakseimbangan Kelas (Gambar oleh penulis)

Ada lebih dari 200 contoh di Ganas kelas dan lebih dari 350 contoh di Jinak kelas. Oleh karena itu, kita tidak dapat melihat banyak ketidakseimbangan kelas di sini meskipun instance tidak terdistribusi secara merata di antara kedua kelas.

Parameter paling penting dari visualisator ClassBalance meliputi:

  • label: list, nama kelas unik di kolom target.

penggunaan

Plot residual dalam regresi linier digunakan untuk menentukan apakah residual (nilai yang diamati-nilai yang diprediksi) tidak berkorelasi (independen) dengan menganalisis varian kesalahan dalam model regresi.

Plot residual dibuat dengan memplot residual terhadap prediksi. Jika ada pola apa pun antara prediksi dan residual, ini menegaskan bahwa model regresi yang dipasang tidak sempurna. Jika titik-titik tersebar secara acak di sekitar sumbu x, model regresi cocok dengan data.

Implementasi Yellowbrick

Membuat plot residu dengan metode tradisional itu rumit dan memakan waktu. Sebagai gantinya, kita dapat menggunakan visualisator ResidualsPlot Yellowbrick.

Untuk memplot plot residual di Yellowbirck, kami akan menggunakan pengiklanan (Periklanan.csv, Lihat Kutipan pada akhirnya) kumpulan data.

Kode berikut menjelaskan bagaimana kita dapat memanfaatkan visualizer ResidualsPlot Yellowbrick untuk membuat plot residu menggunakan pengiklanan Himpunan data.

(Kode oleh penulis)
Petak Residu (Gambar oleh penulis)

Kita dapat dengan jelas melihat semacam pola non-linear antara prediksi dan residual di plot residual. Model regresi yang dipasang tidak sempurna, tetapi cukup baik.

Parameter terpenting dari visualisator ResidualsPlot meliputi:

  • penaksir: Ini bisa berupa regressor Scikit-learn.
  • sejarah: bool, bawaan True. Apakah akan memplot histogram residu, yang digunakan untuk memeriksa asumsi lain โ€” Residual kira-kira terdistribusi secara normal dengan rata-rata 0 dan standar deviasi tetap.

penggunaan

Plot kesalahan prediksi dalam regresi linier adalah metode grafis yang digunakan untuk mengevaluasi model regresi.

Plot kesalahan prediksi dibuat dengan memplot prediksi terhadap nilai target aktual.

Jika model membuat prediksi yang sangat akurat, titik-titik tersebut harus berada pada garis 45 derajat. Jika tidak, titik-titik tersebar di sekitar garis itu.

Implementasi Yellowbrick

Membuat plot kesalahan prediksi dengan metode tradisional itu rumit dan memakan waktu. Sebagai gantinya, kita dapat menggunakan visualisator PredictionError Yellowbrick.

Untuk memplot plot kesalahan prediksi di Yellowbirck, kami akan menggunakan pengiklanan (Periklanan.csv, Lihat Kutipan pada akhirnya) kumpulan data.

Kode berikut menjelaskan bagaimana kita dapat memanfaatkan visualizer PredictionError Yellowbrick untuk membuat plot residu menggunakan pengiklanan Himpunan data.

(Kode oleh penulis)
Plot Kesalahan Prediksi (Gambar oleh penulis)

Poinnya tidak persis di garis 45 derajat, tapi modelnya cukup bagus.

Parameter terpenting dari visualizer PredictionError meliputi:

  • penaksir: Ini bisa berupa regressor Scikit-learn.
  • identitas: bool, bawaan True. Apakah akan menggambar garis 45 derajat.

penggunaan

Jarak Cook mengukur dampak contoh pada regresi linier. Contoh dengan dampak besar dianggap sebagai outlier. Dataset dengan banyak outlier tidak cocok untuk regresi linier tanpa preprocessing. Sederhananya, plot jarak Cook digunakan untuk mendeteksi outlier dalam kumpulan data.

Implementasi Yellowbrick

Membuat plot jarak Cook dengan metode tradisional itu rumit dan memakan waktu. Sebaliknya, kita dapat menggunakan visualisator CooksDistance Yellowbrick.

Untuk memplot plot jarak Cook di Yellowbirck, kami akan menggunakan pengiklanan (Periklanan.csv, Lihat Kutipan pada akhirnya) kumpulan data.

Kode berikut menjelaskan bagaimana kita dapat memanfaatkan visualisator CooksDistance Yellowbrick untuk membuat plot jarak Cook menggunakan pengiklanan Himpunan data.

(Kode oleh penulis)
Plot Jarak Cook (Gambar oleh penulis)

Ada beberapa pengamatan yang memperpanjang garis threshold (horizontal red). Mereka outlier. Jadi, kita harus menyiapkan data sebelum kita membuat model regresi.

Parameter terpenting dari visualisator CooksDistance meliputi:

  • draw_threshold: bool, bawaan True. Apakah akan menarik garis ambang batas.

penggunaan

Plot kepentingan fitur digunakan untuk memilih fitur penting minimum yang diperlukan untuk menghasilkan model ML. Karena tidak semua fitur memberikan kontribusi yang sama pada model, kami dapat menghapus fitur yang kurang penting dari model. Itu akan mengurangi kompleksitas model. Model sederhana mudah dilatih dan ditafsirkan.

Plot kepentingan fitur memvisualisasikan kepentingan relatif dari setiap fitur.

Implementasi Yellowbrick

Membuat plot kepentingan fitur dengan metode tradisional itu rumit dan memakan waktu. Sebagai gantinya, kita dapat menggunakan visualisator FeatureImportances Yellowbrick.

Untuk memplot plot kepentingan fitur di Yellowbirck, kami akan menggunakan kanker payudara kumpulan data (lihat Kutipan di akhir) yang berisi 30 fitur.

Kode berikut menjelaskan bagaimana kita dapat memanfaatkan visualizer FeatureImportances Yellowbrick untuk membuat plot kepentingan fitur menggunakan kanker payudara Himpunan data.

(Kode oleh penulis)
Fitur Pentingnya Plot (Gambar oleh penulis)

Tidak semua 30 fitur dalam kumpulan data banyak berkontribusi pada model. Kami dapat menghapus fitur dengan bilah kecil dari kumpulan data dan mereparasi model dengan fitur yang dipilih.

Parameter terpenting dari visualisator FeatureImportances meliputi:

  • penaksir: Apa saja Scikit-learn estimator yang mendukung keduanya feature_importances_ atribut atau coef_ atribut.
  • relatif: bool, bawaan True. Apakah akan memplot kepentingan relatif sebagai persentase. Jika False, skor numerik mentah dari kepentingan fitur ditampilkan.
  • mutlak: bool, bawaan False. Apakah hanya mempertimbangkan besarnya koefisien dengan menghindari tanda negatif.
  1. Plot Komponen Utama: PCA(), Penggunaan โ€” Memvisualisasikan data dimensi tinggi dalam plot pencar 2D atau 3D yang dapat digunakan untuk mengidentifikasi pola penting dalam data dimensi tinggi.
  2. Kurva Validasi: Kurva Validasi(), Penggunaan โ€” Menggambarkan pengaruh a tunggal hyperparameter pada set kereta dan validasi.
  3. Kurva Pembelajaran: Kurva Pembelajaran(), Penggunaan โ€” Mendeteksi kurang pas, terlalu pas dan tepat kondisi model, Mengidentifikasi skonvergensi rendah, berosilasi, berosilasi dengan divergensi dan konvergensi yang tepat skenario saat menemukan tingkat pembelajaran jaringan saraf yang optimal, Menunjukkan seberapa besar manfaat model kami dari menambahkan lebih banyak data pelatihan.
  4. Plot Siku: KElbowVisualizer(), Penggunaan โ€” Memilih jumlah klaster yang optimal dalam pengelompokan K-Means.
  5. Plot Siluet: SiluetVisualizer(), Penggunaan โ€” Memilih jumlah klaster yang optimal dalam pengelompokan K-Means, Mendeteksi ketidakseimbangan klaster dalam pengelompokan K-Means.
  6. Plot Ketidakseimbangan Kelas: Saldo Kelas(), Penggunaan โ€” Mendeteksi ketidakseimbangan kelas di kolom target dalam kumpulan data klasifikasi.
  7. Plot Residu: ResidualPlot(), Penggunaan โ€” Menentukan apakah residu (nilai prediksi yang diamati) tidak berkorelasi (independen) dengan menganalisis varian kesalahan dalam model regresi.
  8. Plot Kesalahan Prediksi: Kesalahan Prediksi(), Penggunaan โ€” Metode grafis yang digunakan untuk mengevaluasi model regresi.
  9. Plot Jarak Cook: Jarak Masak(), Penggunaan โ€” Mendeteksi outlier dalam kumpulan data berdasarkan jarak instans Cook.
  10. Plot Kepentingan Fitur: FiturKepentingan(), Penggunaan โ€” Memilih fitur penting minimum yang diperlukan berdasarkan tingkat kepentingan relatif setiap fitur untuk menghasilkan model ML.

Ini adalah akhir dari posting hari ini.

Harap beri tahu saya jika Anda memiliki pertanyaan atau umpan balik.

Baca selanjutnya (Disarankan)

  • Yellowbrick untuk Memvisualisasikan Pentingnya Fitur Menggunakan Satu Baris Kode
  • Penjelasan Kurva Validasi - Plot pengaruh satu hyperparameter
  • Merencanakan Kurva Pembelajaran untuk Menganalisis Kinerja Pelatihan Jaringan Syaraf Tiruan
  • Pengelompokan K-Means Langsung

Dukung saya sebagai penulis

Saya harap Anda menikmati membaca artikel ini. Jika Anda ingin mendukung saya sebagai penulis, mohon pertimbangkan mendaftar keanggotaan untuk mendapatkan akses tak terbatas ke Medium. Biayanya hanya $5 per bulan dan saya akan menerima sebagian dari biaya keanggotaan Anda.

Terima kasih banyak atas dukungan berkelanjutan Anda! Sampai jumpa di artikel berikutnya. Selamat belajar semuanya!

Info kumpulan data kanker payudara

  • Kutipan: Dua, D. dan Graff, C. (2019). Repositori Pembelajaran Mesin UCI [http://archive.ics.uci.edu/ml]. Irvine, CA: Universitas California, Sekolah Informasi dan Ilmu Komputer.
  • Sumber: https://archive.ics.uci.edu/ml/datasets/breast+cancer+wisconsin+(diagnostic)
  • Lisensi: Dr.William H.Wolberg (Departemen Bedah Umum.
    universitas wisconsin), Jalan W. Nick (Departemen Ilmu Komputer.
    Universitas Wisconsin) dan Olvi L. Mangasari (Departemen Ilmu Komputer Universitas Wisconsin) memegang hak cipta kumpulan data ini. Nick Street menyumbangkan kumpulan data ini kepada publik di bawah Lisensi Internasional Creative Commons Attribution 4.0 (CC BY 4.0). Anda dapat mempelajari lebih lanjut berbagai jenis lisensi kumpulan data di sini.

Info set data iris

  • Kutipan: Dua, D. dan Graff, C. (2019). Repositori Pembelajaran Mesin UCI [http://archive.ics.uci.edu/ml]. Irvine, CA: Universitas California, Sekolah Informasi dan Ilmu Komputer.
  • Sumber: https://archive.ics.uci.edu/ml/datasets/iris
  • Lisensi: RA Fisher memegang hak cipta dari kumpulan data ini. Michael Marshall menyumbangkan kumpulan data ini kepada publik di bawah Lisensi Dedikasi Domain Publik Creative Commons (CC0). Anda dapat mempelajari lebih lanjut berbagai jenis lisensi kumpulan data di sini.

Info set data iklan

Referensi

10 Visualisasi Pembelajaran Mesin Menakjubkan yang Harus Anda Ketahui di Tahun 2023 Diterbitkan ulang dari Sumber https://towardsdatascience.com/10-amazing-machine-learning-visualizations-you-should-know-in-2023-528282940582?source=rssโ€”-7f60cf5620c9โ€” 4 melalui https://towardsdatascience.com/feed

<!โ€“

->

Stempel Waktu:

Lebih dari Konsultan Blockchain