10년에 알아야 할 2023가지 놀라운 기계 학습 시각화

더 적은 코드로 기계 학습 플롯을 생성하기 위한 Yellowbrick

님이 촬영 한 사진 데이비드 피스노이 on Unsplash

데이터 시각화는 기계 학습에서 중요한 역할을 합니다.

기계 학습의 데이터 시각화 사용 사례는 다음과 같습니다.

  • 하이퍼 파라미터 튜닝
  • 모델 성능 평가
  • 모델 가정 검증
  • 이상값 찾기
  • 가장 중요한 기능 선택
  • 기능 간의 패턴 및 상관 관계 식별

기계 학습에서 위의 핵심 항목과 직접적으로 관련된 시각화를 호출합니다. 기계 학습 시각화.

기계 학습 시각화를 생성하는 것은 Python에서도 작성하는 데 많은 코드가 필요하기 때문에 때때로 복잡한 프로세스입니다. 그러나 Python의 오픈 소스 덕분에 노란 벽돌 라이브러리를 사용하면 더 적은 코드로 복잡한 기계 학습 시각화도 만들 수 있습니다. 이 라이브러리는 Scikit-learn API를 확장하고 Scikit-learn에서 제공하지 않는 시각적 진단을 위한 고급 기능을 제공합니다.

오늘은 다음 유형의 기계 학습 시각화, 사용 사례 및 Yellowbrick 구현에 대해 자세히 설명하겠습니다.

Yellowbrick ML 시각화
-----------------------------
01. 주성분 도표
02. 검증 곡선
03. 학습 곡선
04. 엘보우 플롯
05. 실루엣 플롯
06. 클래스 불균형 플롯
07. 잔차 그림
08. 예측 오류 도표
09. Cook의 거리 도표
10. 기능 중요도 플롯

설치

다음 명령 중 하나를 실행하여 Yellowbrick을 설치할 수 있습니다.

  • 삐악 삐악 울다 패키지 설치 프로그램:
핍 설치 노란색 벽돌
  • 콘도 패키지 설치 프로그램:
conda install -c Districtdatalabs Yellowbrick

옐로브릭 사용

Yellowbrick 시각화 도우미에는 Scikit 학습과 유사한 구문이 있습니다. Visualizer는 시각화를 생성하기 위해 데이터에서 학습하는 개체입니다. Scikit-learn 추정기와 함께 자주 사용됩니다. 시각화 도우미를 훈련하기 위해 fit() 메서드를 호출합니다.

플롯 저장

Yellowbrick 시각화 도우미를 사용하여 만든 플롯을 저장하려면 다음과 같이 show() 메서드를 호출합니다. 이렇게 하면 플롯이 디스크에 PNG 파일로 저장됩니다.

시각화 도우미.쇼(outpath="name_of_the_plot.png")

용법

주성분 플롯은 2D 또는 3D 산점도에서 고차원 데이터를 시각화합니다. 따라서 이 플롯은 고차원 데이터에서 중요한 패턴을 식별하는 데 매우 유용합니다.

옐로브릭 구현

전통적인 방법으로 이 플롯을 생성하는 것은 복잡하고 시간이 많이 걸립니다. 먼저 데이터 세트에 PCA를 적용한 다음 matplotlib 라이브러리를 사용하여 산점도를 만들어야 합니다.

대신 Yellowbrick의 PCA 시각화 클래스를 사용하여 동일한 기능을 얻을 수 있습니다. 주성분 분석 방법을 활용하여 데이터 세트의 차원을 줄이고 2~3줄의 코드로 산점도를 생성합니다! PCA() 클래스에 몇 가지 키워드 인수를 지정하기만 하면 됩니다.

이를 더 잘 이해하기 위해 예를 들어 보겠습니다. 여기에서 우리는 유방암 데이터세트(참조 소환 30개의 기능과 두 클래스의 569개 샘플(악의 있는 온화한). 데이터의 고차원성(30개 기능)으로 인해 데이터 세트에 PCA를 적용하지 않는 한 원본 데이터를 2D 또는 3D 산점도에 표시하는 것은 불가능합니다.

다음 코드는 Yellowbrick의 PCA 시각화 도우미를 활용하여 2차원 데이터 세트의 30D 산점도를 만드는 방법을 설명합니다.

(작성자별 코드)
주성분 도표 - 2D (이미지 출처: autr)

설정을 통해 3D 산점도를 만들 수도 있습니다. projection=3PCA() 클래스에서.

(작성자별 코드)
주성분 도표 - 3D (저자별 이미지)

PCA 시각화 도우미의 가장 중요한 매개변수는 다음과 같습니다.

  • 규모: 부울, 기본값 True. 이는 데이터의 크기를 조정해야 하는지 여부를 나타냅니다. PCA를 실행하기 전에 데이터를 확장해야 합니다. 자세히 알아보기 여기에서 지금 확인해 보세요..
  • 투사: int, 기본값은 2입니다. 언제 projection=2, 2D 산점도가 생성됩니다. 언제 projection=3, 3D 산점도가 생성됩니다.
  • 클래스: 목록, 기본값 None. 이는 y의 각 클래스에 대한 클래스 레이블을 나타냅니다. 클래스 이름은 범례의 레이블이 됩니다.

용법

유효성 곡선은 다음의 영향을 나타냅니다. 단일 기차 및 검증 세트의 하이퍼파라미터. 곡선을 보면 주어진 하이퍼파라미터의 지정된 값에 대해 모델의 과적합, 과소적합 및 딱 맞는 조건을 결정할 수 있습니다. 한 번에 튜닝할 하이퍼파라미터가 여러 개인 경우 검증 곡선을 사용할 수 없습니다. 즉, 그리드 검색 또는 임의 검색을 사용할 수 있습니다.

옐로브릭 구현

기존 방법으로 검증 곡선을 만드는 것은 복잡하고 시간이 많이 걸립니다. 대신 Yellowbrick의 ValidationCurve 시각화 도우미를 사용할 수 있습니다.

Yellowbirck에서 검증 곡선을 그리기 위해 동일한 것을 사용하여 랜덤 포레스트 분류기를 구축합니다. 유방암 데이터세트(참조 소환 마지막에). 의 영향을 계획할 것입니다. 최대 _ 깊이 랜덤 포레스트 모델의 하이퍼파라미터.

다음 코드는 Yellowbrick의 ValidationCurve 시각화 도우미를 활용하여 유방암 데이터 세트.

(작성자별 코드)
검증 곡선 (저자별 이미지)

모델이 과적합되기 시작합니다. 최대 _ 깊이 6의 값. 언제 max_depth=6, 모델은 교육 데이터에 매우 잘 맞고 보이지 않는 새로운 데이터에 대해서도 잘 일반화됩니다.

ValidationCurve 시각화 도우미의 가장 중요한 매개변수는 다음과 같습니다.

  • 평가자: 결정 트리, 랜덤 포레스트, 지원 벡터 머신 등과 같은 모든 Scikit-learn ML 모델이 될 수 있습니다.
  • 매개변수 이름: 모니터링하려는 하이퍼파라미터의 이름입니다.
  • param_range: 여기에는 가능한 값이 포함됩니다. param_name.
  • 이력서: int는 교차 검증을 위한 접기 수를 정의합니다.
  • 득점: 끈, 모델의 스코어링 방법을 포함합니다. 분류를 위해, 바람직하다.

용법

학습 곡선은 에포크 수 또는 훈련 인스턴스 수에 대한 훈련 및 검증 오류 또는 정확도를 표시합니다. 학습 곡선과 검증 곡선이 모두 동일하게 보일 수 있지만 학습 곡선의 x축에는 반복 횟수가 표시되고 검증 곡선의 x축에는 하이퍼 매개변수의 값이 표시됩니다.

학습 곡선의 용도는 다음과 같습니다.

  • 학습 곡선은 감지하는 데 사용됩니다. 과소적합, 과적 합바로 모델의 조건.
  • 학습 곡선은 다음을 식별하는 데 사용됩니다. s낮은 수렴, 진동하는, 발산으로 진동적절한 수렴 신경망 또는 ML 모델의 최적 학습 속도를 찾을 때의 시나리오.
  • 학습 곡선은 더 많은 교육 데이터를 추가하여 모델이 얼마나 많은 이점을 얻는지 확인하는 데 사용됩니다. 이런 방식으로 사용하면 x축은 훈련 인스턴스의 수를 나타냅니다.

옐로브릭 구현

전통적인 방법으로 학습 곡선을 만드는 것은 복잡하고 시간이 많이 걸립니다. 대신 Yellowbrick의 LearningCurve 시각화 도우미를 사용할 수 있습니다.

Yellowbirck에서 학습 곡선을 그리기 위해 동일한 것을 사용하여 지원 벡터 분류기를 구축합니다. 유방암 데이터세트(참조 소환 끝에).

다음 코드는 Yellowbrick의 LearningCurve 시각화 도우미를 활용하여 검증 곡선을 만드는 방법을 설명합니다. 유방암 데이터 세트.

(작성자별 코드)
학습 곡선 (저자별 이미지)

모델은 훈련 인스턴스를 더 추가해도 도움이 되지 않습니다. 이 모델은 이미 569개의 훈련 인스턴스로 훈련되었습니다. 유효성 검사 정확도는 175개의 교육 인스턴스 후에도 개선되지 않습니다.

LearningCurve 시각화 도우미의 가장 중요한 매개변수는 다음과 같습니다.

  • 평가자: 결정 트리, 랜덤 포레스트, 지원 벡터 머신 등과 같은 모든 Scikit-learn ML 모델이 될 수 있습니다.
  • 이력서: int는 교차 검증을 위한 접기 수를 정의합니다.
  • 득점: 끈, 모델의 스코어링 방법을 포함합니다. 분류를 위해, 바람직하다.

용법

Elbow 플롯은 K-Means 클러스터링에서 최적의 클러스터 수를 선택하는 데 사용됩니다. 모델은 꺾은선형 차트에서 팔꿈치가 발생하는 지점에 가장 적합합니다. 팔꿈치는 차트의 변곡점입니다.

옐로브릭 구현

전통적인 방법으로 Elbow 플롯을 생성하는 것은 복잡하고 시간이 많이 걸립니다. 대신 Yellowbrick의 KElbowVisualizer를 사용할 수 있습니다.

Yellowbirck에서 학습 곡선을 그리기 위해 다음을 사용하여 K-Means 클러스터링 모델을 구축합니다. 조리개 데이터세트(참조 소환 끝에).

다음 코드는 Yellowbrick의 KElbowVisualizer를 활용하여 Elbow 플롯을 생성하는 방법을 설명합니다. 조리개 데이터 세트.

(작성자별 코드)
엘보우 플롯 (저자별 이미지)

XNUMXD덴탈의 팔꿈치 k=4에서 발생합니다(파선으로 주석 표시됨). 플롯은 모델에 대한 최적의 군집 수가 4임을 나타냅니다. 즉, 모델이 4개의 군집에 적합합니다.

KElbowVisualizer의 가장 중요한 매개변수는 다음과 같습니다.

  • 평가자: K-Means 모델 인스턴스
  • k: 정수 또는 튜플. 정수인 경우 (2, k) 범위의 클러스터에 대한 점수를 계산합니다. 튜플인 경우 주어진 범위의 클러스터에 대한 점수를 계산합니다(예: (3, 11)).

용법

실루엣 플롯은 K-Means 클러스터링에서 최적의 클러스터 수를 선택하고 클러스터 불균형을 감지하는 데 사용됩니다. 이 플롯은 Elbow 플롯보다 매우 정확한 결과를 제공합니다.

옐로브릭 구현

전통적인 방법으로 실루엣 플롯을 만드는 것은 복잡하고 시간이 많이 걸립니다. 대신 Yellowbrick의 SilhouetteVisualizer를 사용할 수 있습니다.

Yellowbirck에서 실루엣 플롯을 생성하기 위해 다음을 사용하여 K-Means 클러스터링 모델을 구축합니다. 조리개 데이터세트(참조 소환 끝에).

다음 코드 블록은 Yellowbrick의 SilhouetteVisualizer를 활용하여 실루엣 플롯을 만드는 방법을 설명합니다. 조리개 k(클러스터 수) 값이 다른 데이터 세트.

k = 2

(작성자별 코드)
2개의 군집이 있는 실루엣 도표(k=2), (작성자 이미지)

KMeans() 클래스의 클러스터 수를 변경하여 k=3, k=4 및 k=5일 때 실루엣 플롯을 생성하기 위해 다른 시간에 위의 코드를 실행할 수 있습니다.

k = 3

3개의 군집이 있는 실루엣 도표(k=3), (작성자 이미지)

k = 4

4개의 군집이 있는 실루엣 도표(k=4), (작성자 이미지)

k = 5

4개의 군집이 있는 실루엣 도표(k=5), (작성자 이미지)

실루엣 플롯에는 클러스터당 하나의 나이프 모양이 포함됩니다. 각 칼 모양은 클러스터의 모든 데이터 포인트를 나타내는 막대로 생성됩니다. 따라서 칼 모양의 너비는 클러스터의 모든 인스턴스 수를 나타냅니다. 막대 길이는 각 인스턴스의 실루엣 계수를 나타냅니다. 파선은 실루엣 점수를 나타냅니다 — 출처: 실습 K-Means 클러스터링 (내가 쓴).

나이프 모양의 너비가 거의 동일한 플롯은 클러스터가 균형이 잘 잡혀 있고 각 클러스터 내에서 대략 동일한 수의 인스턴스를 가지고 있음을 알려줍니다. 이는 K-Means 클러스터링에서 가장 중요한 가정 중 하나입니다.

칼 모양의 막대가 점선을 확장하면 클러스터가 잘 분리된 것입니다. 이는 K-Means 클러스터링의 또 다른 중요한 가정입니다.

k=3일 때 클러스터는 균형이 잘 잡혀 있고 잘 분리되어 있습니다. 따라서 이 예에서 최적의 클러스터 수는 3개입니다.

SilhouetteVisualizer의 가장 중요한 매개변수는 다음과 같습니다.

  • 평가자: K-Means 모델 인스턴스
  • 그림 물감: 문자열, 각 칼 모양에 사용되는 색상 모음. 'yellowbrick' 또는 'Accent', 'Set1' 등과 같은 Matplotlib 색상 맵 문자열 중 하나

용법

클래스 불균형 도표는 분류 데이터 세트의 대상 열에서 클래스 불균형을 감지합니다.

클래스 불균형은 한 클래스가 다른 클래스보다 훨씬 더 많은 인스턴스를 가질 때 발생합니다. 예를 들어 스팸 이메일 탐지와 관련된 데이터 세트에는 "스팸 아님" 범주에 대한 인스턴스가 9900개 있고 "스팸" 범주에 대한 인스턴스가 100개뿐입니다. 모델은 소수 클래스를 포착하지 못할 것입니다( 스팸 범주). 그 결과 클래스 불균형이 발생할 때 모델이 소수 클래스를 예측하는 데 정확하지 않을 것입니다 — 출처: 뒤에서 비밀리에 발생하는 20가지 기계 학습 및 딥 러닝 실수 (내가 쓴).

옐로브릭 구현

전통적인 방법으로 클래스 불균형 그림을 만드는 것은 복잡하고 시간이 많이 걸립니다. 대신 Yellowbrick의 ClassBalance 시각화 도우미를 사용할 수 있습니다.

Yellowbirck에서 클래스 불균형 플롯을 그리기 위해 다음을 사용합니다. 유방암 데이터 세트(분류 데이터 세트, 참조 소환 끝에).

다음 코드는 Yellowbrick의 ClassBalance 시각화 도우미를 활용하여 클래스 불균형 플롯을 만드는 방법을 설명합니다. 유방암 데이터 세트.

(작성자별 코드)
클래스 불균형 플롯 (저자별 이미지)

200개 이상의 인스턴스가 있습니다. 악의 있는 클래스 및 350개 이상의 인스턴스 온화한 수업. 따라서 인스턴스가 두 클래스 간에 균등하게 분배되지는 않지만 여기서는 클래스 불균형을 많이 볼 수 없습니다.

ClassBalance 시각화 도우미의 가장 중요한 매개변수는 다음과 같습니다.

  • 라벨 : list, 대상 열에 있는 고유한 클래스의 이름입니다.

용법

선형 회귀의 잔차 플롯은 회귀 모델의 오차 분산을 분석하여 잔차(관측값-예측값)가 상관관계가 없는지(독립적인지) 확인하는 데 사용됩니다.

잔차 플롯은 예측에 대한 잔차를 플로팅하여 생성됩니다. 예측과 잔차 사이에 어떤 종류의 패턴이 있으면 적합된 회귀 모델이 완벽하지 않다는 것을 확인합니다. 점들이 x축 주위에 무작위로 분산되어 있으면 회귀 모델이 데이터에 잘 맞는 것입니다.

옐로브릭 구현

전통적인 방법으로 잔차 그림을 만드는 것은 복잡하고 시간이 많이 걸립니다. 대신 Yellowbrick의 ResidualsPlot 시각화 도우미를 사용할 수 있습니다.

Yellowbirck에서 잔차 플롯을 그리기 위해 다음을 사용합니다. 광고 (광고.csv참조 소환 끝에) 데이터 세트.

다음 코드는 Yellowbrick의 ResidualsPlot 시각화 도우미를 활용하여 다음을 사용하여 잔차 플롯을 만드는 방법을 설명합니다. 광고 데이터 세트.

(작성자별 코드)
잔차 그림 (저자별 이미지)

잔차 플롯에서 예측과 잔차 사이의 일종의 비선형 패턴을 명확하게 볼 수 있습니다. 피팅된 회귀 모델은 완벽하지는 않지만 충분합니다.

ResidualsPlot 시각화 도우미의 가장 중요한 매개변수는 다음과 같습니다.

  • 평가자: 이것은 모든 Scikit-learn 회귀자일 수 있습니다.
  • 역사: 부울, 기본값 True. 다른 가정을 확인하는 데 사용되는 잔차의 히스토그램을 그릴지 여부 — 잔차는 평균이 0이고 고정 표준 편차가 있는 정규 분포에 가깝습니다.

용법

선형 회귀의 예측 오차 플롯은 회귀 모델을 평가하는 데 사용되는 그래픽 방법입니다.

예측 오류 플롯은 실제 목표 값에 대한 예측을 플로팅하여 생성됩니다.

모델이 매우 정확한 예측을 하는 경우 점은 45도 선에 있어야 합니다. 그렇지 않으면 점이 해당 선 주위에 분산됩니다.

옐로브릭 구현

전통적인 방법으로 예측 오차 플롯을 생성하는 것은 복잡하고 시간이 많이 걸립니다. 대신 Yellowbrick의 PredictionError 시각화 도우미를 사용할 수 있습니다.

Yellowbirck에서 예측 오차 플롯을 그리기 위해 다음을 사용합니다. 광고 (광고.csv참조 소환 끝에) 데이터 세트.

다음 코드는 Yellowbrick의 PredictionError 시각화 도우미를 활용하여 잔차 플롯을 생성하는 방법을 설명합니다. 광고 데이터 세트.

(작성자별 코드)
예측 오류 도표 (저자별 이미지)

점이 정확히 45도 선에 있지는 않지만 모델은 충분합니다.

PredictionError 시각화 도우미의 가장 중요한 매개변수는 다음과 같습니다.

  • 평가자: 이것은 모든 Scikit-learn 회귀자일 수 있습니다.
  • 신원: 부울, 기본값 True. 45도 선을 그릴지 여부입니다.

용법

Cook의 거리는 선형 회귀에 대한 인스턴스의 영향을 측정합니다. 영향이 큰 인스턴스는 이상값으로 간주됩니다. 이상값이 많은 데이터 세트는 전처리 없이 선형 회귀에 적합하지 않습니다. 간단히 말해서, Cook의 거리 플롯은 데이터 세트에서 이상값을 감지하는 데 사용됩니다.

옐로브릭 구현

전통적인 방법으로 Cook의 거리 플롯을 생성하는 것은 복잡하고 시간이 많이 걸립니다. 대신 Yellowbrick의 CooksDistance 시각화 도우미를 사용할 수 있습니다.

Yellowbirck에서 Cook의 거리 플롯을 그리기 위해 다음을 사용합니다. 광고 (광고.csv참조 소환 끝에) 데이터 세트.

다음 코드는 Yellowbrick의 CooksDistance 시각화 도우미를 활용하여 다음을 사용하여 Cook의 거리 플롯을 만드는 방법을 설명합니다. 광고 데이터 세트.

(작성자별 코드)
Cook의 거리 도표 (저자별 이미지)

임계값(수평 빨간색) 선을 확장하는 일부 관찰이 있습니다. 그것들은 특이치입니다. 따라서 회귀 모델을 만들기 전에 데이터를 준비해야 합니다.

CooksDistance 시각화 도우미의 가장 중요한 매개변수는 다음과 같습니다.

  • 그리기 임계값: 부울, 기본값 True. 경계선을 그릴지 여부입니다.

용법

기능 중요도 플롯은 ML 모델을 생성하는 데 필요한 최소 중요 기능을 선택하는 데 사용됩니다. 모든 기능이 모델에 동일하게 기여하는 것은 아니므로 덜 중요한 기능을 모델에서 제거할 수 있습니다. 그러면 모델의 복잡성이 줄어듭니다. 단순한 모델은 쉽게 훈련하고 해석할 수 있습니다.

기능 중요도 플롯은 각 기능의 상대적 중요도를 시각화합니다.

옐로브릭 구현

기존 방법으로 기능 중요도 플롯을 생성하는 것은 복잡하고 시간이 많이 걸립니다. 대신 Yellowbrick의 FeatureImportances 시각화 도우미를 사용할 수 있습니다.

Yellowbirck에서 특성 중요도 플롯을 그리기 위해 다음을 사용합니다. 유방암 데이터세트(참조 소환 끝에) 30개의 기능이 포함되어 있습니다.

다음 코드는 Yellowbrick의 FeatureImportances 시각화 도우미를 활용하여 유방암 데이터 세트.

(작성자별 코드)
기능 중요도 플롯 (저자별 이미지)

데이터 세트의 모든 30개 기능이 모델에 많이 기여하는 것은 아닙니다. 데이터 세트에서 작은 막대가 있는 기능을 제거하고 선택한 기능으로 모델을 다시 맞출 수 있습니다.

FeatureImportances 시각화 도우미의 가장 중요한 매개변수는 다음과 같습니다.

  • 평가자: 모든 품종 다음 중 하나를 지원하는 Scikit-learn 추정기 feature_importances_ 속성 또는 coef_ 속성을 사용하지 않는 것입니다.
  • 상대적인: 부울, 기본값 True. 상대적 중요도를 백분율로 표시할지 여부입니다. 만약에 False, 기능 중요도의 원시 숫자 점수가 표시됩니다.
  • 순수한: 부울, 기본값 False. 음수 부호를 피하여 계수의 크기만 고려할지 여부입니다.
  1. 주성분 플롯: PCA(), 사용법 — 고차원 데이터에서 중요한 패턴을 식별하는 데 사용할 수 있는 2D 또는 3D 산점도로 고차원 데이터를 시각화합니다.
  2. 검증 곡선: 검증곡선(), 사용법 — a의 영향을 표시합니다. 단일 기차 및 검증 세트의 하이퍼파라미터.
  3. 학습 곡선 : 학습곡선(), 사용법 — 감지 과소적합, 과적 합바로 모델의 조건, 식별 s낮은 수렴, 진동하는, 발산으로 진동적절한 수렴 신경망의 최적 학습 속도를 찾을 때의 시나리오, 더 많은 훈련 데이터를 추가함으로써 모델이 얼마나 많은 이점을 얻을 수 있는지 보여줍니다.
  4. 팔꿈치 도표: KElbowVisualizer(), Usage — K-Means 클러스터링에서 최적의 클러스터 수를 선택합니다.
  5. 실루엣 플롯: 실루엣비주얼라이저(), Usage — K-Means 클러스터링에서 최적의 클러스터 수를 선택하고 K-Means 클러스터링에서 클러스터 불균형을 감지합니다.
  6. 클래스 불균형 플롯: 클래스밸런스(), Usage — 분류 데이터 세트의 대상 열에서 클래스의 불균형을 감지합니다.
  7. 잔차 도표: 잔차 플롯(), 사용법 — 회귀 모델에서 오류의 분산을 분석하여 잔차(관측값-예측값)가 상관관계가 없는지(독립적인지) 결정합니다.
  8. 예측 오차 도표: 예측 오류(), 사용법 — 회귀 모델을 평가하는 데 사용되는 그래픽 방식입니다.
  9. Cook의 거리 도표: 요리사거리(), 사용법 — Cook의 인스턴스 거리를 기준으로 데이터세트에서 이상값을 감지합니다.
  10. 기능 중요도 도표: 기능중요도(), Usage — ML 모델을 생성하기 위해 각 기능의 상대적 중요도를 기반으로 최소한의 필수 중요 기능을 선택합니다.

오늘의 포스팅은 여기까지입니다.

질문이나 피드백이 있으면 알려주세요.

다음 읽기(권장)

  • 한 줄의 코드를 사용하여 기능의 중요성을 시각화하는 Yellowbrick
  • 검증 곡선 설명 — 단일 하이퍼파라미터의 영향을 도표화합니다.
  • 신경망의 훈련 성능을 분석하기 위한 학습 곡선 그리기
  • 실습 K-Means 클러스터링

작가로서 저를 지원해주세요

이 기사를 재미있게 읽으셨기를 바랍니다. 작가로서 나를 지원하고 싶다면 친절하게 고려하십시오. 회원 가입 Medium에 무제한으로 액세스할 수 있습니다. 한 달에 5달러만 내면 귀하의 회비 중 일부를 제가 받게 됩니다.

지속적인 지원에 진심으로 감사드립니다! 다음 기사에서 뵙겠습니다. 모두에게 즐거운 학습이 되세요!

유방암 데이터 세트 정보

  • 인용 : Dua, D. 및 Graff, C. (2019). UCI 기계 학습 저장소 [http://archive.ics.uci.edu/ml]. 캘리포니아 어바인 : 캘리포니아 대학, 정보 및 컴퓨터 과학 대학.
  • 출처: https://archive.ics.uci.edu/ml/datasets/breast+cancer+wisconsin+(diagnostic)
  • 특허: 윌리엄 H. 울버그 박사 (일반외과
    위스콘신 대학교), W. 닉 스트리트 (컴퓨터과학과.
    위스콘신 대학교) 및 올비 L. 망가사리안 (Computer Sciences Dept. University of Wisconsin)가 이 데이터 세트의 저작권을 보유합니다. Nick Street는 이 데이터 세트를 Creative Commons Attribution 4.0 국제 라이센스 (4.0 BY CC). 다양한 데이터 세트 라이선스 유형에 대해 자세히 알아볼 수 있습니다. 여기에서 지금 확인해 보세요..

홍채 데이터셋 정보

  • 인용 : Dua, D. 및 Graff, C. (2019). UCI 기계 학습 저장소 [http://archive.ics.uci.edu/ml]. 캘리포니아 어바인 : 캘리포니아 대학, 정보 및 컴퓨터 과학 대학.
  • 출처: https://archive.ics.uci.edu/ml/datasets/iris
  • 특허: RA 피셔 이 데이터 세트의 저작권을 보유합니다. Michael Marshall은 이 데이터 세트를 크리에이티브 커먼즈 퍼블릭 도메인 기부 라이선스 (CC0). 다양한 데이터 세트 라이선스 유형에 대해 자세히 알아볼 수 있습니다. 여기에서 지금 확인해 보세요..

광고 데이터 세트 정보

참고자료

10년에 알아야 할 2023가지 놀라운 기계 학습 시각화 소스에서 재출시 https://towardsdatascience.com/10-amazing-machine-learning-visualizations-you-should-know-in-2023-528282940582?source=rss—-7f60cf5620c9— 4 https://towardsdatascience.com/feed를 통해

<!–

–>

타임 스탬프 :

더보기 블록 체인 컨설턴트