AutoML 기계 학습(ML) 프로젝트 수명주기가 시작되는 즉시 데이터에서 신속하고 일반적인 통찰력을 얻을 수 있습니다. 어떤 전처리 기술과 알고리즘 유형이 최상의 결과를 제공하는지 미리 이해하면 올바른 모델을 개발, 교육 및 배포하는 데 소요되는 시간이 줄어듭니다. 이는 모든 모델의 개발 프로세스에서 중요한 역할을 하며 데이터 과학자가 가장 유망한 ML 기술에 집중할 수 있도록 해줍니다. 또한 AutoML은 데이터 과학팀의 참조 지점 역할을 할 수 있는 기본 모델 성능을 제공합니다.
AutoML 도구는 다양한 알고리즘과 다양한 전처리 기술의 조합을 데이터에 적용합니다. 예를 들어 데이터 크기를 조정하고, 단변량 특징 선택을 수행하고, 다양한 분산 임계값 수준에서 PCA를 수행하고, 클러스터링을 적용할 수 있습니다. 이러한 전처리 기술은 개별적으로 적용하거나 파이프라인에서 결합할 수 있습니다. 이후 AutoML 도구는 사전 처리된 데이터 세트의 다양한 버전에서 선형 회귀, Elastic-Net 또는 Random Forest와 같은 다양한 모델 유형을 교육하고 하이퍼 매개변수 최적화(HPO)를 수행합니다. Amazon SageMaker 자동 조종 장치 ML 모델을 구축하는 데 드는 부담이 줄어듭니다. 데이터 세트를 제공한 후 SageMaker Autopilot은 다양한 솔루션을 자동으로 탐색하여 최상의 모델을 찾습니다. 하지만 AutoML 워크플로의 맞춤형 버전을 배포하고 싶다면 어떻게 해야 할까요?
이 게시물에서는 맞춤형 AutoML 워크플로를 만드는 방법을 보여줍니다. 아마존 세이지 메이커 사용 Amazon SageMaker 자동 모델 조정 샘플 코드를 사용하여 GitHub 레포.
솔루션 개요
이 사용 사례에서는 귀하가 전문 도메인에서 모델을 개발하는 데이터 과학 팀의 일원이라고 가정해 보겠습니다. 일련의 사용자 지정 사전 처리 기술을 개발하고 일반적으로 ML 문제에 잘 작동할 것으로 예상되는 여러 알고리즘을 선택했습니다. 새로운 ML 사용 사례를 작업할 때 먼저 전처리 기술과 알고리즘을 사용하여 AutoML 실행을 수행하여 잠재적인 솔루션의 범위를 좁히고 싶습니다.
이 예에서는 특수 데이터세트를 사용하지 않습니다. 대신, 가져올 캘리포니아 주택 데이터세트로 작업합니다. 아마존 단순 스토리지 서비스 (아마존 S3). 초점은 나중에 모든 데이터 세트 및 도메인에 적용할 수 있는 SageMaker HPO를 사용하여 솔루션의 기술 구현을 보여주는 것입니다.
다음 다이어그램은 전체 솔루션 워크플로를 보여줍니다.
사전 조건
이 게시물의 연습을 완료하기 위한 전제 조건은 다음과 같습니다.
솔루션 구현
전체 코드는 다음에서 확인할 수 있습니다. GitHub 레포.
워크플로 다이어그램에 명시된 대로 솔루션을 구현하는 단계는 다음과 같습니다.
- 노트북 인스턴스 생성 다음을 지정합니다.
- 럭셔리 노트북 인스턴스 유형선택한다. ml.t3. 매체.
- 럭셔리 탄력적 추론선택한다. 없음.
- 럭셔리 플랫폼 식별자선택한다. 아마존 리눅스 2, 주피터 랩 3.
- 럭셔리 IAM 역할, 기본값을 선택하세요
AmazonSageMaker-ExecutionRole
. 존재하지 않는 경우 새로 작성하십시오. AWS 자격 증명 및 액세스 관리 (IAM) 역할을 추가하고 AmazonSageMakerFullAccess IAM 정책.
프로덕션에서는 최소 범위의 실행 역할 및 정책을 생성해야 합니다.
- 노트북 인스턴스에 대한 JupyterLab 인터페이스를 열고 GitHub 리포지토리를 복제합니다.
새 터미널 세션을 시작하고 다음을 실행하면 됩니다. git clone <REPO>
다음 스크린샷에 표시된 것처럼 명령을 사용하거나 UI 기능을 사용합니다.
- 열기
automl.ipynb
노트북 파일에서conda_python3
커널을 실행하고 지침에 따라 HPO 작업 세트.
변경 없이 코드를 실행하려면 다음에 대한 서비스 할당량을 늘려야 합니다. 학습 작업 사용을 위한 ml.m5.large 및 모든 학습 작업의 인스턴스 수. AWS는 기본적으로 두 할당량 모두에 대해 20개의 병렬 SageMaker 훈련 작업만 허용합니다. 두 가지 모두에 대해 할당량 증가를 30으로 요청해야 합니다. 두 할당량 변경은 일반적으로 몇 분 이내에 승인되어야 합니다. 인용하다 할당량 증가 요청
할당량을 변경하지 않으려면 간단히 MAX_PARALLEL_JOBS
스크립트의 변수입니다(예: 5).
- 각 HPO 작업은 다음 세트를 완료합니다. 훈련 직업 최적의 하이퍼파라미터를 사용해 모델을 표시합니다.
- 결과를 분석하고 최고 성능 모델 배포.
이 솔루션을 사용하면 AWS 계정에 비용이 발생합니다. 이 솔루션의 비용은 HPO 교육 작업의 수와 기간에 따라 달라집니다. 이러한 비용이 증가하면 비용도 증가합니다. 교육 시간을 제한하고 구성하여 비용을 절감할 수 있습니다. TuningJobCompletionCriteriaConfig
이 게시물의 뒷부분에서 설명하는 지침에 따라. 가격 정보는 다음을 참조하세요. Amazon SageMaker 요금.
다음 섹션에서는 코드 예제와 결과를 분석하고 최상의 모델을 선택하는 단계를 통해 노트북에 대해 자세히 설명합니다.
초기 설정
실행부터 시작해 보겠습니다. 가져오기 및 설정 섹션 custom-automl.ipynb
공책. 필요한 모든 종속성을 설치 및 가져오고, SageMaker 세션 및 클라이언트를 인스턴스화하고, 데이터 저장을 위한 기본 리전 및 S3 버킷을 설정합니다.
데이터 준비
캘리포니아 주택 데이터세트를 다운로드하고 다음을 실행하여 준비합니다. 데이터 다운로드 노트북 섹션. 데이터 세트는 교육 및 테스트 데이터 프레임으로 분할되어 SageMaker 세션 기본 S3 버킷에 업로드됩니다.
전체 데이터세트에는 타겟을 포함해 총 20,640개의 레코드와 9개의 컬럼이 있습니다. 목표는 주택의 중앙값(medianHouseValue
열). 다음 스크린샷은 데이터세트의 맨 위 행을 보여줍니다.
훈련 스크립트 템플릿
이 게시물의 AutoML 워크플로는 다음을 기반으로 합니다. 사이 킷 학습 전처리 파이프라인 및 알고리즘. 목표는 다양한 전처리 파이프라인과 알고리즘의 대규모 조합을 생성하여 가장 성능이 좋은 설정을 찾는 것입니다. 노트북 인스턴스에 로컬로 유지되는 일반 교육 스크립트를 생성하는 것부터 시작해 보겠습니다. 이 스크립트에는 두 개의 빈 주석 블록이 있습니다. 하나는 하이퍼매개변수 주입용이고 다른 하나는 전처리 모델 파이프라인 객체용입니다. 각 전처리 모델 후보에 대해 동적으로 주입됩니다. 하나의 일반 스크립트를 사용하는 목적은 구현을 DRY(반복하지 않음)로 유지하는 것입니다.
전처리 및 모델 조합 생성
XNUMXD덴탈의 preprocessors
사전에는 모델의 모든 입력 기능에 적용되는 전처리 기술의 사양이 포함되어 있습니다. 각 레시피는 다음을 사용하여 정의됩니다. Pipeline
또는 FeatureUnion
개별 데이터 변환을 함께 연결하고 함께 쌓는 scikit-learn의 개체입니다. 예를 들어, mean-imp-scale
각 열의 평균값을 사용하여 누락된 값을 대치하고 모든 기능이 표준 스케일러. 대조적으로 mean-imp-scale-pca
recipe는 몇 가지 추가 작업을 함께 연결합니다.
- 평균을 사용하여 열의 누락된 값을 대치합니다.
- 평균 및 표준편차를 사용하여 특성 스케일링을 적용합니다.
- 지정된 분산 임계값에서 입력 데이터 위에 PCA를 계산하고 이를 대치되고 스케일링된 입력 기능과 함께 병합합니다.
이 게시물에서는 모든 입력 기능이 숫자입니다. 입력 데이터세트에 더 많은 데이터 유형이 있는 경우 다양한 전처리 분기가 다양한 기능 유형 세트에 적용되는 더 복잡한 파이프라인을 지정해야 합니다.
XNUMXD덴탈의 models
사전에는 데이터 세트에 맞는 다양한 알고리즘의 사양이 포함되어 있습니다. 모든 모델 유형에는 사전에 다음 사양이 제공됩니다.
- script_output – 추정기가 사용하는 훈련 스크립트의 위치를 가리킵니다. 이 필드는 다음과 같은 경우 동적으로 채워집니다.
models
사전은 다음과 결합됩니다.preprocessors
사전. - 삽입 – 코드에 삽입될 코드를 정의합니다.
script_draft.py
이후에 저장됨script_output
. 열쇠“preprocessor”
여러 모델-전처리기 조합을 생성하기 위해 이 위치가 전처리기 중 하나로 채워지기 때문에 의도적으로 비워 두었습니다. - 하이퍼 파라미터 – HPO 작업에 의해 최적화된 하이퍼파라미터 세트입니다.
- include_cls_metadata – SageMaker에 필요한 추가 구성 세부 정보
Tuner
클래스입니다.
전체 예 models
사전은 GitHub 저장소에서 사용할 수 있습니다.
다음으로 preprocessors
및 models
사전을 만들고 가능한 모든 조합을 만듭니다. 예를 들어, 귀하의 경우 preprocessors
사전에는 10개의 조리법이 포함되어 있고, 사전에는 5개의 모델 정의가 있습니다. models
사전인 새로 생성된 파이프라인 사전에는 HPO 중에 평가되는 50개의 전처리기 모델 파이프라인이 포함되어 있습니다. 이 시점에서는 아직 개별 파이프라인 스크립트가 생성되지 않았습니다. Jupyter 노트북의 다음 코드 블록(셀 9)은 pipelines
모든 관련 코드 조각을 삽입하고 스크립트의 파이프라인별 버전을 노트북에 로컬로 유지합니다. 이러한 스크립트는 HPO 작업에 연결하는 개별 추정기를 생성할 때 다음 단계에서 사용됩니다.
추정량 정의
이제 스크립트가 준비된 후 HPO 작업에서 사용하는 SageMaker 추정기를 정의하는 작업을 수행할 수 있습니다. 모든 추정기에 대한 몇 가지 공통 속성을 정의하는 래퍼 클래스를 만드는 것부터 시작해 보겠습니다. 이는 다음에서 상속됩니다. SKLearn
클래스를 지정하고 역할, 인스턴스 수, 유형은 물론 스크립트에서 기능과 대상으로 사용되는 열을 지정합니다.
구축하자 estimators
이전에 생성되고 해당 위치에 있는 모든 스크립트를 반복하여 사전 scripts
예배 규칙서. 다음을 사용하여 새로운 추정기를 인스턴스화합니다. SKLearnBase
고유한 추정기 이름과 스크립트 중 하나가 있는 클래스입니다. 참고 estimators
사전에는 두 가지 수준이 있습니다. 최상위 수준은 pipeline_family
. 이는 평가할 모델 유형을 기반으로 한 논리적 그룹화이며 모델의 길이와 같습니다. models
사전. 두 번째 수준에는 주어진 것과 결합된 개별 전처리기 유형이 포함됩니다. pipeline_family
. 이 논리적 그룹화는 HPO 작업을 생성할 때 필요합니다.
HPO 튜너 인수 정의
HPO에 인수 전달을 최적화하려면 Tuner
수업, HyperparameterTunerArgs
데이터 클래스는 HPO 클래스에 필요한 인수로 초기화됩니다. 여러 모델 정의를 한 번에 배포할 때 HPO 인수가 예상되는 형식으로 반환되도록 보장하는 일련의 기능이 함께 제공됩니다.
다음 코드 블록은 이전에 소개된 코드를 사용합니다. HyperparameterTunerArgs
데이터 클래스. 다음과 같은 또 다른 사전을 만듭니다. hp_args
각 항목에 특정한 입력 매개변수 세트를 생성합니다. estimator_family
인사말 estimators
사전. 이러한 인수는 각 모델 계열에 대한 HPO 작업을 초기화할 때 다음 단계에서 사용됩니다.
HPO 튜너 객체 생성
이 단계에서는 각 튜너에 대해 개별 튜너를 생성합니다. estimator_family
. 모든 추정기에서 하나만 실행하는 대신 세 개의 별도 HPO 작업을 생성하는 이유는 무엇입니까? 그만큼 HyperparameterTuner
클래스에는 첨부된 모델 정의가 10개로 제한됩니다. 따라서 각 HPO는 특정 모델 계열에 대해 가장 성능이 좋은 전처리기를 찾고 해당 모델 계열의 하이퍼 매개변수를 조정하는 일을 담당합니다.
다음은 설정과 관련된 몇 가지 추가 사항입니다.
- 최적화 전략은 베이지안입니다. 즉, HPO가 모든 시도의 성능을 적극적으로 모니터링하고 더 유망한 하이퍼파라미터 조합을 향해 최적화를 탐색한다는 의미입니다. 조기 중지는 다음으로 설정되어야 합니다. 떨어져서 or 자동차 해당 논리 자체를 처리하는 베이지안 전략으로 작업할 때.
- 각 HPO 작업은 최대 100개의 작업에 대해 실행되며 10개의 작업을 병렬로 실행합니다. 더 큰 데이터세트를 처리하는 경우 총 작업 수를 늘리는 것이 좋습니다.
- 또한 작업 실행 기간과 HPO가 트리거하는 작업 수를 제어하는 설정을 사용할 수도 있습니다. 이를 수행하는 한 가지 방법은 최대 런타임을 초 단위로 설정하는 것입니다(이 게시물에서는 1시간으로 설정합니다). 또 하나는 최근 출시된
TuningJobCompletionCriteriaConfig
. 작업 진행 상황을 모니터링하고 더 많은 작업으로 인해 결과가 향상될 가능성이 있는지 여부를 결정하는 일련의 설정을 제공합니다. 이 게시물에서는 개선되지 않는 훈련 작업의 최대 수를 20으로 설정했습니다. 이렇게 하면 점수가 개선되지 않으면(예를 들어 XNUMX번째 시행부터) 다음까지 남은 시행에 대해 비용을 지불할 필요가 없습니다.max_jobs
에 도달했습니다.
이제 tuners
및 hp_args
SageMaker에서 모든 HPO 작업을 트리거합니다. 다음으로 설정된 wait 인수의 사용법에 유의하세요. False
이는 커널이 결과가 완료될 때까지 기다리지 않고 모든 작업을 한 번에 트리거할 수 있음을 의미합니다.
모든 훈련 작업이 완료되는 것은 아니며 일부 훈련 작업은 HPO 작업에 의해 중지될 수 있습니다. 그 이유는 TuningJobCompletionCriteriaConfig
—지정된 기준 중 하나라도 충족되면 최적화가 완료됩니다. 이 경우 20개의 연속 작업에 대해 최적화 기준이 개선되지 않는 경우입니다.
결과 분석
노트북의 셀 15는 모든 HPO 작업이 완료되었는지 확인하고 추가 분석을 위해 모든 결과를 pandas 데이터 프레임 형식으로 결합합니다. 결과를 자세히 분석하기 전에 SageMaker 콘솔을 개략적으로 살펴보겠습니다.
상단의 초매개변수 조정 작업 페이지에서 시작된 세 가지 HPO 작업을 볼 수 있습니다. 그들 모두는 일찍 끝났고 100개의 훈련 작업을 모두 수행하지 못했습니다. 다음 스크린샷에서는 Elastic-Net 모델 계열이 가장 많은 수의 시도를 완료한 반면 다른 모델 계열은 최상의 결과를 찾기 위해 그렇게 많은 훈련 작업이 필요하지 않았음을 확인할 수 있습니다.
HPO 작업을 열어 개별 훈련 작업, 작업 구성, 최고의 훈련 작업 정보 및 성과와 같은 추가 세부 정보에 액세스할 수 있습니다.
모든 모델 계열의 AutoML 워크플로 성능에 대한 더 많은 통찰력을 얻기 위해 결과를 기반으로 시각화를 생성해 보겠습니다.
다음 그래프를 통해 다음과 같은 결론을 내릴 수 있습니다. Elastic-Net
모델의 성능은 70,000~80,000RMSE 사이를 오가며 결국 정체되었습니다. 알고리즘이 다양한 전처리 기술과 하이퍼파라미터 값을 시도했음에도 불구하고 성능을 향상시킬 수 없었기 때문입니다. 그런 것 같기도 하다 RandomForest
성능은 HPO가 탐색한 하이퍼파라미터 세트에 따라 많이 달랐지만, 많은 시도에도 불구하고 50,000 RMSE 오류 아래로 내려갈 수 없었습니다. GradientBoosting
이미 처음부터 50,000RMSE 미만으로 최고의 성능을 달성했습니다. HPO는 결과를 더욱 개선하려고 노력했지만 다른 하이퍼매개변수 조합 전체에서 더 나은 성능을 달성할 수 없었습니다. 모든 HPO 작업에 대한 일반적인 결론은 각 알고리즘에 대해 가장 성능이 좋은 하이퍼파라미터 세트를 찾는 데 그리 많은 작업이 필요하지 않다는 것입니다. 결과를 더욱 개선하려면 더 많은 특성을 생성하고 추가 특성 엔지니어링을 수행하여 실험해야 합니다.
또한 모델-전처리기 조합에 대한 보다 자세한 보기를 조사하여 가장 유망한 조합에 대한 결론을 도출할 수도 있습니다.
최적의 모델을 선택하고 배포
다음 코드 조각은 달성된 가장 낮은 목표 값을 기반으로 최상의 모델을 선택합니다. 그런 다음 모델을 SageMaker 엔드포인트로 배포할 수 있습니다.
정리
AWS 계정에 원치 않는 비용이 청구되는 것을 방지하려면 이 게시물에서 사용한 AWS 리소스를 삭제하는 것이 좋습니다.
- Amazon S3 콘솔에서 훈련 데이터가 저장된 S3 버킷의 데이터를 비웁니다.
- SageMaker 콘솔에서 노트북 인스턴스를 중지합니다.
- 모델 엔드포인트를 배포한 경우 삭제하세요. 엔드포인트는 배포된 시간을 기준으로 요금이 청구되므로 더 이상 사용하지 않을 때는 삭제해야 합니다.
결론
이 게시물에서는 맞춤형 알고리즘 선택과 전처리 기술을 사용하여 SageMaker에서 맞춤형 HPO 작업을 생성하는 방법을 소개했습니다. 특히 이 예에서는 많은 훈련 스크립트를 생성하는 프로세스를 자동화하는 방법과 여러 병렬 최적화 작업을 효율적으로 배포하기 위해 Python 프로그래밍 구조를 사용하는 방법을 보여줍니다. 이 솔루션이 SageMaker를 사용하여 배포할 모든 사용자 지정 모델 튜닝 작업의 기반을 형성하여 ML 워크플로의 성능을 높이고 속도를 높이는 데 도움이 되기를 바랍니다.
SageMaker HPO 사용 방법에 대한 지식을 더욱 심화하려면 다음 리소스를 확인하십시오.
저자에 관하여
콘라드 셈쉬 Amazon Web Services 데이터 랩 팀의 수석 ML 솔루션 설계자입니다. 그는 고객이 기계 학습을 사용하여 AWS를 통해 비즈니스 문제를 해결하도록 돕습니다. 그는 AI/ML 프로젝트를 위한 간단하고 실용적인 솔루션을 고객에게 제공하기 위해 발명하고 단순화하는 것을 즐깁니다. 그는 MlOps와 전통적인 데이터 과학에 가장 열정적입니다. 직장 밖에서 그는 윈드서핑과 카이트서핑의 열렬한 팬입니다.
참치 어소이 AWS의 수석 솔루션 아키텍트입니다. 그녀의 주요 초점은 공공 부문 고객이 워크로드에 클라우드 기술을 채택하도록 돕는 것입니다. 그녀는 애플리케이션 개발, 엔터프라이즈 아키텍처 및 컨택 센터 기술에 대한 배경 지식을 보유하고 있습니다. 그녀의 관심 분야는 서버리스 아키텍처와 AI/ML입니다.
- SEO 기반 콘텐츠 및 PR 배포. 오늘 증폭하십시오.
- PlatoData.Network 수직 생성 Ai. 자신에게 권한을 부여하십시오. 여기에서 액세스하십시오.
- PlatoAiStream. 웹3 인텔리전스. 지식 증폭. 여기에서 액세스하십시오.
- 플라톤ESG. 탄소, 클린테크, 에너지, 환경, 태양광, 폐기물 관리. 여기에서 액세스하십시오.
- PlatoHealth. 생명 공학 및 임상 시험 인텔리전스. 여기에서 액세스하십시오.
- 출처: https://aws.amazon.com/blogs/machine-learning/implement-a-custom-automl-job-using-pre-selected-algorithms-in-amazon-sagemaker-automatic-model-tuning/
- :있다
- :이다
- :아니
- :어디
- $UP
- 000
- 1
- 10
- 100
- 12
- 13
- 14
- 15%
- 20
- 2000
- 22
- 25
- 28
- 30
- 39
- 50
- 7
- 70
- 8
- 80
- 9
- a
- 할 수 있는
- 소개
- ACCESS
- 에 따르면
- 계정
- 달성
- 달성
- 가로질러
- 활발히
- 추가
- 또한
- 채택
- 후
- AI / ML
- 겨냥
- 연산
- 알고리즘
- All
- 허용
- 수
- 이미
- 또한
- 아마존
- 아마존 세이지 메이커
- Amazon Web Services
- an
- 분석
- 분석하다
- 분석하는
- 및
- 다른
- 어떤
- 어플리케이션
- 애플리케이션 개발
- 적용된
- 적용하다
- 신청
- 인가 된
- 아키텍처
- 있군요
- 논의
- 인수
- AS
- 취하다
- At
- 붙이다
- 자동
- 자동화
- Automatic
- 자동적으로
- AutoML
- 가능
- AWS
- 배경
- 기지
- 기반으로
- 기준
- 베이지안
- BE
- 때문에
- 전에
- 처음
- 이하
- BEST
- 더 나은
- 사이에
- 큰
- 블록
- 블록
- 두
- 가지
- 빌드
- 건물
- 사업
- 비자 면제 프로그램에 해당하는 국가의 시민권을 가지고 있지만
- 단추
- by
- 캘리포니아
- 전화
- 라는
- CAN
- 후보자
- 케이스
- 가지 경우
- 센터
- 쇠사슬
- 과제
- 이전 단계로 돌아가기
- 변경
- 요금
- 확인하는 것이 좋다.
- 왼쪽 메뉴에서
- 수업
- CLF
- 클라이언트
- 클라우드
- 클러스터
- 클러스터링
- 암호
- 단
- 열
- 결합
- 조합
- 결합 된
- 결합
- 제공
- 본문
- 공통의
- 완전한
- 진행완료
- 완료
- 복잡한
- 결론
- 결론
- 행위
- 구성
- 연속적인
- 콘솔에서
- CONTACT
- 연락 센터
- 이 포함되어 있습니다
- 대조
- 제어
- 비용
- 비용
- 수
- 만들
- 만든
- 만들기
- 기준
- 결정적인
- 현재
- 관습
- 고객
- 데이터
- 데이터 과학
- 데이터 세트
- 취급
- 결정하다
- 깊게 하다
- 태만
- 한정된
- 정의
- 정의
- 정의
- 보여
- 보여줍니다
- 따라
- 의존성
- 의존
- 배포
- 배포
- 배치
- 전개
- 드리프트
- 무례
- 세부 묘사
- 상세한
- 세부설명
- 개발
- 개발
- 개발
- 개발
- 일탈
- DICT
- 다른
- 디렉토리
- 토론
- 논의 된
- do
- 하지 않습니다
- 도메인
- 말라
- 아래 (down)
- 무승부
- 건조
- 지속
- ...동안
- 역동적 인
- 마다
- 초기의
- 효율적인
- 거림
- 가능
- 종점
- 엔지니어링
- 확인
- 보장
- Enterprise
- 전체의
- 전적으로
- 같은
- 오류
- 평가
- 평가
- 있을뿐만 아니라
- 모든
- 검토하다
- 예
- 예
- 실행
- 있다
- 기대
- 기대하는
- 실험
- 설명
- 탐험 한
- 탐구하다
- 그릇된
- 가족
- 가족
- 부채
- 특색
- 특징
- 를
- 들
- 입양 부모로서의 귀하의 적합성을 결정하기 위해 미국 이민국에
- 가득
- Find
- 발견
- 먼저,
- 맞게
- 다섯
- 초점
- 따라
- 수행원
- 다음
- 럭셔리
- 숲
- 형태
- 체재
- FRAME
- 에
- 앞
- 가득 찬
- 기능
- 기능
- 기능
- 추가
- 일반
- 생성
- 생성
- 생성
- 얻을
- 힘내
- GitHub의
- 주어진
- Go
- 골
- 가는
- 그래프
- 손
- 처리
- 있다
- 데
- he
- 무거운
- 무거운 리프팅
- 도움이
- 도움이
- 그녀의
- 고수준
- 더 높은
- 최고
- 기대
- 시간
- 집
- 가정
- 주택
- 방법
- How To
- HTML
- HTTP
- HTTPS
- 하이퍼 파라미터 최적화
- 하이퍼 파라미터 튜닝
- 통합 인증
- if
- 구현
- 이행
- import
- 수입
- 개선
- 개선
- in
- 포함
- 포함
- 증가
- 표시
- 개인
- 개별적으로
- 정보
- 입력
- 입력
- 삽입물
- 통찰력
- 예
- 를 받아야 하는 미국 여행자
- 명령
- 완성
- 의도적으로
- 이해
- 인터페이스
- 으로
- 소개
- IT
- 그
- 그 자체
- 일
- 작업
- JPG
- 다만
- 딱 하나만
- 유지
- 키
- 지식
- 실험실
- 넓은
- 큰
- 후에
- 시작
- 진수
- 배우기
- 왼쪽 (left)
- 길이
- 레벨
- 레벨
- wifecycwe
- 리프팅
- 처럼
- 아마도
- 제한
- 리눅스
- 하중
- 장소 상에서
- 위치한
- 위치
- 논리
- 논리
- 긴
- 이상
- 보기
- 롯
- 가장 낮은
- 기계
- 기계 학습
- .
- 최고
- XNUMX월..
- 평균
- 방법
- 병합
- 만나
- 통계
- 수도
- 회의록
- 누락
- ML
- MLOps
- 모델
- 모델
- 수정
- 모니터
- 모니터
- 배우기
- 가장
- 여러
- name
- 폭이 좁은
- 탐색
- 필요
- 신제품
- 새로운
- 다음 것
- 아니
- 없음
- 수첩
- 유명한
- 지금
- 번호
- numpy
- 대상
- 목표
- 사물
- of
- 오프
- 제공
- on
- 일단
- ONE
- 만
- 열 수
- 행정부
- 최적의
- 최적화
- 최적화
- 최적화
- or
- 주문
- OS
- 기타
- 기타
- 아웃
- 출력
- 외부
- 위에
- 전체
- 페이지
- 팬더
- 평행
- 매개 변수
- 부품
- 특별한
- 통과
- 열렬한
- 통로
- 지불
- 수행
- 성능
- 실행할 수 있는
- 지속되는
- 개
- 관로
- 플라톤
- 플라톤 데이터 인텔리전스
- 플라토데이터
- 재생
- 플러그
- 포인트 적립
- 전철기
- 정책
- 인구
- 가능한
- 게시하다
- 가능성
- 바쁜
- 예측
- Predictor
- Prepare
- 전제 조건
- 선물
- 예방
- 이전에
- 가격
- 일차
- 인쇄
- 문제
- 방법
- 생산
- 생산
- 프로그램 작성
- 진행
- 프로젝트
- 프로젝트
- 장래가 촉망되는
- 속성
- 제공
- 제공
- 제공
- 공개
- 목적
- Python
- 닥치는대로의
- 빠른
- 도달
- 준비
- 이유
- 최근에
- 조리법
- 권하다
- 기록
- 감소
- 감소
- 참조
- 참고
- 에 관한
- 정규식
- 지방
- 출시
- 관련된
- 나머지
- 제거
- 반복
- 저장소
- 의뢰
- 필요
- 필수
- 제품 자료
- 그
- 책임
- 한정된
- 결과
- 결과
- return
- 연락해주세요
- 직위별
- 달리기
- 달리는
- 실행
- 런타임
- 현자
- SageMaker 자동 모델 튜닝
- 저장
- 규모
- 스케일링
- 과학
- 과학자
- 사이 킷 학습
- 범위
- 점수
- 스크립트
- 스크립트
- 둘째
- 초
- 섹션
- 섹션
- 부문
- 참조
- 것
- 선택된
- 선택
- 본인
- 연장자
- 별도의
- 서브
- 서버리스
- 서비스
- 서비스
- 세션
- 세트
- 설정
- 설정
- 설치
- 그녀
- 영상을
- 전시
- 표시
- 쇼
- 단순, 간단, 편리
- 단순화
- 간단히
- 단편
- So
- 해결책
- 솔루션
- 풀다
- 일부
- 전문
- 구체적인
- 명세서
- 명세서
- 지정
- 속도
- 분열
- 스택
- 표준
- 스타트
- 시작 중
- Status
- 단계
- 단계
- 중지
- 정지
- 멎는
- 저장
- 저장
- 저장
- 전략
- 구조
- 구조
- 그후
- 이러한
- 지원
- 테이블
- 맞춤형
- 받아
- 목표
- 팀
- 테크니컬
- 기법
- 기술
- 단말기
- test
- 지원
- 그
- XNUMXD덴탈의
- 그들의
- 그들
- 그때
- 그곳에.
- 따라서
- Bowman의
- 그들
- 이
- 그
- 세
- 임계값
- 을 통하여
- 시간
- 에
- 함께
- 수단
- 상단
- 금액
- 에 대한
- 전통적인
- Train
- 트레이닝
- 변환
- 시도
- 시련
- 시도
- 트리거
- 방아쇠를 당긴
- 트리거링
- 노력
- 동조
- 두
- 유형
- 유형
- 일반적으로
- ui
- 아래에
- 이해
- 유일한
- 까지
- 불필요한
- 업로드
- 용법
- 사용
- 유스 케이스
- 익숙한
- 사용
- 사용
- 유효 기간
- 가치
- 마케팅은:
- 변수
- 변화 있는
- 여러
- 버전
- 버전
- 관측
- 심상
- W
- 기다리다
- 연습
- 필요
- 였다
- 방법..
- we
- 웹
- 웹 서비스
- 잘
- 했다
- 뭐
- 언제
- 이므로
- 여부
- 어느
- why
- 의지
- 과
- 이내
- 없이
- 작업
- 워크플로우
- 워크 플로우
- 일하는
- 겠지
- 쓰다
- 아직
- 자신의
- 너의
- 당신 자신
- 제퍼 넷