연구자들은 일반적인 기계 학습(ML) 작업을 위한 새로운 모델 아키텍처를 계속해서 개발하고 있습니다. 이러한 작업 중 하나는 이미지 분류입니다. 여기서 이미지는 입력으로 허용되고 모델은 개체 레이블 출력을 사용하여 이미지를 전체적으로 분류하려고 시도합니다. 현재 이 이미지 분류 작업을 수행하는 많은 모델을 사용할 수 있으므로 ML 실무자는 "내 데이터 세트에서 최상의 성능을 얻으려면 어떤 모델을 미세 조정하고 배포해야 합니까?"와 같은 질문을 할 수 있습니다. 그리고 ML 연구원은 다음과 같은 질문을 할 수 있습니다. "GPU, CPU 및 RAM과 같은 컴퓨터 사양 및 교육 하이퍼 매개 변수를 제어하면서 지정된 데이터 세트에 대해 여러 모델 아키텍처의 공정한 비교를 생성하려면 어떻게 해야 합니까?" 전자의 질문은 모델 아키텍처 전체에서 모델 선택을 다루는 반면, 후자의 질문은 테스트 데이터 세트에 대한 훈련된 모델 벤치마킹에 관한 것입니다.
이 게시물에서는 TensorFlow 이미지 분류 알고리즘 Amazon SageMaker 점프스타트 이러한 질문을 해결하는 데 필요한 구현을 단순화할 수 있습니다. 해당하는 구현 세부 정보와 함께 예제 Jupyter 노트북, 정확도와 같은 하나의 성능 지표를 개선하는 것이 처리량과 같은 다른 지표를 악화시키지 않고는 불가능한 파레토 경계를 탐색하여 모델 선택을 수행하는 데 사용할 수 있는 도구가 있습니다.
솔루션 개요
다음 그림은 미세 조정된 많은 수의 이미지 분류 모델에 대한 모델 선택 트레이드 오프를 보여줍니다. 칼텍-256 데이터 세트는 30,607개 객체 범주에 걸쳐 있는 256개의 실제 이미지로 구성된 도전적인 세트입니다. 각 포인트는 단일 모델을 나타내며 포인트 크기는 모델을 구성하는 매개변수의 수에 따라 조정되며 포인트는 모델 아키텍처에 따라 색상으로 구분됩니다. 예를 들어 밝은 녹색 점은 EfficientNet 아키텍처를 나타냅니다. 각각의 연한 녹색 점은 고유한 미세 조정 모델 성능 측정을 통해 이 아키텍처의 다른 구성입니다. 그림은 모델 선택을 위한 파레토 프론티어의 존재를 보여줍니다. 여기서 더 높은 정확도는 더 낮은 처리량과 교환됩니다. 궁극적으로 파레토 프론티어 또는 파레토 효율적인 솔루션 집합을 따라 모델을 선택하는 것은 모델 배포 성능 요구 사항에 따라 다릅니다.
관심 있는 테스트 정확도 및 테스트 처리량 경계를 관찰하면 이전 그림의 파레토 효율적인 솔루션 세트가 다음 표에서 추출됩니다. 테스트 처리량이 증가하고 테스트 정확도가 감소하도록 행이 정렬됩니다.
모델 이름 | 매개변수의 수 | 테스트 정확도 | 상위 5개 정확도 테스트 | 처리량(이미지/초) | Epoch당 기간 |
swin-large-patch4-window12-384 | 195.6M | 96.4% | 99.5% | 0.3 | 2278.6 |
swin-large-patch4-window7-224 | 195.4M | 96.1% | 99.5% | 1.1 | 698.0 |
효율적인net-v2-imagenet21k-ft1k-l | 118.1M | 95.1% | 99.2% | 4.5 | 1434.7 |
효율적인net-v2-imagenet21k-ft1k-m | 53.5M | 94.8% | 99.1% | 8.0 | 769.1 |
효율적인net-v2-imagenet21k-m | 53.5M | 93.1% | 98.5% | 8.0 | 765.1 |
효율적인 넷-b5 | 29.0M | 90.8% | 98.1% | 9.1 | 668.6 |
effectivenet-v2-imagenet21k-ft1k-b1 | 7.3M | 89.7% | 97.3% | 14.6 | 54.3 |
effectivenet-v2-imagenet21k-ft1k-b0 | 6.2M | 89.0% | 97.0% | 20.5 | 38.3 |
효율적인net-v2-imagenet21k-b0 | 6.2M | 87.0% | 95.6% | 21.5 | 38.2 |
mobilenet-v3-대형-100-224 | 4.6M | 84.9% | 95.4% | 27.4 | 28.8 |
mobilenet-v3-대형-075-224 | 3.1M | 83.3% | 95.2% | 30.3 | 26.6 |
모바일넷-v2-100-192 | 2.6M | 80.8% | 93.5% | 33.5 | 23.9 |
모바일넷-v2-100-160 | 2.6M | 80.2% | 93.2% | 40.0 | 19.6 |
모바일넷-v2-075-160 | 1.7M | 78.2% | 92.8% | 41.8 | 19.3 |
모바일넷-v2-075-128 | 1.7M | 76.1% | 91.1% | 44.3 | 18.3 |
모바일넷-v1-075-160 | 2.0M | 75.7% | 91.0% | 44.5 | 18.2 |
모바일넷-v1-100-128 | 3.5M | 75.1% | 90.7% | 47.4 | 17.4 |
모바일넷-v1-075-128 | 2.0M | 73.2% | 90.0% | 48.9 | 16.8 |
모바일넷-v2-075-96 | 1.7M | 71.9% | 88.5% | 49.4 | 16.6 |
모바일넷-v2-035-96 | 0.7M | 63.7% | 83.1% | 50.4 | 16.3 |
모바일넷-v1-025-128 | 0.3M | 59.0% | 80.7% | 50.8 | 16.2 |
이 게시물은 대규모 구현 방법에 대한 세부 정보를 제공합니다. 아마존 세이지 메이커 벤치마킹 및 모델 선택 작업. 먼저 JumpStart와 내장 TensorFlow 이미지 분류 알고리즘을 소개합니다. 그런 다음 JumpStart 하이퍼파라미터 구성, Amazon CloudWatch 로그, 비동기식 하이퍼파라미터 조정 작업을 시작합니다. 마지막으로 앞의 표와 그림에서 파레토 효율적인 솔루션으로 이어지는 구현 환경과 매개변수화를 다룹니다.
JumpStart TensorFlow 이미지 분류 소개
JumpStart는 일반적인 비즈니스 문제를 해결하는 종단 간 솔루션 선택은 물론 널리 사용되는 ML 작업 전반에 걸쳐 사전 훈련된 다양한 모델의 원클릭 미세 조정 및 배포를 제공합니다. 이러한 기능은 ML 프로세스의 각 단계에서 어려운 작업을 제거하여 고품질 모델을 더 쉽게 개발하고 배포 시간을 단축합니다. 그만큼 점프스타트 API 자신의 데이터 세트에서 사전 학습된 다양한 모델을 프로그래밍 방식으로 배포하고 미세 조정할 수 있습니다.
JumpStart 모델 허브는 많은 수의 액세스를 제공합니다. TensorFlow 이미지 분류 모델 맞춤형 데이터 세트에 대한 전이 학습 및 미세 조정을 가능하게 합니다. 이 글을 쓰는 시점에서 JumpStart 모델 허브에는 텐서플로우 허브, 잔여 네트워크 포함(레스넷), 모바일넷, 이피션트넷, 처음, 신경망 아키텍처 검색 네트워크(나스넷), 큰 전송(조금), 이동된 창(스윈) 변환기, 이미지 변환기의 Class-Attention(케이트) 및 데이터 효율적인 이미지 변환기(데이티).
매우 다른 내부 구조가 각 모델 아키텍처를 구성합니다. 예를 들어, ResNet 모델은 건너뛰기 연결을 활용하여 훨씬 더 깊은 네트워크를 허용하는 반면 변환기 기반 모델은 더 많은 전역 수용 필드를 위해 컨볼루션 작업의 본질적인 지역성을 제거하는 자체 주의 메커니즘을 사용합니다. 이러한 서로 다른 구조가 제공하는 다양한 기능 세트 외에도 각 모델 아키텍처에는 해당 아키텍처 내에서 모델 크기, 모양 및 복잡성을 조정하는 여러 구성이 있습니다. 그 결과 JumpStart 모델 허브에서 사용할 수 있는 수백 개의 고유한 이미지 분류 모델이 생성됩니다. 많은 SageMaker 기능을 포함하는 내장된 전이 학습 및 추론 스크립트와 결합된 JumpStart API는 ML 실무자가 모델을 빠르게 교육하고 배포하기 시작하는 훌륭한 시작점입니다.
인용하다 Amazon SageMaker의 TensorFlow 이미지 분류 모델에 대한 전이 학습 및 다음 노트북 예 사전 훈련된 모델에서 추론을 실행하고 사용자 지정 데이터 세트에서 사전 훈련된 모델을 미세 조정하는 방법을 포함하여 SageMaker TensorFlow 이미지 분류에 대해 자세히 알아보십시오.
대규모 모델 선택 고려 사항
모델 선택은 후보 모델 세트에서 최상의 모델을 선택하는 프로세스입니다. 이 프로세스는 매개변수 가중치가 다른 동일한 유형의 모델과 유형이 다른 모델에 걸쳐 적용될 수 있습니다. 동일한 유형의 모델에서 모델을 선택하는 예로는 서로 다른 하이퍼파라미터(예: 학습 속도)로 동일한 모델을 맞추는 것과 훈련 데이터 세트에 대한 모델 가중치의 과적합을 방지하기 위한 조기 중지가 있습니다. 다양한 유형의 모델 간 모델 선택에는 최상의 모델 아키텍처 선택(예: Swin 대 MobileNet) 및 단일 모델 아키텍처 내에서 최상의 모델 구성 선택(예: mobilenet-v1-025-128
대 mobilenet-v3-large-100-224
).
이 섹션에 설명된 고려 사항은 유효성 검사 데이터 세트에서 이러한 모든 모델 선택 프로세스를 활성화합니다.
초매개변수 구성 선택
JumpStart의 TensorFlow 이미지 분류에는 많은 수의 사용 가능한 하이퍼 파라미터 모든 모델 아키텍처에 대해 전이 학습 스크립트 동작을 균일하게 조정할 수 있습니다. 이러한 하이퍼파라미터는 데이터 확대 및 전처리, 최적화 사양, 과적합 제어 및 훈련 가능한 계층 표시기와 관련이 있습니다. 애플리케이션에 필요한 경우 이러한 하이퍼파라미터의 기본값을 조정하는 것이 좋습니다.
이 분석 및 관련 노트북의 경우 학습률, 에포크 수 및 조기 중지 사양을 제외한 모든 하이퍼파라미터가 기본값으로 설정됩니다. 학습 속도는 다음과 같이 조정됩니다. 범주형 매개변수 로 SageMaker 자동 모델 튜닝 직업. 각 모델에는 고유한 기본 하이퍼파라미터 값이 있으므로 가능한 학습률의 개별 목록에는 기본 학습률과 기본 학습률의 10/XNUMX이 포함됩니다. 이렇게 하면 단일 하이퍼파라미터 튜닝 작업에 대해 두 개의 교육 작업이 시작되고 검증 데이터 세트에서 가장 보고된 성능이 우수한 교육 작업이 선택됩니다. Epoch의 수는 기본 하이퍼파라미터 설정보다 큰 XNUMX개로 설정되어 있기 때문에 선택된 최상의 훈련 작업이 항상 기본 학습률과 일치하지는 않습니다. 마지막으로, 인내심을 가지고 조기 중지 기준을 사용하거나 개선 없이 훈련을 계속하는 에포크의 수인 XNUMX개의 에포크를 사용합니다.
특히 중요한 기본 하이퍼파라미터 설정은 다음과 같습니다. train_only_on_top_layer
, 여기서 로 설정한 경우 True
, 모델의 특징 추출 계층은 제공된 교육 데이터 세트에서 미세 조정되지 않습니다. 옵티마이저는 데이터 세트의 클래스 레이블 수와 동일한 출력 차원으로 완전히 연결된 최상위 분류 계층의 매개변수만 훈련합니다. 기본적으로 이 하이퍼파라미터는 True
, 작은 데이터 세트에 대한 전이 학습을 대상으로 하는 설정입니다. ImageNet 데이터 세트에 대한 사전 교육에서 추출한 기능이 충분하지 않은 사용자 지정 데이터 세트가 있을 수 있습니다. 이 경우 다음을 설정해야 합니다. train_only_on_top_layer
에 False
. 이 설정은 학습 시간을 늘리지만 관심 있는 문제에 대해 더 의미 있는 기능을 추출하여 정확도를 높입니다.
CloudWatch Logs에서 지표 추출
JumpStart TensorFlow 이미지 분류 알고리즘은 교육 중에 SageMaker에서 액세스할 수 있는 다양한 지표를 안정적으로 기록합니다. Estimator
및 HyperparameterTuner 객체. SageMaker의 생성자 Estimator
있다 metric_definitions
두 개의 키가 있는 사전 목록을 제공하여 학습 작업을 평가하는 데 사용할 수 있는 키워드 인수: Name은 메트릭 이름 및 Regex
로그에서 메트릭을 추출하는 데 사용되는 정규식의 경우. 동반 수첩 구현 세부 정보를 보여줍니다. 다음 표에는 모든 JumpStart TensorFlow 이미지 분류 모델에 대해 사용 가능한 메트릭 및 관련 정규 표현식이 나열되어 있습니다.
메트릭 이름 | 정규 표현식 |
매개변수의 수 | "- 매개변수 개수: ([0-9\.]+)" |
훈련 가능한 매개변수의 수 | "- 훈련 가능한 매개변수의 수: ([0-9\.]+)" |
학습할 수 없는 매개변수의 수 | "- 학습할 수 없는 매개변수의 수: ([0-9\.]+)" |
학습 데이터세트 측정항목 | f”- {메트릭}: ([0-9\.]+)” |
유효성 검사 데이터 세트 측정항목 | f”- val_{metric}: ([0-9\.]+)” |
테스트 데이터세트 측정항목 | f”- 테스트 {메트릭}: ([0-9\.]+)” |
기차 시간 | "- 총 훈련 기간: ([0-9\.]+)" |
에포크당 훈련 시간 | "- 에포크당 평균 훈련 기간: ([0-9\.]+)" |
테스트 평가 대기 시간 | "- 테스트 평가 대기 시간: ([0-9\.]+)" |
샘플당 테스트 대기 시간 | "- 샘플당 평균 테스트 대기 시간: ([0-9\.]+)" |
테스트 처리량 | "- 평균 테스트 처리량: ([0-9\.]+)" |
기본 제공 전이 학습 스크립트는 f-문자열 대체 값으로 표시되는 이러한 정의 내에서 다양한 학습, 검증 및 테스트 데이터 세트 메트릭을 제공합니다. 사용 가능한 정확한 메트릭은 수행 중인 분류 유형에 따라 다릅니다. 컴파일된 모든 모델에는 loss
메트릭은 이진 또는 범주 분류 문제에 대한 교차 엔트로피 손실로 표시됩니다. 전자는 하나의 클래스 레이블이 있을 때 사용됩니다. 후자는 두 개 이상의 클래스 레이블이 있는 경우에 사용됩니다. 단일 클래스 레이블만 있는 경우 앞의 표에 있는 f-string 정규식을 통해 다음 메트릭이 계산, 기록 및 추출 가능합니다.true_pos
), 위양성 수(false_pos
), 진음성 수(true_neg
), 위음성 수(false_neg
), precision
, recall
, 수신기 작동 특성(ROC) 곡선 아래 영역(auc
) 및 PR(Precision-Recall) 곡선 아래 영역(prc
). 마찬가지로 클래스 레이블이 5개 이상인 경우 상위 XNUMX개 정확도 지표(top_5_accuracy
)도 앞의 정규식을 통해 계산, 기록 및 추출할 수 있습니다.
교육 중에 SageMaker에 지정된 지표 Estimator
CloudWatch Logs로 내보내집니다. 교육이 완료되면 다음을 호출할 수 있습니다. SageMaker DescriptionTrainingJob API 그리고 검사하십시오 FinalMetricDataList
JSON 응답의 키:
이 API는 쿼리에 작업 이름만 제공하면 되므로 교육 작업 이름이 적절하게 기록되고 복구 가능한 한 완료되면 향후 분석에서 메트릭을 얻을 수 있습니다. 이 모델 선택 작업의 경우 하이퍼파라미터 튜닝 작업 이름이 저장되고 후속 분석에서 HyperparameterTuner
개체에 튜닝 작업 이름이 지정되면 첨부된 하이퍼파라미터 튜너에서 최상의 훈련 작업 이름을 추출한 다음 DescribeTrainingJob
최상의 교육 작업과 관련된 측정항목을 얻기 위해 앞서 설명한 API입니다.
비동기 초매개변수 조정 작업 실행
해당 참조 수첩 Python 표준 라이브러리의 동시 선물 콜러블을 비동기적으로 실행하기 위한 고수준 인터페이스인 모듈. 이 솔루션에는 여러 SageMaker 관련 고려 사항이 구현되어 있습니다.
- 각 AWS 계정은 SageMaker 서비스 할당량. 현재 제한을 확인하여 리소스를 최대한 활용하고 잠재적으로 필요에 따라 리소스 제한 증가를 요청해야 합니다.
- 많은 동시 하이퍼파라미터 튜닝 작업을 생성하기 위한 빈번한 API 호출은 Python SDK 속도를 초과하고 조절 예외를 발생시킵니다.. 이에 대한 해결책은 사용자 지정 재시도 구성으로 SageMaker Boto3 클라이언트를 생성하는 것입니다.
- 스크립트에 오류가 발생하거나 완료되기 전에 스크립트가 중지되면 어떻게 됩니까? 이러한 대규모 모델 선택 또는 벤치마킹 연구의 경우 튜닝 작업 이름을 기록하고 다음을 위한 편의 기능을 제공할 수 있습니다. 초매개변수 조정 작업 다시 연결 이미 존재하는 것:
분석 내용 및 토론
이 게시물의 분석은 다음에 대한 전이 학습을 수행합니다. 모델 ID Caltech-256 데이터 세트의 JumpStart TensorFlow 이미지 분류 알고리즘에서. 모든 교육 작업은 단일 NVIDIA T4 GPU가 포함된 SageMaker 교육 인스턴스 ml.g4dn.xlarge에서 수행되었습니다.
테스트 데이터 세트는 교육 종료 시 교육 인스턴스에서 평가됩니다. 모델 선택은 테스트 데이터 세트 평가 전에 수행되어 모델 가중치를 최고의 검증 세트 성능을 가진 에포크로 설정합니다. 테스트 처리량이 최적화되지 않음: 데이터 세트 배치 크기가 GPU 메모리 사용을 최대화하도록 조정되지 않은 기본 학습 하이퍼파라미터 배치 크기로 설정됩니다. 보고된 테스트 처리량에는 데이터 세트가 사전 캐시되지 않았기 때문에 데이터 로드 시간이 포함됩니다. 여러 GPU에 걸친 분산 추론은 활용되지 않습니다. 이러한 이유로 이 처리량은 좋은 상대적 측정이지만 실제 처리량은 학습된 모델에 대한 추론 엔드포인트 배포 구성에 따라 크게 달라집니다.
JumpStart 모델 허브에는 많은 이미지 분류 아키텍처 유형이 포함되어 있지만 이 파레토 프론티어는 선택된 Swin, EfficientNet 및 MobileNet 모델에 의해 지배됩니다. Swin 모델은 더 크고 상대적으로 더 정확하지만 MobileNet 모델은 더 작고 상대적으로 덜 정확하며 모바일 장치의 리소스 제약에 적합합니다. 이 프론티어는 사용된 정확한 데이터 세트와 선택된 미세 조정 하이퍼파라미터를 포함하여 다양한 요인에 따라 조정된다는 점에 유의하는 것이 중요합니다. 사용자 지정 데이터 세트가 다른 파레토 효율적인 솔루션 세트를 생성한다는 것을 알 수 있으며 모델의 최상위 분류 계층보다 더 많은 데이터 확대 또는 미세 조정과 같은 다양한 하이퍼 매개 변수로 더 긴 교육 시간을 원할 수 있습니다.
결론
이 게시물에서는 JumpStart 모델 허브를 사용하여 대규모 모델 선택 또는 벤치마킹 작업을 실행하는 방법을 보여주었습니다. 이 솔루션은 귀하의 필요에 가장 적합한 모델을 선택하는 데 도움이 될 수 있습니다. 우리는 당신이 이것을 시도하고 탐구하는 것이 좋습니다 해결책 자신의 데이터 세트에.
참고자료
자세한 정보는 다음 리소스에서 확인할 수 있습니다.
저자 소개
카일 울리히 박사 는 응용 과학자입니다. Amazon SageMaker 내장 알고리즘 팀. 그의 연구 관심사는 확장 가능한 기계 학습 알고리즘, 컴퓨터 비전, 시계열, 베이지안 비모수 및 가우시안 프로세스를 포함합니다. Duke University에서 박사 학위를 받았으며 NeurIPS, Cell 및 Neuron에 논문을 발표했습니다.
Ashish Khetan 박사 는 수석 응용 과학자입니다. Amazon SageMaker 내장 알고리즘 기계 학습 알고리즘을 개발하는 데 도움이 됩니다. 그는 University of Illinois Urbana Champaign에서 박사 학위를 받았습니다. 그는 머신 러닝 및 통계 추론 분야의 활발한 연구원이며 NeurIPS, ICML, ICLR, JMLR, ACL 및 EMNLP 컨퍼런스에서 많은 논문을 발표했습니다.
- SEO 기반 콘텐츠 및 PR 배포. 오늘 증폭하십시오.
- 플라토 블록체인. Web3 메타버스 인텔리전스. 지식 증폭. 여기에서 액세스하십시오.
- 출처: https://aws.amazon.com/blogs/machine-learning/image-classification-model-selection-using-amazon-sagemaker-jumpstart/
- 10
- 100
- 7
- 9
- a
- 소개
- ACCESS
- 얻기 쉬운
- 계정
- 정확한
- 달성
- 가로질러
- 활동적인
- 또한
- 주소
- 구애
- 조정
- 제휴사
- 반대
- 연산
- 알고리즘
- All
- 이미
- 이기는하지만
- 항상
- 아마존
- 아마존 세이지 메이커
- Amazon SageMaker 점프스타트
- 복수
- 분석
- 및
- 다른
- API를
- 어플리케이션
- 적용된
- 적절하게
- 아키텍처
- 지역
- 논의
- 관련
- 붙이다
- 시도
- Automatic
- 가능
- 평균
- AWS
- 기반으로
- 베이지안
- 때문에
- 전에
- 존재
- 벤치마킹
- BEST
- 큰
- 내장
- 사업
- 통화
- 후보자
- 가지 경우
- 카테고리
- 도전
- 특성
- 왼쪽 메뉴에서
- 수업
- 분류
- 분류
- 클라이언트
- 결합 된
- 공통의
- 비교
- 완전한
- 진행완료
- 완성
- 복잡성
- 컴퓨터
- 컴퓨터 비전
- 우려 사항
- 회의
- 구성
- 연결
- 연결
- 고려 사항
- 제약
- 이 포함되어 있습니다
- 계속
- 제어
- 컨트롤
- 편의
- 동
- 엄호
- 만들
- Current
- 곡선
- 관습
- 데이터
- 데이터 세트
- 깊이
- 태만
- 따라
- 배포
- 배치
- 전개
- 깊이
- 기술 된
- 설명
- 세부설명
- 개발
- 디바이스
- 다른
- 토론
- 분산
- 몇몇의
- 하지 않습니다
- 공작
- 듀크 대학
- ...동안
- 마다
- 이전
- 초기의
- 쉽게
- 효율적인
- 중
- 제거
- 가능
- 격려
- 격려
- 끝으로 종료
- 종점
- 환경
- 시대
- 신기원
- 오류
- 평가
- 평가
- 평가
- 예
- 예
- 외
- 탐험
- 탐색
- 표현
- 추출물
- 요인
- 공정한
- 선호
- 특색
- 특징
- Fields
- 그림
- 최종적으로
- Find
- 먼저,
- 입어 보기
- 수행원
- 이전
- 에
- 변경
- 프론티어
- 충분히
- 기능
- 미래
- 선물
- 생성
- 얻을
- 주어진
- 글로벌
- 좋은
- GPU
- GPU
- 큰
- 큰
- 초록색
- 발생
- 무겁게
- 도움
- 도움이
- 고수준
- 높은 품질의
- 더 높은
- 방법
- How To
- HTML
- HTTPS
- 허브
- 수백
- 하이퍼 파라미터 튜닝
- 일리노이
- 영상
- 이미지 분류
- 형상
- 구현
- 이행
- 구현
- 중요성
- 중대한
- 개량
- 개선
- in
- 포함
- 포함
- 포함
- 증가
- 증가
- 증가
- 표시
- 정보
- 입력
- 예
- 관심
- 이해
- 인터페이스
- 내부의
- 본래 갖추어 진
- 소개
- IT
- 일
- 작업
- JSON
- 키
- 키
- 라벨
- 레이블
- 넓은
- 대규모
- 큰
- 숨어 있음
- 시작
- 진수
- 층
- 레이어
- 지도
- 배우다
- 배우기
- 리프팅
- 빛
- 제한
- 제한
- 명부
- 기울기
- 로드
- 긴
- 이상
- 오프
- 기계
- 기계 학습
- 유튜브 영상을 만드는 것은
- .
- 극대화하다
- 의미있는
- 측정 시간 상관관계
- 메모리
- 메트릭
- 통계
- ML
- 모바일
- 모바일 장치
- 모델
- 모델
- 모듈
- 배우기
- 여러
- name
- 이름
- 필요한
- 요구
- 네트워크
- 신제품
- 수첩
- 번호
- 엔비디아
- 대상
- 사물
- 관찰
- 획득
- 획득
- ONE
- 운영
- 행정부
- 최적화
- 설명
- 자신의
- 서류
- 매개 변수
- 매개 변수
- 특별한
- 인내
- 수행
- 성능
- 수행하다
- 플라톤
- 플라톤 데이터 인텔리전스
- 플라토데이터
- 포인트 적립
- 전철기
- 인기 문서
- 가능한
- 게시하다
- 잠재적으로
- pr
- 예방
- 이전에
- 문제
- 문제
- 방법
- 프로세스
- 제공
- 제공
- 제공
- 제공
- 출판
- Python
- 문제
- 문의
- 빨리
- 램
- 율
- 거주비용
- 현실 세계
- 이유
- 감소
- 정규병
- 상대적으로
- 제거
- 보고
- 대표
- 대표되는
- 대표
- 의뢰
- 필수
- 요구조건 니즈
- 필요
- 연구
- 연구원
- 분해능
- 의지
- 제품 자료
- 응답
- 결과
- 달리기
- 달리는
- 현자
- 같은
- 확장성
- 과학자
- 스크립트
- SDK
- 검색
- 섹션
- 선택된
- 선택
- 선택
- 연장자
- 연속
- 서비스
- 세션
- 세트
- 설정
- 설정
- 몇몇의
- 셰이프
- 영상을
- 쇼
- 비슷하게
- 단순화
- 단일
- SIX
- 크기
- 크기
- 작은
- 작은
- So
- 해결책
- 솔루션
- 풀다
- 명세서
- 명세서
- 지정
- 표준
- 시작
- 통계적인
- 단계
- 정지
- 멎는
- 저장
- 교육과정
- 후속의
- 이러한
- 충분한
- 적당한
- 테이블
- 대상
- 태스크
- 작업
- 팀
- 텐서 흐름
- test
- XNUMXD덴탈의
- 그들의
- 그것에 의하여
- 세
- 처리량
- 시간
- 시계열
- 시대
- 에
- 오늘
- 함께
- 검색을
- 상단
- 맨 5
- 금액
- Train
- 훈련 된
- 트레이닝
- 이전
- 변압기
- 참된
- 유형
- 궁극적으로
- 아래에
- 유일한
- 대학
- 용법
- 사용
- 활용
- 사용
- 확인
- 마케팅은:
- 종류
- 거대한
- 를 통해
- 관측
- 시력
- 어느
- 동안
- 모든
- 넓은
- 의지
- 이내
- 없이
- 겠지
- 쓰기
- 자신의
- 너의
- 제퍼 넷