PyTorch는 AWS 고객이 컴퓨터 비전, 자연어 처리, 콘텐츠 생성 등과 같은 다양한 애플리케이션에 널리 사용하는 기계 학습(ML) 프레임워크입니다. 최근 PyTorch 2.0 릴리스를 통해 AWS 고객은 이제 PyTorch 1.x로 할 수 있는 것과 동일한 작업을 수행할 수 있지만 향상된 교육 속도, 낮은 메모리 사용량 및 향상된 분산 기능을 통해 더 빠르고 규모가 커집니다. torch.compile, TorchDynamo, AOTAutograd, PrimTorch 및 TorchInductor를 포함한 몇 가지 새로운 기술이 PyTorch2.0 릴리스에 포함되었습니다. 인용하다 PyTorch 2.0: 이전보다 더 빠르고 더 Pythonic하며 동적인 차세대 릴리스 자세한 내용은.
이 게시물은 AWS에서 PyTorch 2.0을 사용하여 대규모 고성능 분산 ML 모델 교육 및 배포를 실행하는 성능과 용이성을 보여줍니다. 이 게시물은 다음을 사용하여 감정 분석을 위한 RoBERTa(Robustly Optimized BERT Pretraining Approach) 모델을 미세 조정하는 단계별 구현을 안내합니다. AWS 딥 러닝 AMI (AWS DLAMI) 및 AWS 딥 러닝 컨테이너 (DLC) 켜기 아마존 엘라스틱 컴퓨트 클라우드 (Amazon EC2 p4d.24xlarge) PyTorch 42 torch.compile + bf2.0 + fused AdamW와 함께 사용할 때 16% 속도 향상이 관찰되었습니다. 그런 다음 미세 조정된 모델이 AWS 그래비톤-기반 C7g EC2 인스턴스 아마존 세이지 메이커 PyTorch 10에 비해 속도가 1.13% 향상되었습니다.
다음 그림은 AWS PyTorch 2 DLAMI + DLC를 사용하여 Amazon EC4 p24d.2.0xlarge에서 RoBERTa 모델을 미세 조정하는 성능 벤치마크를 보여줍니다.
인용하다 AWS Graviton 프로세서로 최적화된 PyTorch 2.0 추론 PyTorch 2.0에 대한 AWS Graviton 기반 인스턴스 추론 성능 벤치마크에 대한 자세한 내용.
AWS에서 PyTorch 2.0 지원
PyTorch2.0 지원은 이 게시물의 예제 사용 사례에 표시된 서비스 및 컴퓨팅으로 제한되지 않습니다. 이 섹션에서 논의하는 AWS의 다른 많은 것들로 확장됩니다.
비즈니스 요구사항
다양한 산업 분야의 많은 AWS 고객은 특히 인간과 유사한 텍스트를 생성하도록 설계된 생성 AI 및 대규모 언어 모델(LLM) 영역에서 인공 지능(AI)을 사용하여 비즈니스를 혁신하고 있습니다. 이들은 기본적으로 수천억 개의 매개변수로 훈련된 딥 러닝 기술을 기반으로 하는 큰 모델입니다. 모델 크기의 증가로 학습 시간이 며칠에서 몇 주로, 경우에 따라 몇 개월로 늘어나고 있습니다. 이로 인해 교육 및 추론 비용이 기하급수적으로 증가하고 있으며, 그 어느 때보다 가속화된 모델 교육 지원 기능이 내장된 PyTorch 2.0과 같은 프레임워크와 특정 워크로드 및 성능 요구 사항에 맞게 조정된 AWS의 최적화된 인프라가 필요합니다.
컴퓨팅 선택
AWS는 모든 ML 프로젝트 또는 애플리케이션에 사용할 수 있고 성능 및 예산 요구 사항에 맞게 사용자 지정할 수 있는 가장 광범위한 강력한 컴퓨팅, 고속 네트워킹 및 확장 가능한 고성능 스토리지 옵션에 대한 PyTorch 2.0 지원을 제공합니다. 이는 다음 섹션의 다이어그램에 명시되어 있습니다. 하위 계층에서는 AWS Graviton, Nvidia, AMD 및 Intel 프로세서로 구동되는 다양한 컴퓨팅 인스턴스를 제공합니다.
모델 배포의 경우 이전 PyTorch 릴리스에 비해 Resnet2.0의 속도가 최대 3.5배, 속도가 최대 50배인 PyTorch 1.4에 대한 추론 성능을 제공하는 최근 발표된 AWS Graviton 기반 인스턴스와 같은 ARM 기반 프로세서를 사용할 수 있습니다. BERT를 위한 속도로 AWS Graviton 기반 인스턴스를 CPU 기반 모델 추론 솔루션을 위한 AWS에서 가장 빠른 컴퓨팅 최적화 인스턴스로 만듭니다.
ML 서비스 선택
AWS 컴퓨팅을 사용하려면 ML 개발, 컴퓨팅 및 워크플로 오케스트레이션을 위한 광범위한 글로벌 클라우드 기반 서비스 세트 중에서 선택할 수 있습니다. 이 선택을 통해 비즈니스 및 클라우드 전략에 맞춰 선택한 플랫폼에서 PyTorch 2.0 작업을 실행할 수 있습니다. 예를 들어 온프레미스 제한이 있거나 오픈 소스 제품에 대한 기존 투자가 있는 경우 Amazon EC2를 사용할 수 있습니다. AWS 병렬 클러스터및 AWS 울트라클러스터 자체 관리 방식을 기반으로 분산 교육 워크로드를 실행합니다. 또한 SageMaker와 같은 완전 관리형 서비스를 사용하여 비용 최적화되고 완전 관리되며 프로덕션 규모의 교육 인프라를 사용할 수 있습니다. 또한 SageMaker는 다양한 MLOps 도구와 통합되어 모델 배포를 확장하고, 추론 비용을 줄이고, 프로덕션에서 모델을 보다 효과적으로 관리하고, 운영 부담을 줄일 수 있습니다.
마찬가지로 기존 Kubernetes 투자가 있는 경우 다음을 사용할 수도 있습니다. Amazon Elastic Kubernetes 서비스 (아마존 EKS) 및 AWS의 Kubeflow 분산 교육을 위한 ML 파이프라인을 구현하거나 다음과 같은 AWS 네이티브 컨테이너 오케스트레이션 서비스를 사용합니다. Amazon 탄력적 컨테이너 서비스 (Amazon ECS) 모델 교육 및 배포용. ML 플랫폼을 구축하는 옵션은 이러한 서비스에 국한되지 않습니다. PyTorch 2.0 작업에 대한 조직 요구 사항에 따라 선택할 수 있습니다.
AWS DLAMI 및 AWS DLC로 PyTorch 2.0 활성화
앞서 언급한 AWS 서비스 스택과 강력한 컴퓨팅을 사용하려면 최적화된 컴파일 버전의 PyTorch2.0 프레임워크와 필요한 종속성을 설치해야 합니다. 이 중 대부분은 독립적인 프로젝트이며 종단 간 테스트해야 합니다. 가속 수학 루틴을 위한 CPU 전용 라이브러리, 가속 수학 및 GPU 간 통신 루틴을 위한 GPU 전용 라이브러리, GPU 라이브러리를 컴파일하는 데 사용되는 GPU 컴파일러와 정렬해야 하는 GPU 드라이버가 필요할 수도 있습니다. 작업에 대규모 다중 노드 교육이 필요한 경우 최저 대기 시간과 최고 처리량을 제공할 수 있는 최적화된 네트워크가 필요합니다. 스택을 구축한 후에는 보안 취약성에 대해 정기적으로 스캔 및 패치하고 프레임워크 버전을 업그레이드할 때마다 스택을 다시 빌드하고 다시 테스트해야 합니다.
AWS는 클라우드에서 딥 러닝을 가속화하기 위해 선별되고 안전한 프레임워크, 종속성 및 도구 세트를 제공하여 이러한 부담을 줄이는 데 도움이 됩니다. AWS DLAMI 및 AWS DLC. 이러한 사전 구축 및 테스트된 머신 이미지 및 컨테이너는 EC2 Accelerated Computing Instance 유형의 딥 러닝에 최적화되어 있으므로 분산 워크로드를 위해 여러 노드로 보다 효율적이고 쉽게 확장할 수 있습니다. 그것은 미리 만들어진 것을 포함합니다 탄성 직물 어댑터 (EFA), Nvidia GPU 스택 및 고성능 분산 딥 러닝 교육을 위한 많은 딥 러닝 프레임워크(TensorFlow, MXNet 및 최신 릴리스 2.0의 PyTorch). 딥 러닝 소프트웨어 및 드라이버를 설치하고 문제를 해결하거나 ML 인프라를 구축하는 데 시간을 들일 필요가 없으며 이러한 이미지에 보안 취약성을 패치하거나 새 프레임워크 버전을 업그레이드할 때마다 이미지를 재생성하는 반복적인 비용이 발생하지 않아도 됩니다. 대신 더 짧은 시간에 대규모 작업을 교육하고 ML 모델을 더 빠르게 반복하는 더 높은 부가가치 노력에 집중할 수 있습니다.
솔루션 개요
GPU에 대한 교육 및 CPU에 대한 추론이 AWS 고객에게 널리 사용되는 사용 사례임을 고려하여 이 게시물의 일부로 하이브리드 아키텍처의 단계별 구현을 포함했습니다(다음 다이어그램 참조). RoBERTa 감정 분석 모델을 미세 조정하기 위해 NVIDIA 드라이버, CUDA, NCCL, EFA 스택 및 PyTorch4 DLC를 포함하여 기본 GPU DLAMI로 초기화된 BF2 지원이 포함된 P16 EC2.0 인스턴스를 사용하여 가능한 예술을 탐색하고 사용합니다. 오픈 소스 또는 독점 라이브러리를 사용할 수 있는 제어 및 유연성을 제공합니다. 그런 다음 완벽하게 관리되는 모델 호스팅 인프라에 SageMaker를 사용하여 AWS Graviton3 기반에서 모델을 호스팅합니다. C7g 인스턴스. SageMaker에서 C7g를 선택한 이유는 비교 가능한 EC50 인스턴스에 비해 추론 비용을 최대 2%까지 줄이는 것으로 입증되었기 때문입니다. 실시간 추론 SageMaker에서. 다음 다이어그램은 이 아키텍처를 보여줍니다.
이 사용 사례의 모델 교육 및 호스팅은 다음 단계로 구성됩니다.
- VPC에서 GPU DLAMI 기반 EC2 Ubuntu 인스턴스를 시작하고 SSH를 사용하여 인스턴스에 연결합니다.
- EC2 인스턴스에 로그인한 후 AWS PyTorch 2.0 DLC를 다운로드합니다.
- 모델 학습 스크립트로 DLC 컨테이너를 실행하여 RoBERTa 모델을 미세 조정하십시오.
- 모델 교육이 완료되면 저장된 모델, 추론 스크립트 및 몇 가지 메타데이터 파일을 SageMaker 추론이 사용할 수 있는 tar 파일로 패키징하고 모델 패키지를 아마존 단순 스토리지 서비스 (Amazon S3) 버킷.
- SageMaker를 사용하여 모델을 배포하고 HTTPS 추론 엔드포인트를 생성합니다. SageMaker 추론 엔드포인트는 로드 밸런서와 서로 다른 가용 영역에 있는 하나 이상의 추론 컨테이너 인스턴스를 보유합니다. 동일한 모델의 여러 버전 또는 이 단일 엔드포인트 뒤에 완전히 다른 모델을 배포할 수 있습니다. 이 예에서는 단일 모델을 호스팅합니다.
- 테스트 데이터를 전송하여 모델 엔드포인트를 호출하고 추론 출력을 확인합니다.
다음 섹션에서는 감정 분석을 위해 RoBERTa 모델을 미세 조정하는 방법을 보여줍니다. RoBERTa는 Facebook AI에서 개발되었으며 주요 하이퍼파라미터를 수정하고 더 큰 말뭉치에서 사전 훈련함으로써 인기 있는 BERT 모델을 개선합니다. 이로 인해 바닐라 BERT에 비해 성능이 향상됩니다.
우리는을 사용하여 변압기 Hugging Face의 라이브러리를 사용하여 약 124억 XNUMX만 개의 트윗에 대해 사전 훈련된 RoBERTa 모델을 얻고 감정 분석을 위해 Twitter 데이터 세트에서 미세 조정합니다.
사전 조건
다음 전제 조건을 충족하는지 확인하십시오.
- 당신은이 AWS 계정.
- 당신이에 있는지 확인하십시오
us-west-2
이 예제를 실행할 지역입니다. (이 예는us-west-2
; 그러나 다른 리전에서 실행할 수 있습니다.) - 역할 만들기 이름이 적힌
sagemakerrole
. 관리형 정책 추가AmazonSageMakerFullAccess
및AmazonS3FullAccess
SageMaker에 S3 버킷에 대한 액세스 권한을 부여합니다. - EC2 역할 생성 이름이 적힌
ec2_role
. 다음 권한 정책을 사용합니다.
1. 개발 인스턴스 시작
4개의 NVIDIA A24 Tensor Core GPU를 제공하는 p8d.100xlarge 인스턴스를 생성합니다. us-west-2
:
AMI를 선택할 때 다음을 따르십시오. 릴리즈 노트 다음을 사용하여 이 명령을 실행하려면 AWS 명령 줄 인터페이스 (AWS CLI)에서 사용할 AMI ID 찾기 us-west-2
:
gp3 루트 볼륨의 크기가 200GiB인지 확인하십시오.
EBS 볼륨 암호화는 기본적으로 활성화되어 있지 않습니다. 이 솔루션을 프로덕션으로 이동할 때 이를 변경하는 것이 좋습니다.
2. 딥 러닝 컨테이너 다운로드
AWS DLC는 다음에서 Docker 이미지로 사용할 수 있습니다. Amazon Elastic Container Registry 공개, 안전하고 확장 가능하며 신뢰할 수 있는 관리형 AWS 컨테이너 이미지 레지스트리 서비스입니다. 각 Docker 이미지는 CPU 또는 GPU를 지원하는 특정 딥 러닝 프레임워크 버전인 Python 버전에 대한 교육 또는 추론을 위해 빌드됩니다. 사용 가능한 목록에서 PyTorch 2.0 프레임워크를 선택합니다. 딥 러닝 컨테이너 이미지.
DLC를 다운로드하려면 다음 단계를 완료하세요.
ㅏ. 인스턴스에 대한 SSH. 기본적으로 EC2와 함께 사용되는 보안 그룹은 모두에게 SSH 포트를 개방합니다. 이 솔루션을 프로덕션으로 옮기는 경우 다음 사항을 고려하십시오.
기본적으로 Amazon EC2와 함께 사용되는 보안 그룹은 모두에게 SSH 포트를 엽니다. 이 솔루션을 프로덕션으로 이동하는 경우 이를 변경하는 것이 좋습니다.
비. 이 구현의 나머지 단계를 실행하는 데 필요한 환경 변수를 설정합니다.
Amazon ECR은 다음을 사용하여 리소스 기반 권한이 있는 퍼블릭 이미지 리포지토리를 지원합니다. AWS 자격 증명 및 액세스 관리 (IAM) 특정 사용자 또는 서비스가 이미지에 액세스할 수 있도록 합니다.
씨. DLC 레지스트리에 로그인:
디. GPU를 지원하는 최신 PyTorch 2.0 컨테이너를 us-west-2
"장치에 남은 공간이 없습니다" 오류가 표시되면 다음을 확인하십시오. 증가하다 EC2 EBS 볼륨을 200GiB로 확장 리눅스 파일 시스템.
3. PyTorch 2.0에 적용된 최신 스크립트 복제
다음 코드를 사용하여 스크립트를 복제합니다.
최신 버전 4.28.1에서 Hugging Face 변환기 API를 사용하고 있기 때문에 이미 PyTorch 2.0 지원이 활성화되었습니다. 트레이너 API에 다음 인수를 추가했습니다. train_sentiment.py
새로운 PyTorch 2.0 기능을 활성화하려면:
- 토치 컴파일 – 한 줄의 변경으로 Nvidia A43 GPU에서 평균 100%의 속도 향상을 경험하십시오.
- BF16 데이터 유형 – Ampere 또는 최신 GPU에 대한 새로운 데이터 유형 지원(Brain Floating Point).
- 융합된 AdamW 옵티마이저 – AdamW 구현을 융합하여 훈련 속도를 더욱 높였습니다. 이 확률적 최적화 방법은 그래디언트 업데이트에서 가중치 감쇠를 분리하여 Adam의 일반적인 가중치 감쇠 구현을 수정합니다.
4. 종속성이 있는 새 Docker 이미지 빌드
사전 빌드된 PyTorch 2.0 DLC 이미지를 확장하여 모델을 미세 조정하는 데 필요한 Hugging Face 변환기 및 기타 라이브러리를 설치합니다. 이를 통해 처음부터 이미지를 만들지 않고도 포함된 테스트되고 최적화된 딥 러닝 라이브러리 및 설정을 사용할 수 있습니다. 다음 코드를 참조하십시오.
5. 컨테이너를 사용하여 교육 시작
다음 Docker 명령을 실행하여 모델 미세 조정을 시작합니다. tweet_eval
감성 데이터셋. Docker 컨테이너 인수(공유 메모리 크기, 최대 잠금 메모리 및 스택 크기)를 사용하고 있습니다. 엔비디아 추천 딥 러닝 워크로드용.
다음 출력을 예상해야 합니다. 스크립트는 먼저 Twitter에서 XNUMX개의 이기종 작업으로 구성된 TweetEval 데이터 세트를 다운로드하며 모두 다중 클래스 트윗 분류로 구성됩니다. 작업에는 아이러니, 증오, 공격, 입장, 이모티콘, 감정 및 정서가 포함됩니다.
그런 다음 스크립트는 기본 모델을 다운로드하고 미세 조정 프로세스를 시작합니다. 교육 및 평가 지표는 각 에포크가 끝날 때 보고됩니다.
실적 통계
PyTorch 2.0 및 최신 Hugging Face 변환기 라이브러리 4.28.1을 사용하여 42개의 A4 24GB GPU가 있는 단일 p8d.100xlarge 인스턴스에서 40% 속도 향상을 관찰했습니다. 성능 향상은 torch.compile, BF16 데이터 유형 및 융합된 AdamW 옵티마이저의 조합에서 비롯됩니다. 다음 코드는 새로운 기능이 있거나 없는 두 가지 교육 실행의 최종 결과입니다.
6. SageMaker 추론을 준비하기 전에 훈련된 모델을 로컬에서 테스트합니다.
아래에서 다음 파일을 찾을 수 있습니다. $ml_working_dir/saved_model/
훈련 후:
SageMaker 추론을 준비하기 전에 로컬에서 추론을 실행할 수 있는지 확인합시다. 저장된 모델을 로드하고 다음을 사용하여 로컬에서 추론을 실행할 수 있습니다. test_trained_model.py
스크립트:
"Covid 사례가 빠르게 증가하고 있습니다!"라는 입력과 함께 다음 출력을 예상해야 합니다.
7. SageMaker 추론을 위한 모델 tarball 준비
모델이 있는 디렉토리 아래에 라는 새 디렉토리를 만듭니다. code
:
새 디렉터리에서 파일을 만듭니다. inference.py
다음을 추가하십시오.
최종적으로 다음과 같은 폴더 구조가 있어야 합니다.
이 모델은 SageMaker 추론과 함께 사용할 수 있도록 패키징하고 Amazon S3에 업로드할 준비가 되었습니다.
8. SageMaker AWS Graviton 인스턴스에 모델 배포
차세대 CPU는 특수 내장 명령으로 인해 ML 추론에서 상당한 성능 향상을 제공합니다. 이 사용 사례에서는 AWS Graviton3 기반 C7g 인스턴스와 함께 SageMaker 완전 관리형 호스팅 인프라를 사용합니다. AWS는 또한 Torch Hub ResNet50에서 AWS Graviton3 기반 EC2 C7g 인스턴스를 사용한 PyTorch 추론과 비교 가능한 EC50 인스턴스에 비해 여러 Hugging Face 모델에서 최대 2%의 비용 절감을 측정했습니다.
모델을 AWS Graviton 인스턴스에 배포하기 위해 PyTorch 2.0 및 TorchServe 0.8.0을 지원하는 AWS DLC를 사용합니다. 나만의 용기 가져오기 ARMv8.2 아키텍처와 호환됩니다.
이전에 학습한 모델을 사용합니다. s3://<your-s3-bucket>/twitter-roberta-base-sentiment-latest.tar.gz
. 이전에 SageMaker를 사용한 적이 없다면 검토하십시오. Amazon SageMaker 시작하기.
시작하려면 SageMaker 패키지가 최신인지 확인하십시오.
이것은 예시이므로 다음과 같은 파일을 생성합니다. start_endpoint.py
다음 코드를 추가합니다. 이것은 다음 모드로 SageMaker 추론 엔드포인트를 시작하는 Python 스크립트입니다.
인스턴스에 ml.c7g.4xlarge를 사용하고 있으며 이미지 범위로 PT 2.0을 검색하고 있습니다. inference_graviton
. 이것은 AWS Graviton3 인스턴스입니다.
다음으로 예측을 실행하는 파일을 만듭니다. 우리는 이것을 별도의 스크립트로 수행하여 원하는 만큼 예측을 실행할 수 있습니다. 만들다 predict.py
다음 코드로 :
생성된 스크립트를 사용하여 이제 끝점을 시작하고 끝점에 대해 예측을 수행하고 완료되면 정리할 수 있습니다.
9. 정리
마지막으로 이 예제에서 정리하고 싶습니다. cleanup.py를 만들고 다음 코드를 추가합니다.
결론
AWS DLAMI 및 DLC는 AWS의 다양한 컴퓨팅 및 ML 서비스에서 딥 러닝 워크로드를 실행하기 위한 기본 표준이 되었습니다. AWS ML 서비스에서 프레임워크별 DLC를 사용하는 것과 함께 Amazon EC2에서 단일 프레임워크를 사용할 수도 있으므로 개발자가 딥 러닝 애플리케이션을 구축하고 유지 관리하는 데 필요한 무거운 작업을 제거할 수 있습니다. 인용하다 DLAMI 릴리스 정보 및 사용 가능한 딥 러닝 컨테이너 이미지 시작하는.
이 게시물은 AWS에서 다음 모델을 교육하고 제공할 수 있는 많은 가능성 중 하나를 보여주고 비즈니스 목표를 달성하기 위해 채택할 수 있는 여러 형식에 대해 논의했습니다. 이 예제를 시도하거나 다른 AWS ML 서비스를 사용하여 비즈니스의 데이터 생산성을 확장하십시오. ML을 처음 사용하는 고객이 AWS에서 PyTorch 2.0을 시작하는 것이 얼마나 간단한지 이해할 수 있도록 간단한 감정 분석 문제를 포함했습니다. 향후 블로그 게시물에서 고급 사용 사례, 모델 및 AWS 기술을 다룰 예정입니다.
저자 소개
칸월짓 쿠르미 Amazon Web Services의 수석 솔루션 아키텍트입니다. 그는 AWS 고객과 협력하여 AWS를 사용할 때 솔루션의 가치를 개선하는 데 도움이 되는 지침과 기술 지원을 제공합니다. Kanwaljit는 컨테이너화된 머신 러닝 애플리케이션으로 고객을 지원하는 것을 전문으로 합니다.
마이크 슈나이더 Phoenix AZ에 기반을 둔 시스템 개발자입니다. Graviton Inference를 포함하여 다양한 프레임워크 컨테이너 이미지를 지원하는 Deep Learning 컨테이너의 구성원입니다. 그는 인프라 효율성과 안정성에 전념하고 있습니다.
라이 웨이 Amazon Web Services의 수석 소프트웨어 엔지니어입니다. 그는 분산 모델 교육을 가속화하기 위해 사용하기 쉽고 고성능이며 확장 가능한 딥 러닝 프레임워크를 구축하는 데 주력하고 있습니다. 직장 밖에서는 가족과 함께 시간을 보내고 하이킹과 스키를 즐깁니다.
- SEO 기반 콘텐츠 및 PR 배포. 오늘 증폭하십시오.
- PlatoAiStream. Web3 데이터 인텔리전스. 지식 증폭. 여기에서 액세스하십시오.
- 미래 만들기 w Adryenn Ashley. 여기에서 액세스하십시오.
- PREIPO®로 PRE-IPO 회사의 주식을 사고 팔 수 있습니다. 여기에서 액세스하십시오.
- 출처: https://aws.amazon.com/blogs/machine-learning/part-1-build-high-performance-ml-models-using-pytorch-2-0-on-aws/
- :있다
- :이다
- :아니
- :어디
- $UP
- 1
- 10
- 100
- 11
- 12
- 13
- 14
- 15%
- 16
- 17
- 20
- 200
- 23
- 25
- 26%
- 28
- 31
- 7
- 8
- 9
- a
- 가속
- 가속 된
- 가속하는
- 수락
- ACCESS
- 가로질러
- 동작
- 아담
- 더하다
- 추가
- 채택
- 많은
- 후
- 반대
- AI
- 일직선으로하다
- 정렬 된
- All
- 수
- 허용
- 수
- 따라
- 이미
- 또한
- 아마존
- Amazon EC2
- Amazon Web Services
- AMD
- 양
- an
- 분석
- 분석하다
- 및
- 발표
- 다른
- 어떤
- API를
- 어플리케이션
- 어플리케이션
- 접근
- 대략
- 아키텍처
- 있군요
- 지역
- 논의
- 인수
- 인조의
- 인공 지능
- 인공 지능(AI)
- AS
- 원조
- At
- 유효성
- 가능
- 평균
- AWS
- 그네
- 기지
- 기반으로
- 원래
- BE
- 때문에
- 가
- 된
- 전에
- 시작하다
- 뒤에
- 기준
- 벤치 마크
- 큰
- 수십억
- BIN
- 블로그
- 블로그 게시물
- 몸
- 바닥
- 뇌
- 넓은
- 예산
- 빌드
- 건물
- 내장
- 내장
- 부담
- 사업
- 사업
- 비자 면제 프로그램에 해당하는 국가의 시민권을 가지고 있지만
- by
- 전화
- 라는
- 부름
- CAN
- 기능
- 케이스
- 가지 경우
- CD
- 이전 단계로 돌아가기
- 변화
- 선택
- 왼쪽 메뉴에서
- 분류
- 클라이언트
- 클라우드
- 암호
- COM
- 결합
- 제공
- 의사 소통
- 유사한
- 비교
- 호환
- 완전한
- 계산
- 컴퓨터
- 컴퓨터 비전
- 컴퓨팅
- 연결하기
- 고려
- 구성
- 콘솔에서
- 컨테이너
- 용기
- 함유량
- 콘텐츠 제작
- 제어
- 핵심
- 비용
- 비용 절감
- 비용
- 수
- 피복
- 만들
- 만든
- 창조
- 신임장
- 기획
- Current
- 고객
- 사용자 정의
- 데이터
- 날짜
- 일
- 전용
- 깊은
- 깊은 학습
- 태만
- 보여줍니다
- 의존
- 배포
- 배포
- 전개
- 배포
- 설계
- 세부설명
- 개발
- 개발자
- 개발자
- 개발
- 다른
- 요람
- 토론
- 논의 된
- 분산
- 분산 교육
- 몇몇의
- do
- 도커
- 한
- 말라
- 다운로드
- 다운로드
- 운전사
- 드라이버
- 운전
- 두
- 동적
- 마다
- 이전
- 완화
- 용이하게
- 쉽게
- 효과
- 효과적으로
- 효율성
- 효율적으로
- 노력
- 중
- 가능
- 사용 가능
- 암호화
- end
- 종점
- 기사
- 강화
- 전적으로
- 환경
- 시대
- 오류
- 평가
- 평가
- 조차
- EVER
- 모든
- 예
- 현존하는
- 펼치기
- 기대
- 경험
- 탐험
- 기하 급수적 인
- 수출
- 확장
- 확장하다
- 구조
- 페이스메이크업
- 페이스북
- 가족
- 빠른
- 가장 빠른
- 특징
- 를
- 그림
- 입양 부모로서의 귀하의 적합성을 결정하기 위해 미국 이민국에
- 파일
- 최후의
- Find
- 먼저,
- 맞게
- 유연성
- 떠 있는
- 초점
- 초점
- 따라
- 수행원
- 럭셔리
- 뼈대
- 프레임 워크
- 에
- 충분히
- 추가
- 생성
- 생성
- 세대
- 세대
- 생성적인
- 제너레이티브 AI
- 얻을
- 힘내
- GitHub의
- 주기
- 제공
- 글로벌
- GPU
- GPU
- 그룹
- 성장
- 지도
- 있다
- 데
- he
- 무거운
- 무거운 리프팅
- 도움이
- 도움이
- 고성능
- 더 높은
- 최고
- 그의
- 보유
- 주인
- 호스팅
- 방법
- 그러나
- HTML
- HTTP
- HTTPS
- 허브
- 수백
- 잡종
- ID
- 통합 인증
- if
- 설명하다
- 영상
- 형상
- 구현
- 이행
- import
- 개선
- 개선하는
- 개량
- 개량
- 개선
- in
- 포함
- 포함
- 포함
- 포함
- 증가
- 증가
- 독립
- 산업
- 인프라
- 입력
- 설치
- 설치
- 설치
- 예
- 를 받아야 하는 미국 여행자
- 명령
- 통합
- 인텔
- 인텔리전스
- 으로
- 투자
- IP
- 아이러니
- IT
- 그
- 작업
- JPG
- JSON
- 키
- 라벨
- 언어
- 넓은
- 대규모
- 큰
- 숨어 있음
- 최근
- 최신 릴리스
- 시작
- 오퍼
- 배우기
- 왼쪽 (left)
- 도서관
- 도서관
- 리프팅
- 처럼
- 제한된
- 라인
- 리눅스
- 명부
- 하중
- 장소 상에서
- 위치한
- 고정
- 기록
- 로그인
- 오프
- 절감
- 가장 낮은
- 기계
- 기계 학습
- 유지하다
- 확인
- 유튜브 영상을 만드는 것은
- 관리
- 관리
- .
- math
- 최대
- XNUMX월..
- 소개
- 회원
- 메모리
- 합병
- 메타 데이터
- 방법
- 통계
- 백만
- ML
- MLOps
- 모드
- 모델
- 모델
- 모듈
- 개월
- 배우기
- 움직이는
- 여러
- name
- 자연의
- 자연 언어 처리
- 필요한
- 필요
- 필요
- 요구
- 부정
- 네트워크
- 네트워킹
- 중립의
- 신제품
- 새로운 기능
- 새로운 기술
- 다음 것
- 노드
- 노트
- 알아채다..
- 지금
- 엔비디아
- 목표
- of
- 공격
- 제공
- 제공
- 제공
- on
- ONE
- 오픈 소스
- 열립니다
- 운영
- 최적화
- 최적화
- 옵션
- or
- 오케스트레이션
- 조직
- OS
- 기타
- 기타
- 우리의
- 아웃
- 출력
- 외부
- 자신의
- 꾸러미
- 포장하는
- 매개 변수
- 부품
- 패치
- 패치
- 성능
- 허가
- 권한
- 피닉스
- 선택
- 뽑힌
- 관로
- 플랫폼
- 플라톤
- 플라톤 데이터 인텔리전스
- 플라토데이터
- 부디
- 포인트 적립
- 정책
- 정책
- 인기 문서
- 가능성
- 게시하다
- 게시물
- powered
- 강한
- 예측
- 예측
- 예측
- Prepare
- 준비
- 전제 조건
- 너무 이른
- 교장
- 문제
- 방법
- 처리
- 가공업자
- 생산
- 생산력
- 제품
- 프로젝트
- 프로젝트
- 소유권
- 증명 된
- 제공
- 제공
- 공개
- 놓다
- Python
- 파이 토치
- 준비
- 최근
- 최근에
- 반복
- 감소
- 지방
- 레지스트리
- 규칙적으로
- 상대적인
- 공개
- 신뢰할 수있는
- 나머지
- 보고
- 필요
- 필수
- 요구조건 니즈
- 필요
- 의지
- 응답
- 제한
- 결과
- return
- 리뷰
- 직위별
- 뿌리
- 달리기
- 달리는
- 현자
- SageMaker 추론
- 같은
- 저금
- 확장성
- 규모
- 주사
- 사이 킷 학습
- 범위
- 점수
- 할퀴다
- 스크립트
- 섹션
- 섹션
- 안전해야합니다.
- 보안
- 참조
- 선택
- 선택
- 전송
- 연장자
- 감정
- 별도의
- 서브
- 서비스
- 서비스
- 세션
- 세트
- 설정
- 설치
- 일곱
- 몇몇의
- SHA256
- 공유
- 영상을
- 소개
- 보여
- 표시
- 쇼
- 상당한
- 단순, 간단, 편리
- 단일
- 크기
- 크기
- So
- 소프트웨어
- 소프트웨어 엔지니어
- 해결책
- 솔루션
- 일부
- 스페이스 버튼
- 전문
- 전문적으로
- 구체적인
- 구체적으로
- 속도
- 속도
- 지출
- 지출
- 안정
- 스택
- 표준
- 스타트
- 시작
- 시작
- 성명서
- 통계
- 단계
- 단계
- 저장
- 저장 옵션
- 전략들
- 구조
- 이러한
- SUPPORT
- 지원
- 지원
- 지원
- 체계
- 시스템은
- 맞춤형
- 작업
- 테크니컬
- 기법
- 기술
- 텐서 흐름
- test
- 테스트
- 보다
- 그
- XNUMXD덴탈의
- 지역
- 그들의
- 그들
- 그때
- Bowman의
- 그들
- 일
- 이
- 그래도?
- 을 통하여
- 처리량
- 층
- 시간
- 시대
- 에
- 검색을
- 토치
- Train
- 훈련 된
- 트레이닝
- 변압기
- 변압기
- 변화
- 시도
- 짹짹
- 트윗
- 트위터
- 두
- 유형
- 유형
- 전형적인
- Ubuntu
- 아래에
- 이해
- 곧 출시
- 업데이트
- 업데이트
- 업그레이드
- 업로드
- 용법
- 사용
- 유스 케이스
- 익숙한
- 사용자
- 사용
- 유틸리티
- 가치
- 종류
- 여러
- 확인
- 버전
- 시력
- 음량
- 취약점
- 필요
- we
- 웹
- 웹 서비스
- 주
- 무게
- 환영
- 언제
- 어느
- 크게
- 의지
- 과
- 없이
- 작업
- 워크플로우
- 일
- 쓰다
- 쓰기
- X
- 자신의
- 너의
- 제퍼 넷
- 지역