빅데이터와 AI 시대에 기업은 경쟁 우위를 확보하기 위해 이러한 기술을 활용하는 방법을 지속적으로 모색하고 있습니다. 현재 AI에서 가장 인기 있는 분야 중 하나는 생성 AI입니다. 그럴 만한 이유가 있습니다. Generative AI는 창의성과 혁신 측면에서 가능성의 경계를 넓히는 강력한 솔루션을 제공합니다. 이러한 최첨단 솔루션의 핵심에는 방대한 양의 데이터에 대해 사전 학습된 고도로 발전된 기계 학습 모델인 기초 모델(FM)이 있습니다. 이러한 기반 모델 중 다수는 인간과 유사한 텍스트를 이해하고 생성하는 데 있어 놀라운 기능을 보여주므로 콘텐츠 생성에서 고객 지원 자동화에 이르기까지 다양한 애플리케이션을 위한 귀중한 도구가 됩니다.
그러나 이러한 모델에도 어려움이 없는 것은 아닙니다. 이는 유난히 규모가 크며 훈련하는 데 많은 양의 데이터와 계산 리소스가 필요합니다. 또한 훈련 프로세스를 최적화하고 매개변수를 보정하는 것은 전문 지식과 신중한 실험이 필요한 복잡하고 반복적인 프로세스일 수 있습니다. 이는 자체 기반 모델을 구축하려는 많은 조직에 장벽이 될 수 있습니다. 이러한 문제를 극복하기 위해 많은 고객은 기존 기초 모델을 미세 조정하는 것을 고려하고 있습니다. 이는 모델에 이미 인코딩된 지식을 유지하면서 특정 애플리케이션에 대한 모델 매개변수의 작은 부분을 조정하는 데 널리 사용되는 기술입니다. 이를 통해 조직은 특정 도메인이나 작업에 맞게 사용자 정의하는 데 필요한 리소스를 줄이면서 이러한 모델의 강력한 기능을 사용할 수 있습니다.
기초 모델을 미세 조정하는 데에는 전통적인 미세 조정과 매개변수 효율적인 미세 조정이라는 두 가지 기본 접근 방식이 있습니다. 기존의 미세 조정에는 특정 다운스트림 작업에 대해 사전 훈련된 모델의 모든 매개변수를 업데이트하는 작업이 포함됩니다. 반면, 매개변수 효율적인 미세 조정에는 원래 모델 매개변수를 모두 업데이트하지 않고도 모델을 사용자 정의할 수 있는 다양한 기술이 포함됩니다. 이러한 기술 중 하나를 LoRA(낮은 순위 적응)라고 합니다. 여기에는 다음 이미지에 표시된 것처럼 사전 훈련된 모델에 작은 작업별 모듈을 추가하고 나머지 매개변수를 고정된 상태로 유지하면서 훈련시키는 작업이 포함됩니다.
출처: AWS 기반 생성 AI(O'Reilly, 2023)
LoRA는 최근 몇 가지 이유로 인기를 얻었습니다. 더 빠른 교육, 줄어든 메모리 요구 사항 및 여러 다운스트림 작업에 대해 사전 교육된 모델을 재사용하는 기능을 제공합니다. 더 중요한 것은 기본 모델과 어댑터를 별도로 저장하고 언제든지 결합할 수 있으므로 미세 조정된 버전을 더 쉽게 저장, 배포 및 공유할 수 있다는 것입니다. 그러나 이로 인해 새로운 유형의 미세 조정 모델을 적절하게 관리하는 방법이라는 새로운 과제가 발생합니다. 기본 모델과 어댑터를 결합해야 합니까, 아니면 별도로 유지해야 합니까? 이 게시물에서는 LoRA 미세 조정 모델을 관리하기 위한 모범 사례를 안내합니다. 아마존 세이지 메이커 이 새로운 질문을 해결하기 위해.
SageMaker 모델 레지스트리에서 FM 작업
이 게시물에서는 QLoRA 방법을 사용하여 Llama2 LLM(대형 언어 모델)을 미세 조정하는 엔드투엔드 예제를 살펴봅니다. QLoRA는 매개변수 효율적인 미세 조정의 이점을 4비트/8비트 양자화와 결합하여 FM을 특정 작업 또는 사용 사례에 맞게 미세 조정하는 데 필요한 리소스를 더욱 줄입니다. 이를 위해 사전 훈련된 7억 개의 매개변수 Llama2 모델을 사용하고 databricks-dolly-15k 데이터 세트에서 이를 미세 조정합니다. Llama2와 같은 LLM에는 수십억 개의 매개변수가 있으며 대규모 텍스트 데이터세트에 대해 사전 훈련되어 있습니다. 미세 조정은 더 작은 데이터 세트를 사용하여 LLM을 다운스트림 작업에 적용합니다. 그러나 대형 모델을 미세 조정하는 데는 계산 비용이 많이 듭니다. 이것이 우리가 이 계산 비용을 줄이기 위해 미세 조정 중에 가중치를 양자화하기 위해 QLoRA 방법을 사용하는 이유입니다.
우리의 예에서는 두 개의 노트북(llm-finetune-combined-with-registry.ipynb
및 llm-finetune-separate-with-registry.ipynb
). 각각은 다음 다이어그램에 설명된 것처럼 LoRA 미세 조정 모델을 처리하기 위해 서로 다른 방식으로 작동합니다.
- 먼저 SageMaker Studio 노트북을 사용하여 2억 개의 매개변수가 포함된 사전 훈련된 Llama7 모델을 다운로드합니다. Llama2와 같은 LLM은 도메인별 데이터를 미세 조정했을 때 자연어 처리(NLP) 작업에서 최첨단 성능을 보여주었습니다.
- 다음으로 QLoRA 방법을 사용하여 databricks-dolly-2k 데이터 세트에서 Llama15를 미세 조정합니다. QLoRA는 모델 가중치를 양자화하여 미세 조정의 계산 비용을 줄입니다.
- 미세 조정 중에 SageMaker Experiments Plus를 Transformers API와 통합하여 기울기, 손실 등과 같은 측정항목을 자동으로 기록합니다.
- 그런 다음 두 가지 접근 방식을 사용하여 SageMaker 모델 레지스트리에서 미세 조정된 Llama2 모델의 버전을 지정합니다.
- 전체 모델 저장
- 어댑터와 기본 모델을 별도로 보관합니다.
- 마지막으로 SageMaker 실시간 엔드포인트에서 DJL(Deep Java Library) 서비스를 사용하여 미세 조정된 Llama2 모델을 호스팅합니다.
다음 섹션에서는 이러한 각 단계에 대해 자세히 알아보고 다양한 LLM 워크플로에 대한 SageMaker의 유연성과 이러한 기능이 모델 작업을 개선하는 데 어떻게 도움이 되는지 보여드리겠습니다.
사전 조건
코드 실험을 시작하려면 다음 필수 구성 요소를 완료하세요.
- 만들기 SageMaker Studio 도메인: Amazon SageMaker Studio, 특히 Studio Notebooks는 Llama2 미세 조정 작업을 시작한 다음 내에서 모델을 등록하고 보는 데 사용됩니다. SageMaker 모델 레지스트리. SageMaker 실험 또한 Llama2 미세 조정 작업 로그(훈련 손실/테스트 손실 등)를 보고 비교하는 데에도 사용됩니다.
- Amazon Simple Storage Service(S3) 버킷 생성: 훈련 아티팩트와 모델 가중치를 저장하려면 S3 버킷에 액세스해야 합니다. 지침은 다음을 참조하세요. 버킷 만들기. 이 게시물에 사용된 샘플 코드는 SageMaker 기본 S3 버킷을 사용하지만 관련 S3 버킷을 사용하도록 사용자 정의할 수 있습니다.
- 모델 컬렉션 설정(IAM 권한): 아래 나열된 대로 리소스 그룹에 대한 권한으로 SageMaker 실행 역할을 업데이트합니다. 모델 레지스트리 컬렉션 개발자 가이드 모델 컬렉션을 사용하여 모델 레지스트리 그룹화를 구현합니다.
- Llama2 이용 약관 동의: Llama2 기반 모델을 사용하려면 최종 사용자 라이센스 계약 및 제한적 사용 정책에 동의해야 합니다.
예제는 다음에서 확인할 수 있습니다. GitHub 저장소. 노트북 파일은 PyTorch 2.0.0 Python 3.10 GPU 최적화 커널 및 ml.g4dn.xlarge 인스턴스 유형에서 실행되는 Studio 노트북을 사용하여 테스트되었습니다.
실험과 콜백 통합
Amazon SageMaker 실험 SageMaker Python SDK 또는 boto3를 사용하여 로컬 Jupyter 노트북을 포함한 모든 통합 개발 환경(IDE)에서 기계 학습(ML) 실험과 모델 버전을 구성, 추적, 비교 및 평가할 수 있습니다. 모델 지표, 매개변수, 파일, 아티팩트, 다양한 지표의 플롯 차트를 기록하고, 다양한 메타데이터를 캡처하고, 검색하고, 모델 재현성을 지원하는 유연성을 제공합니다. 데이터 과학자는 시각적 차트와 표를 통해 모델 평가를 위한 성능과 하이퍼파라미터를 빠르게 비교할 수 있습니다. 또한 SageMaker 실험을 사용하여 생성된 차트를 다운로드하고 모델 평가를 이해관계자와 공유할 수도 있습니다.
LLM 교육은 느리고 비용이 많이 들고 반복적인 프로세스일 수 있습니다. 일관되지 않은 모델 튜닝 경험을 방지하려면 사용자가 대규모 LLM 실험을 추적하는 것이 매우 중요합니다. HuggingFace 변환기 API 사용자가 훈련 작업 중에 측정항목을 추적할 수 있도록 허용 콜백. 콜백은 진행 상황 보고를 위해 훈련 루프 상태를 검사할 수 있는 PyTorch Trainer에서 훈련 루프의 동작을 사용자 정의할 수 있는 "읽기 전용" 코드 조각이며, 사용자 지정 논리(일부로 포함됨)를 통해 TensorBoard 또는 SageMaker Experiments Plus에 로깅합니다. 이 코드베이스의).
다음 코드 블록에 표시된 대로 이 게시물의 코드 저장소에 포함된 SageMaker Experiments 콜백 코드를 가져올 수 있습니다.
이 콜백은 훈련 실행의 일부로 SageMaker Experiments에 다음 정보를 자동으로 기록합니다.
- 훈련 매개변수와 하이퍼 매개변수
- 단계, 에포크, 최종에서의 모델 학습 및 검증 손실
- 모델 입력 및 출력 아티팩트(훈련 데이터세트, 검증 데이터세트, 모델 출력 위치, 훈련 디버거 등)
다음 그래프는 해당 정보를 사용하여 표시할 수 있는 차트의 예를 보여줍니다.
이를 통해 SageMaker 실험의 분석 기능을 사용하여 여러 실행을 쉽게 비교할 수 있습니다. 비교하려는 실험 실행을 선택할 수 있으며, 비교 그래프가 자동으로 채워집니다.
미세 조정된 모델을 모델 레지스트리 컬렉션에 등록
모델 레지스트리 컬렉션 의 특징이다. SageMaker 모델 레지스트리 이를 통해 서로 관련된 등록 모델을 그룹화하고 계층 구조로 구성하여 대규모 모델 검색 가능성을 향상시킬 수 있습니다. 모델 레지스트리 컬렉션을 사용하여 기본 모델과 미세 조정된 변형을 추적합니다.
전체 모델 복사 방법
첫 번째 방법은 기본 모델과 LoRA 어댑터를 결합하여 전체 미세 조정된 모델을 저장하는 것입니다. 다음 코드는 모델 병합 프로세스를 설명하고 다음을 사용하여 결합된 모델을 저장합니다. model.save_pretrained()
.
미세 조정 후 LoRA 어댑터와 기본 모델을 단일 모델 아티팩트로 결합하는 것은 장점과 단점이 있습니다. 결합된 모델은 독립적이며 원래 기본 모델이 없어도 독립적으로 관리 및 배포할 수 있습니다. 모델은 기본 모델과 미세 조정 데이터를 반영하는 버전 이름을 사용하여 자체 엔터티로 추적할 수 있습니다. 우리는 다음을 사용하여 명명법을 채택할 수 있습니다. base_model_name
+ 미세 조정 dataset_name
모델 그룹을 구성합니다. 선택적으로 모델 컬렉션은 원본 모델과 미세 조정된 모델을 연결할 수 있지만 결합된 모델은 독립적이므로 이것이 필요하지 않을 수도 있습니다. 다음 코드 조각은 미세 조정된 모델을 등록하는 방법을 보여줍니다.
훈련 추정기를 사용하여 모델을 모델 레지스트리에 등록할 수 있습니다.
모델 레지스트리에서 모델 패키지를 검색하고 해당 모델을 직접 배포할 수 있습니다.
그러나 이 접근 방식에는 단점이 있습니다. 모델을 결합하면 기본 모델이 미세 조정된 각 버전에서 복제되므로 저장 비효율성과 중복성이 발생합니다. 모델 크기와 미세 조정된 모델의 수가 증가함에 따라 스토리지 요구 사항도 기하급수적으로 늘어납니다. llama2 7b 모델을 예로 들면, 기본 모델은 약 13GB, 미세 조정 모델은 13.6GB 정도입니다. 각각의 미세 조정 후에는 모델의 96%가 복제되어야 합니다. 또한, 매우 큰 모델 파일을 배포하고 공유하는 것도 더욱 어려워지고, 모델 크기가 증가하고 작업이 미세 조정됨에 따라 파일 전송 및 관리 비용이 증가하므로 운영상의 문제가 발생합니다.
별도의 어댑터 및 기본 방식
두 번째 방법은 기본 가중치와 어댑터 가중치를 별도의 모델 구성 요소로 저장하고 런타임에 순차적으로 로드하여 분리하는 데 중점을 둡니다.
베이스 및 어댑터 중량을 저장하면 전체 모델 복사 방법과 마찬가지로 장점과 단점이 있습니다. 한 가지 장점은 저장 공간을 절약할 수 있다는 것입니다. 미세 조정된 모델의 가장 큰 구성 요소인 기본 가중치는 한 번만 저장되며 다양한 작업에 맞게 조정된 다른 어댑터 가중치와 함께 재사용할 수 있습니다. 예를 들어 Llama2-7B의 기본 무게는 약 13GB이지만 각 미세 조정 작업에는 약 0.6GB의 어댑터 무게만 저장하면 되며 이는 95%의 공간 절약 효과입니다. 또 다른 장점은 기본 가중치 전용 모델 레지스트리를 사용하여 기본 가중치를 어댑터 가중치와 별도로 관리할 수 있다는 것입니다. 이는 인터넷 게이트웨이 없이 VPC 전용 모드에서 실행되는 SageMaker 도메인에 유용할 수 있습니다. 인터넷을 통하지 않고도 기본 가중치에 액세스할 수 있기 때문입니다.
기본 중량에 대한 모델 패키지 그룹 생성
QLoRA 가중치에 대한 모델 패키지 그룹 생성
다음 코드는 데이터세트/작업 유형으로 QLoRA 가중치에 태그를 지정하고 미세 조정된 델타 가중치를 별도의 모델 레지스트리에 등록하고 델타 가중치를 별도로 추적하는 방법을 보여줍니다.
다음 조각은 모델이 기본 가중치와 미세 조정 가중치로 분할되는 모델 레지스트리의 보기를 보여줍니다.
고도로 개인화된 LLM을 위한 모델, 데이터 세트 및 작업을 관리하는 것은 금방 부담스러울 수 있습니다. SageMaker 모델 레지스트리 컬렉션 관련 모델을 그룹화하고 계층 구조로 구성하여 모델 검색 가능성을 높이는 데 도움이 됩니다. 이를 통해 기본 가중치, 어댑터 가중치 및 미세 조정 작업 데이터 세트 간의 관계를 더 쉽게 추적할 수 있습니다. 모델 간의 복잡한 관계와 연결을 생성할 수도 있습니다.
새 컬렉션을 생성하고 이 컬렉션에 기본 모델 가중치를 추가하세요.
모든 미세 조정된 LoRA 어댑터 델타 가중치를 작업 및/또는 데이터세트별로 이 컬렉션에 연결하세요.
그러면 모델/작업 유형과 기본 모델을 미세 조정하는 데 사용되는 데이터 세트별로 연결된 컬렉션 계층 구조가 생성됩니다.
베이스 모델과 어댑터 모델을 분리하는 이 방법에는 몇 가지 단점이 있습니다. 한 가지 단점은 모델 배포가 복잡하다는 것입니다. 별도의 두 가지 모델 아티팩트가 있으므로 모델 레지스트리에서 직접 배포하는 대신 모델을 다시 패키징하려면 추가 단계가 필요합니다. 다음 코드 예제에서는 먼저 최신 버전의 기본 모델을 다운로드하고 다시 압축합니다.
그런 다음 미세 조정된 최신 LoRA 어댑터 무게를 다운로드하여 다시 포장하세요.
모델을 호스팅하기 위해 deepspeed로 제공되는 DJL을 사용할 것이므로 추론 디렉터리는 다음과 같아야 합니다.
마지막으로 사용자 지정 추론 코드, 기본 모델, LoRA 어댑터를 배포용 단일 .tar.gz 파일로 패키징합니다.
정리
노트북 정리 섹션의 지침에 따라 리소스를 정리하세요. 인용하다 Amazon SageMaker 요금 추론 인스턴스 비용에 대한 자세한 내용은
결론
이 게시물에서는 Amazon SageMaker에서 LoRA 미세 조정 모델을 관리하기 위한 모범 사례를 안내했습니다. 우리는 기본 및 어댑터 가중치를 하나의 독립형 모델로 결합하는 방법과 기본 및 어댑터 가중치를 분리하는 두 가지 주요 방법을 다루었습니다. 두 접근 방식 모두 장단점이 있지만 가중치를 분리하면 스토리지를 최적화하는 데 도움이 되고 SageMaker 모델 레지스트리 컬렉션과 같은 고급 모델 관리 기술을 사용할 수 있습니다. 이를 통해 모델 간의 계층 구조와 관계를 구축하여 구성과 검색 가능성을 향상할 수 있습니다. 다음에서 샘플 코드를 사용해 보시기 바랍니다. GitHub 저장소 이러한 방법을 직접 실험해 보세요. 생성 AI가 빠르게 발전함에 따라 모델 관리 모범 사례를 따르면 실험을 추적하고 작업에 적합한 모델을 찾고 전문 LLM을 대규모로 효율적으로 관리하는 데 도움이 됩니다.
참고자료
저자 소개
제임스 우 AWS의 수석 AI/ML 전문가 솔루션 아키텍트입니다. 고객이 AI/ML 솔루션을 설계하고 구축할 수 있도록 지원합니다. James의 작업은 컴퓨터 비전, 딥 러닝, 기업 전반에 걸친 ML 확장에 대한 주요 관심과 함께 광범위한 ML 사용 사례를 다룹니다. AWS에 합류하기 전에 James는 엔지니어링 분야에서 10년, 마케팅 및 광고 산업 분야에서 6년을 포함하여 4년 넘게 건축가, 개발자 및 기술 리더였습니다.
프라나브 머티 AWS의 AI/ML 전문 솔루션 아키텍트입니다. 그는 고객이 기계 학습(ML) 워크로드를 구축, 교육, 배포 및 SageMaker로 마이그레이션하도록 돕는 데 중점을 두고 있습니다. 이전에는 반도체 공정을 개선하기 위해 대형 컴퓨터 비전(CV) 및 자연어 처리(NLP) 모델을 개발하는 반도체 업계에서 일했습니다. 여가 시간에는 체스와 여행을 즐깁니다.
메시트 건고르 고객이 AI/ML 솔루션을 대규모로 설계하고 구축할 수 있도록 지원하는 AWS의 AI/ML 전문 솔루션 설계자입니다. 그는 통신 고객을 위한 광범위한 AI/ML 사용 사례를 다루고 있으며 현재 생성 AI, LLM, 교육 및 추론 최적화에 중점을 두고 있습니다. 그는 자유 시간에 광야에서 하이킹을 하거나 친구들과 보드 게임을 하는 것을 종종 볼 수 있습니다.
쉘비 아이겐브로드 Amazon Web Services(AWS)의 수석 AI 및 기계 학습 전문가 솔루션 아키텍트입니다. 그녀는 24년 동안 다양한 산업, 기술 및 역할에 걸쳐 기술 분야에서 일해 왔습니다. 그녀는 현재 DevOps 및 ML 배경을 MLOps 도메인에 결합하여 고객이 ML 워크로드를 대규모로 제공하고 관리할 수 있도록 하는 데 집중하고 있습니다. 다양한 기술 영역에 걸쳐 35개 이상의 특허를 부여받은 그녀는 지속적인 혁신과 데이터 사용에 대한 열정을 갖고 있습니다. Shelbee는 Coursera의 Practical Data Science 전문 분야의 공동 창시자이자 강사입니다. 그녀는 또한 덴버 챕터의 WiBD(Women In Big Data) 공동 이사이기도 합니다. 여가 시간에는 가족, 친구, 활동적인 개와 시간을 보내는 것을 좋아합니다.
- SEO 기반 콘텐츠 및 PR 배포. 오늘 증폭하십시오.
- PlatoData.Network 수직 생성 Ai. 자신에게 권한을 부여하십시오. 여기에서 액세스하십시오.
- PlatoAiStream. 웹3 인텔리전스. 지식 증폭. 여기에서 액세스하십시오.
- 플라톤ESG. 탄소, 클린테크, 에너지, 환경, 태양광, 폐기물 관리. 여기에서 액세스하십시오.
- PlatoHealth. 생명 공학 및 임상 시험 인텔리전스. 여기에서 액세스하십시오.
- 출처: https://aws.amazon.com/blogs/machine-learning/model-management-for-lora-fine-tuned-models-using-llama2-and-amazon-sagemaker/
- :있다
- :이다
- :아니
- :어디
- $UP
- 10
- 100
- 11
- 12
- 13
- 15%
- 16
- 20
- 2023
- 23
- 24
- 25
- 28
- 31
- 35%
- 7
- 8
- 95%
- a
- 능력
- 소개
- 수락
- 허용
- ACCESS
- 액세스
- 가로질러
- 적응
- 적응하다
- 더하다
- 첨가
- 추가
- 또한
- 주소
- 채택
- 많은
- 이점
- 장점
- 광고
- 후
- 협약
- AI
- AI 권리
- AI / ML
- All
- 수
- 수
- 이미
- 또한
- 아마존
- 아마존 세이지 메이커
- 아마존 세이지 메이커 스튜디오
- Amazon Simple Storage Service (S3)
- Amazon Web Services
- Amazon Web Services (AWS)
- 금액
- an
- 분석하다
- 및
- 다른
- 어떤
- API를
- 어플리케이션
- 접근
- 구혼
- 인가 된
- 대략
- 있군요
- 지역
- AS
- 준
- At
- 자동적으로
- 자동화
- 가능
- AWS
- 뒤로
- 배경
- 장벽
- 기지
- BE
- 때문에
- 가
- 된다
- 된
- 행동
- 혜택
- BEST
- 모범 사례
- 사이에
- 큰
- 빅 데이터
- 억원
- 수십억
- 블록
- 판
- 보드 게임
- 두
- 경계
- 빌드
- 사업
- 비자 면제 프로그램에 해당하는 국가의 시민권을 가지고 있지만
- by
- 콜백
- 라는
- CAN
- 능력
- 포착
- 주의
- 케이스
- 가지 경우
- 도전
- 과제
- 장
- 차트
- 체스
- 수업
- 선명한
- 암호
- 코드베이스
- 수집
- 컬렉션
- 결합
- 결합 된
- 결합
- 결합
- 기업
- 비교
- 비교
- 경쟁력
- 복잡한
- 복잡성
- 구성 요소
- 구성 요소들
- 계산
- 계산
- 컴퓨터
- 컴퓨터 비전
- 조건
- 치고는
- 함유량
- 콘텐츠 제작
- 지속적으로
- 끊임없는
- 핵심
- 비용
- 수
- 적용
- 커버
- 만들
- 만든
- 창조
- 창의력
- 현재
- 관습
- 고객
- 고객센터
- 고객
- 사용자 정의
- 사용자 정의
- 최첨단
- 데이터
- 데이터 과학
- 데이터 세트
- 깊은
- 깊은 학습
- 깊이
- 태만
- 델
- 배달하다
- 델타
- 보여
- 덴버
- 배포
- 배포
- 배치
- 전개
- 디자인
- 세부설명
- 개발자
- 개발
- 개발
- 다른
- 어려운
- 직접
- 디스플레이
- 배포하다
- 배포
- 잠수
- 도메인
- 도메인
- 다운로드
- 단점
- 드라이브
- ...동안
- 마다
- 쉽게
- 용이하게
- Edge
- 효율적인
- 효율적으로
- 그렇지 않으면
- 신흥
- 수
- 격려
- 끝으로 종료
- 종점
- 엔지니어링
- Enterprise
- 실재
- 환경
- 시대
- 대
- 등
- 평가
- 평가
- 예
- 예
- 예외적으로
- 실행
- 현존하는
- 비싼
- 경험
- 실험
- 실험
- 전문적 지식
- 기하 급수적으로
- 페이스메이크업
- 고장
- 가족
- 빠른
- 특색
- 특징
- 입양 부모로서의 귀하의 적합성을 결정하기 위해 미국 이민국에
- 파일
- Find
- 끝
- 먼저,
- 고정
- 유연성
- 집중
- 초점
- 수행원
- 럭셔리
- 발견
- Foundation
- 무료
- 친구
- 에
- 가득 찬
- 기능
- 추가
- 미래
- 이득
- 획득
- Games
- 게이트웨이
- 생성
- 생성적인
- 제너레이티브 AI
- Go
- 가는
- 좋은
- GPU
- 부여
- 그래프
- 그래프
- 그룹
- 여러 떼
- 손
- 핸들
- 있다
- 데
- he
- 도움
- 도움이
- 도움이
- 그녀의
- 계층
- 고도로
- 그의
- 주인
- 가장 인기있는
- 방법
- How To
- 그러나
- HTML
- HTTPS
- 포옹 얼굴
- 설명하다
- 영상
- 구현
- 이행
- import
- 중대한
- 중요하게
- 수입
- 개선
- in
- 포함
- 포함
- 포함
- 증가
- 증가
- 증가
- 독립
- 독립하여
- 산업
- 산업
- 비효율
- 부풀다
- 정보
- 혁신
- 입력
- 예
- 를 받아야 하는 미국 여행자
- 명령
- 통합
- 통합 된
- 관심
- 인터넷
- 으로
- 소개합니다
- IT
- 그
- 제임스
- 자바
- 일
- 작업
- 가입
- JPG
- 유지
- 유지
- 키
- 걷어
- 지식
- 언어
- 넓은
- 가장 큰
- 최근
- 리더
- 오퍼
- 배우기
- 수
- 레벨
- 도서관
- 특허
- 거짓
- 처럼
- 좋아하는
- LINK
- 연결
- 상장 된
- LLM
- 하중
- 로드
- 지방의
- 위치
- 기록
- 로깅
- 논리
- 보기
- 같이
- 찾고
- 오프
- 기계
- 기계 학습
- 본관
- 제작
- 유튜브 영상을 만드는 것은
- 관리
- 관리
- 구축
- 관리
- .
- 마케팅
- 마케팅 및 광고
- 거대한
- XNUMX월..
- 메모리
- 병합
- 합병
- 메타 데이터
- 방법
- 방법
- 통계
- 이전
- ML
- MLOps
- 모드
- 모델
- 모델
- 모듈
- 배우기
- 여러
- name
- 자연의
- 자연 언어 처리
- 필요한
- 필요
- 필요
- 요구
- 신제품
- nlp
- 수첩
- 지금
- 번호
- of
- 오프
- 제공
- 자주
- on
- 일단
- ONE
- 만
- 운영
- 행정부
- 최적화
- 최적화
- 최적화
- 최적화
- or
- 조직
- 조직
- 실물
- 기타
- 우리의
- 결과
- 출력
- 위에
- 극복하다
- 압도적인
- 자신의
- 꾸러미
- 매개 변수
- 매개 변수
- 부품
- 열정
- 특허
- 통로
- 퍼센트
- 성능
- 권한
- 개
- 플라톤
- 플라톤 데이터 인텔리전스
- 플라토데이터
- 연주
- ...을 더한
- 정책
- 인기 문서
- 인기
- 일부
- 가능한
- 게시하다
- 힘
- 강한
- 실용적인
- 사례
- 전제 조건
- 선물
- 보존
- 예방
- 이전에
- 일차
- 교장
- 이전에
- 방법
- 프로세스
- 처리
- 진행
- 정확히
- 속성
- 제공
- 푸시
- Python
- 파이 토치
- 문제
- 빨리
- 범위
- 빠르게
- 실시간
- 이유
- 이유
- 최근에
- 감소
- 감소
- 감소
- 감소
- 참조
- 반영
- 회원가입
- 등록된
- 레지스트리
- 관련
- 관계
- 관련된
- 주목할 만한
- 통계 보고서
- 저장소
- 필요
- 필수
- 요구조건 니즈
- 제품 자료
- REST
- 결과
- 재사용
- 연락해주세요
- 직위별
- 역할
- 달리기
- 달리는
- 실행
- 런타임
- 현자
- 찜하기
- 저장
- 절약
- 저금
- 규모
- 스케일링
- 과학
- 과학자
- SDK
- 검색
- 둘째
- 섹션
- 섹션
- 모색
- 반도체
- 연장자
- 별도의
- 분리
- 서비스
- 서비스
- 피복재
- 몇몇의
- 공유
- 공유
- 그녀
- 영상을
- 표시
- 쇼
- 비슷한
- 단순, 간단, 편리
- 이후
- 단일
- 크기
- 느리게
- 작은
- 작은
- 단편
- 해결책
- 솔루션
- 일부
- 출처
- 스페이스 버튼
- 스패닝
- 전문가
- 전문
- 구체적인
- 구체적으로
- 지출
- 분열
- 이해 관계자
- 스타트
- 주 정부
- 최첨단
- Status
- 단계
- 단계
- 아직도
- 저장
- 저장
- 저장
- 스튜디오
- 이러한
- SUPPORT
- TAG
- 복용
- 태스크
- 작업
- 기술
- 기법
- 기술
- Technology
- 전기 통신
- 조건
- 테스트
- 본문
- 그
- XNUMXD덴탈의
- 그들의
- 그들
- 그때
- 그곳에.
- Bowman의
- 그들
- 이
- 을 통하여
- 시간
- 에
- 함께
- 수단
- 토치
- 선로
- 전통적인
- Train
- 트레이닝
- 이전
- 변압기
- 변압기
- 여행
- 참된
- 시도
- 곡조
- 조정 된
- 동조
- 두
- 유형
- 유형
- 아래에
- 이해
- 업데이트
- 업데이트
- 업로드
- URL
- 사용
- 유스 케이스
- 익숙한
- 사용자
- 사용자
- 사용
- 확인
- 가치 있는
- 가치
- 종류
- 여러
- 거대한
- 버전
- 버전
- 대단히
- 를 통해
- 관측
- 시력
- 시각
- 걷다
- 걸었다
- 필요
- 였다
- 방법..
- 방법
- we
- 웹
- 웹 서비스
- 언제
- 어느
- 동안
- why
- 넓은
- 넓은 범위
- 의지
- 과
- 이내
- 없이
- 여성 컬렉션
- 작업
- 일
- 워크 플로우
- 일
- 년
- 자신의
- 너의
- 당신 자신
- 제퍼 넷