오늘날 빠르게 발전하는 의료 환경에서 의사는 간병인 메모, 전자 건강 기록 및 영상 보고서와 같은 다양한 출처의 방대한 양의 임상 데이터에 직면하고 있습니다. 이 풍부한 정보는 환자 치료에 필수적이지만 의료 전문가가 선별하고 분석하는 데 압도적이고 시간이 많이 소요될 수 있습니다. 이 데이터에서 통찰력을 효율적으로 요약하고 추출하는 것은 더 나은 환자 치료 및 의사 결정에 중요합니다. 요약된 환자 정보는 데이터 집계, 효과적인 환자 코딩 또는 검토를 위해 유사한 진단을 가진 환자 그룹화와 같은 여러 다운스트림 프로세스에 유용할 수 있습니다.
인공 지능(AI) 및 기계 학습(ML) 모델은 이러한 문제를 해결하는 데 큰 가능성을 보여주었습니다. 모델은 많은 양의 텍스트 데이터를 분석하고 해석하여 정보를 간결한 요약으로 효과적으로 압축하도록 훈련할 수 있습니다. 요약 프로세스를 자동화함으로써 의사는 관련 정보에 빠르게 액세스할 수 있으므로 환자 치료에 집중하고 정보에 입각한 결정을 내릴 수 있습니다. 다음을 참조하십시오 사례 연구 실제 사용 사례에 대해 자세히 알아보세요.
아마존 세이지 메이커완전 관리형 ML 서비스인 는 다양한 AI/ML 기반 요약 모델 및 접근 방식을 호스팅하고 구현하기 위한 이상적인 플랫폼을 제공합니다. 이 게시물에서는 다음을 포함하여 SageMaker에서 요약 기술을 구현하기 위한 다양한 옵션을 살펴봅니다. Amazon SageMaker 점프스타트 기반 모델, Hugging Face의 사전 훈련된 모델 미세 조정, 맞춤형 요약 모델 구축. 또한 의료 전문가가 복잡한 임상 데이터의 간결하고 정확한 요약을 생성하는 데 가장 적합한 솔루션을 선택할 수 있도록 각 접근 방식의 장단점에 대해 논의합니다.
시작하기 전에 알아야 할 두 가지 중요한 용어: 미리 훈련된 및 미세 조정. 사전 훈련된 모델 또는 기초 모델은 일반적으로 일반적인 언어 지식을 위해 대규모 데이터 코퍼스에서 구축되고 훈련된 모델입니다. 미세 조정은 사전 훈련된 모델에 특정 작업에 대한 성능을 향상시키기 위해 또 다른 도메인별 데이터 세트를 제공하는 프로세스입니다. 의료 환경에서 이는 특히 환자 치료와 관련된 문구 및 용어를 포함한 일부 데이터를 모델에 제공하는 것을 의미합니다.
SageMaker에서 맞춤형 요약 모델 구축
가장 노력이 많이 드는 접근 방식이지만 일부 조직에서는 처음부터 SageMaker에서 사용자 지정 요약 모델을 구축하는 것을 선호할 수 있습니다. 이 접근 방식에는 AI/ML 모델에 대한 보다 심층적인 지식이 필요하며 처음부터 모델 아키텍처를 생성하거나 특정 요구 사항에 맞게 기존 모델을 조정하는 작업이 포함될 수 있습니다. 맞춤형 모델을 구축하면 요약 프로세스에 대해 더 큰 유연성과 제어를 제공할 수 있지만 사전 훈련된 모델에서 시작하는 접근 방식에 비해 더 많은 시간과 리소스가 필요합니다. 모든 사용 사례에 적합하지 않을 수 있으므로 진행하기 전에 이 옵션의 장점과 단점을 신중하게 비교하는 것이 중요합니다.
SageMaker JumpStart 기반 모델
SageMaker에서 요약을 구현하기 위한 훌륭한 옵션은 JumpStart 기본 모델을 사용하는 것입니다. 선도적인 AI 연구 기관에서 개발한 이 모델은 텍스트 요약을 비롯한 다양한 작업에 최적화된 다양한 사전 훈련된 언어 모델을 제공합니다. SageMaker JumpStart는 독점 모델과 오픈 소스 모델이라는 두 가지 유형의 기본 모델을 제공합니다. SageMaker JumpStart는 또한 HIPAA 자격을 제공하므로 의료 워크로드에 유용합니다. 준수 여부를 확인하는 것은 궁극적으로 고객의 몫이므로 적절한 조치를 취해야 합니다. 보다 Amazon Web Services에서 HIPAA 보안 및 규정 준수를 위한 설계 자세한 내용은.
독점 재단 모델
AI21의 Jurassic 모델 및 Cohere의 Cohere Generate 모델과 같은 독점 모델은 다음에서 SageMaker JumpStart를 통해 찾을 수 있습니다. AWS 관리 콘솔 현재 프리뷰 중입니다. 요약을 위해 독점 모델을 활용하는 것은 사용자 정의 데이터에서 모델을 미세 조정할 필요가 없을 때 이상적입니다. 이는 최소한의 구성으로 요약 요구 사항을 충족할 수 있는 사용하기 쉬운 즉시 사용 가능한 솔루션을 제공합니다. 이러한 사전 훈련된 모델의 기능을 사용하면 사용자 지정 모델을 훈련하고 미세 조정하는 데 소요되는 시간과 리소스를 절약할 수 있습니다. 또한 독점 모델은 일반적으로 사용자 친화적인 API 및 SDK와 함께 제공되어 기존 시스템 및 애플리케이션과의 통합 프로세스를 간소화합니다. 특정 사용자 지정이나 미세 조정 없이 사전 훈련된 독점 모델로 요약 요구 사항을 충족할 수 있는 경우 텍스트 요약 작업을 위한 편리하고 비용 효율적이며 효율적인 솔루션을 제공합니다. 이러한 모델은 의료 사용 사례를 위해 특별히 훈련되지 않았기 때문에 미세 조정 없이는 기본적으로 의료 언어에 대한 품질을 보장할 수 없습니다.
Jurassic-2 Grande Instruct는 AI21 Labs의 대규모 언어 모델(LLM)로, 자연어 지침에 최적화되고 다양한 언어 작업에 적용할 수 있습니다. 사용하기 쉬운 API 및 Python SDK를 제공하여 품질과 경제성의 균형을 맞춥니다. 널리 사용되는 용도로는 마케팅 카피 생성, 챗봇 강화, 텍스트 요약 등이 있습니다.
SageMaker 콘솔에서 SageMaker JumpStart로 이동하여 AI21 Jurassic-2 Grande Instruct 모델을 찾은 다음 선택합니다. 모델을 사용해보십시오.
관리하는 SageMaker 엔드포인트에 모델을 배포하려는 경우 이 샘플의 단계를 따를 수 있습니다. 수첩, SageMaker를 사용하여 Jurassic-2 Large를 배포하는 방법을 보여줍니다.
오픈 소스 기반 모델
오픈 소스 모델에는 SageMaker JumpStart를 통해 찾을 수 있는 FLAN T5, Bloom 및 GPT-2 모델이 포함됩니다. 아마존 세이지 메이커 스튜디오 UI, SageMaker 콘솔의 SageMaker JumpStart 및 SageMaker JumpStart API. 이러한 모델은 미세 조정되고 AWS 계정의 엔드포인트에 배포될 수 있으므로 모델 가중치 및 스크립트 코드에 대한 완전한 소유권이 부여됩니다.
Flan-T5 XL은 다양한 언어 작업을 위해 설계된 강력하고 다양한 모델입니다. 도메인별 데이터로 모델을 미세 조정하여 텍스트 요약 또는 기타 NLP 작업과 같은 특정 사용 사례에 대한 성능을 최적화할 수 있습니다. SageMaker Studio UI를 사용하여 Flan-T5 XL을 미세 조정하는 방법에 대한 자세한 내용은 다음을 참조하십시오. Amazon SageMaker Jumpstart로 FLAN T5 XL에 대한 명령 미세 조정.
SageMaker에서 Hugging Face로 사전 훈련된 모델 미세 조정
SageMaker에서 요약을 구현하는 가장 인기 있는 옵션 중 하나는 Hugging Face를 사용하여 사전 훈련된 모델을 미세 조정하는 것입니다. 변압기 도서관. Hugging Face는 텍스트 요약을 포함하여 다양한 자연어 처리(NLP) 작업을 위해 특별히 설계된 광범위한 사전 훈련된 변환기 모델을 제공합니다. Hugging Face Transformers 라이브러리를 사용하면 SageMaker를 사용하여 도메인별 데이터에서 이러한 사전 훈련된 모델을 쉽게 미세 조정할 수 있습니다. 이 접근 방식에는 더 빠른 교육 시간, 특정 도메인에서 더 나은 성능, 내장된 SageMaker 도구 및 서비스를 사용한 더 쉬운 모델 패키징 및 배포와 같은 몇 가지 장점이 있습니다. SageMaker JumpStart에서 적합한 모델을 찾을 수 없는 경우 Hugging Face에서 제공하는 모델을 선택하고 SageMaker를 사용하여 미세 조정할 수 있습니다.
ML의 기능에 대해 알아보기 위해 모델 작업을 시작하려면 SageMaker Studio를 열고 허깅페이스 모델 허브, 배포 방법으로 SageMaker를 선택합니다. Hugging Face는 노트북에서 복사, 붙여넣기 및 실행할 수 있는 코드를 제공합니다. 그만큼 쉽습니다! ML 엔지니어링 경험이 필요하지 않습니다.
Hugging Face Transformers 라이브러리를 사용하면 빌더가 사전 훈련된 모델에서 작동하고 다음 섹션에서 살펴볼 미세 조정과 같은 고급 작업을 수행할 수 있습니다.
리소스 프로비저닝
시작하기 전에 노트북을 프로비저닝해야 합니다. 지침은 의 1단계와 2단계를 참조하십시오. 머신 러닝 모델을 로컬에서 구축 및 교육. 이 예에서는 다음 스크린샷에 표시된 설정을 사용했습니다.
우리는 또한 아마존 단순 스토리지 서비스 (Amazon S3) 훈련 데이터 및 훈련 아티팩트를 저장할 버킷. 지침은 다음을 참조하십시오. 버킷 만들기.
데이터세트 준비
더 나은 도메인 지식을 갖도록 모델을 미세 조정하려면 작업에 적합한 데이터를 가져와야 합니다. 엔터프라이즈 사용 사례에 대해 교육할 때 교육 준비를 위해 자신의 데이터를 준비하기 위해 여러 데이터 엔지니어링 작업을 거쳐야 합니다. 이러한 작업은 이 게시물의 범위를 벗어납니다. 이 예에서는 간호 메모를 에뮬레이트하고 Amazon S3에 저장하기 위해 일부 합성 데이터를 생성했습니다. 데이터를 Amazon S3에 저장하면 다음을 수행할 수 있습니다. HIPAA 규정 준수를 위한 워크로드 설계. 먼저 이러한 메모를 가져와 노트북이 실행 중인 인스턴스에 로드합니다.
메모는 전체 항목이 포함된 열(주)과 원하는 출력이 무엇인지 예시하는 축약 버전(요약)이 포함된 열로 구성됩니다. 이 데이터 세트를 사용하는 목적은 모델의 생물학적 및 의학적 어휘를 개선하여 도메인 미세 조정, 요약된 출력을 구조화하는 방법을 모델에 보여줍니다. 일부 요약 사례에서는 기사에서 초록을 만들거나 리뷰의 한 줄 개요를 만들고 싶을 수 있지만, 이 경우 모델에서 증상과 취한 조치의 축약된 버전을 출력하도록 하려고 합니다. 지금까지 환자를 위해.
모델 불러 오기
우리가 기반으로 사용하는 모델은 Hugging Face Hub에서 사용할 수 있는 Google의 Pegasus 버전입니다. 페가수스 xsum. 이미 요약을 위해 사전 훈련되었으므로 미세 조정 프로세스는 도메인 지식을 확장하는 데 집중할 수 있습니다. 모델이 실행하는 작업을 수정하는 것은 이 게시물에서 다루지 않는 다른 유형의 미세 조정입니다. Transformer 라이브러리는 우리의 모델 정의를 로드하는 클래스를 제공합니다. model_checkpoint: google/pegasus-xsum
. 이렇게 하면 허브에서 모델을 로드하고 나중에 사용할 수 있도록 노트북에서 인스턴스화합니다. 왜냐하면 pegasus-xsum
sequence-to-sequence 모델이므로 다음의 Seq2Seq 유형을 사용하려고 합니다. 자동 모델 수업:
이제 모델이 있으므로 교육 루프를 실행할 수 있는 다른 구성 요소에 주의를 기울여야 합니다.
토크나이저 만들기
이러한 구성 요소 중 첫 번째는 토크나이저입니다. 토큰 화 입력 데이터의 단어가 모델이 이해할 수 있는 숫자 표현으로 변환되는 프로세스입니다. 다시 한 번 Transformer 라이브러리는 모델을 인스턴스화하는 데 사용한 것과 동일한 체크포인트에서 토크나이저 정의를 로드할 수 있는 클래스를 제공합니다.
이 토크나이저 개체를 사용하여 전처리 함수를 만들고 데이터 세트에 매핑하여 모델에 공급할 준비가 된 토큰을 제공할 수 있습니다. 마지막으로 모델이 해석할 수 없기 때문에 토큰화된 출력의 형식을 지정하고 원본 텍스트가 포함된 열을 제거합니다. 이제 모델에 입력할 준비가 된 토큰화된 입력이 남았습니다. 다음 코드를 참조하십시오.
데이터가 토큰화되고 모델이 인스턴스화되면 학습 루프를 실행할 준비가 거의 다 되었습니다. 우리가 만들고자 하는 다음 구성 요소는 데이터 조합기와 최적화 프로그램입니다. 데이터 조합기는 트랜스포머 라이브러리를 통해 Hugging Face에서 제공하는 또 다른 클래스로, 학습을 위해 토큰화된 데이터 배치를 생성하는 데 사용합니다. collator 클래스의 모델(Seq2Seq)에 대해 이전에 사용했던 해당 클래스 유형을 찾기만 하면 이미 가지고 있는 토크나이저와 모델 객체를 사용하여 이를 쉽게 구축할 수 있습니다. 옵티마이저의 기능은 훈련 상태를 유지하고 루프를 통해 작업할 때 훈련 손실을 기반으로 매개변수를 업데이트하는 것입니다. 옵티마이저를 생성하기 위해 다음을 가져올 수 있습니다. 최적화 다양한 최적화 알고리즘을 사용할 수 있는 토치 모듈의 패키지. 이전에 만났을 수 있는 몇 가지 일반적인 것들은 Stochastic Gradient Descent 및 아담, 후자는 우리의 예에서 적용됩니다. Adam의 생성자는 주어진 훈련 실행에 대한 모델 매개변수와 매개변수화된 학습률을 받습니다. 다음 코드를 참조하십시오.
교육을 시작하기 전 마지막 단계는 가속기와 학습 속도 스케줄러를 구축하는 것입니다. 액셀러레이터는 Accelerate라는 적절한 이름을 가진 Hugging Face에서 생산한 다른 라이브러리(주로 Transformers를 사용했습니다)에서 가져오며 훈련 중에 장치를 관리하는 데 필요한 논리를 추상화합니다(예: 여러 GPU 사용). 최종 구성 요소의 경우 항상 유용한 Transformers 라이브러리를 다시 방문하여 학습 속도 스케줄러를 구현합니다. 스케줄러 유형, 루프의 총 교육 단계 수 및 이전에 생성된 옵티마이저를 지정하면 get_scheduler
함수는 교육 프로세스 전반에 걸쳐 초기 학습률을 조정할 수 있는 객체를 반환합니다.
이제 훈련을 위한 준비가 완전히 끝났습니다! 먼저 훈련 작업을 설정해 보겠습니다. training_args Transformers 라이브러리를 사용하고 매개변수 값을 선택합니다. 준비된 다른 구성 요소 및 데이터 세트와 함께 이를 다음으로 직접 전달할 수 있습니다. 트레이너 다음 코드와 같이 학습을 시작합니다. 데이터세트의 크기와 선택한 매개변수에 따라 상당한 시간이 걸릴 수 있습니다.
추론을 위해 모델 패키징
학습이 실행되면 모델 개체를 추론에 사용할 수 있습니다. 최선의 방법은 나중에 사용할 수 있도록 작업을 저장하는 것입니다. 모델 아티팩트를 생성하고 함께 압축하고 저장을 위해 tarball을 Amazon S3에 업로드해야 합니다. 압축을 위해 모델을 준비하려면 현재 미세 조정된 모델을 언래핑한 다음 모델 바이너리 및 관련 구성 파일을 저장해야 합니다. 또한 추론을 위해 모델을 사용할 때 사용할 수 있도록 토크나이저를 모델 아티팩트를 저장한 동일한 디렉터리에 저장해야 합니다. 우리의 model_dir
폴더는 이제 다음 코드와 유사해야 합니다.
남은 것은 tar 명령을 실행하여 디렉터리를 압축하고 tar.gz 파일을 Amazon S3에 업로드하는 것입니다.
새로 미세 조정된 모델이 이제 준비되어 추론에 사용할 수 있습니다.
추론 수행
추론을 위해 이 모델 아티팩트를 사용하려면 새 파일을 열고 다음 코드를 사용하여 model_data
Amazon S3의 아티팩트 저장 위치에 맞는 매개변수입니다. 그만큼 HuggingFaceModel
생성자는 저장한 체크포인트에서 모델을 다시 빌드합니다. model.tar.gz
그런 다음 배포 방법을 사용하여 추론을 위해 배포할 수 있습니다. 엔드포인트를 배포하는 데 몇 분 정도 걸립니다.
엔드포인트가 배포된 후 생성한 예측기를 사용하여 테스트할 수 있습니다. 패스 predict
데이터 페이로드에 메서드를 지정하고 셀을 실행하면 미세 조정된 모델에서 응답을 받게 됩니다.
모델 미세 조정의 이점을 확인하기 위해 빠른 테스트를 수행해 보겠습니다. 다음 표에는 프롬프트와 미세 조정 전후에 해당 프롬프트를 모델에 전달한 결과가 포함되어 있습니다.
신속한 | 미세 조정 없는 응답 | 미세 조정을 통한 응답 |
환자가 겪고 있는 증상을 요약합니다. 환자는 왼쪽 팔로 방사되는 흉골하 흉통을 호소하는 45세 남성입니다. 통증은 마당에서 일을 하는 동안 갑자기 시작되며 가벼운 숨가쁨 및 발한과 관련이 있습니다. 도착 당시 환자의 심박수는 120, 호흡수는 24, 혈압은 170/95였습니다. 응급실 도착 시 12 납 심전도 검사를 시행하고 흉통 완화 없이 설하 니트로글리세린 XNUMX회 투여. 심전도는 급성 전방 심근 경색을 나타내는 전방 리드의 ST 상승을 보여줍니다. 우리는 심장 카테터 삽입 연구실에 연락하여 심장 전문의가 심장 카테터 삽입을 준비하고 있습니다. | 급성 심근경색증 사례를 소개합니다. | 흉통, 전방 MI, PCI. |
보시다시피 미세 조정된 모델은 건강 용어를 다르게 사용하며 목적에 맞게 응답 구조를 변경할 수 있었습니다. 결과는 데이터 세트와 교육 중에 선택한 디자인에 따라 달라집니다. 모델 버전은 매우 다른 결과를 제공할 수 있습니다.
정리
SageMaker 노트북 사용을 마치면 장기 실행 리소스로 인한 비용이 발생하지 않도록 종료해야 합니다. 인스턴스를 종료하면 인스턴스의 임시 메모리에 저장된 모든 데이터가 손실되므로 정리하기 전에 모든 작업을 영구 스토리지에 저장해야 합니다. 당신은 또한에 가야합니다 종점 SageMaker 콘솔의 페이지에서 추론을 위해 배포된 모든 엔드포인트를 삭제합니다. 모든 아티팩트를 제거하려면 Amazon S3 콘솔로 이동하여 버킷에 업로드된 파일도 삭제해야 합니다.
결론
이 게시물에서는 의료 전문가가 방대한 양의 임상 데이터에서 인사이트를 효율적으로 처리하고 추출할 수 있도록 SageMaker에서 텍스트 요약 기술을 구현하기 위한 다양한 옵션을 살펴보았습니다. 우리는 SageMaker Jumpstart 기반 모델 사용, Hugging Face에서 사전 훈련된 모델 미세 조정, 맞춤형 요약 모델 구축에 대해 논의했습니다. 각 접근 방식에는 고유한 장점과 단점이 있으며 다양한 요구 사항과 요구 사항을 충족합니다.
SageMaker에서 맞춤형 요약 모델을 구축하면 많은 유연성과 제어가 가능하지만 사전 훈련된 모델을 사용하는 것보다 더 많은 시간과 리소스가 필요합니다. SageMaker Jumpstart 기반 모델은 특정 사용자 지정 또는 미세 조정이 필요하지 않은 조직을 위한 사용하기 쉽고 비용 효율적인 솔루션과 단순화된 미세 조정을 위한 몇 가지 옵션을 제공합니다. Hugging Face에서 사전 훈련된 모델을 미세 조정하면 더 빠른 훈련 시간, 더 나은 도메인별 성능, 광범위한 모델 카탈로그에서 SageMaker 도구 및 서비스와의 원활한 통합을 제공하지만 약간의 구현 노력이 필요합니다. 이 게시물을 작성할 당시 Amazon은 또 다른 옵션을 발표했습니다. 아마존 기반암, 훨씬 더 관리되는 환경에서 요약 기능을 제공합니다.
각 접근 방식의 장단점을 이해함으로써 의료 전문가와 조직은 복잡한 임상 데이터의 간결하고 정확한 요약을 생성하는 데 가장 적합한 솔루션에 대해 정보에 입각한 결정을 내릴 수 있습니다. 궁극적으로 SageMaker에서 AI/ML 기반 요약 모델을 사용하면 의료 전문가가 관련 정보에 빠르게 액세스하고 양질의 치료를 제공하는 데 집중할 수 있으므로 환자 치료 및 의사 결정을 크게 향상할 수 있습니다.
제품 자료
이 게시물에서 설명한 전체 스크립트와 일부 샘플 데이터는 다음을 참조하세요. GitHub 레포. AWS에서 ML 워크로드를 실행하는 방법에 대한 자세한 내용은 다음 리소스를 참조하십시오.
저자 소개
코디 콜린스 Amazon Web Services의 뉴욕 기반 솔루션 아키텍트입니다. 그는 ISV 고객과 협력하여 클라우드에서 업계 최고의 솔루션을 구축합니다. 그는 다양한 산업을 위한 복잡한 프로젝트를 성공적으로 수행하여 효율성과 확장성을 최적화했습니다. 여가 시간에는 독서, 여행, 주짓수 수련을 즐깁니다.
아미르 하크메 펜실베니아에 거주하는 AWS 솔루션 아키텍트입니다. 그의 전문적인 초점은 북동부 전역의 독립 소프트웨어 공급업체와 협력하여 AWS 클라우드에서 확장 가능한 최신 플랫폼을 설계하고 구축하도록 안내하는 것입니다.
- SEO 기반 콘텐츠 및 PR 배포. 오늘 증폭하십시오.
- PlatoData.Network 수직 생성 Ai. 자신에게 권한을 부여하십시오. 여기에서 액세스하십시오.
- PlatoAiStream. 웹3 인텔리전스. 지식 증폭. 여기에서 액세스하십시오.
- 플라톤ESG. 자동차 / EV, 탄소, 클린테크, 에너지, 환경, 태양광, 폐기물 관리. 여기에서 액세스하십시오.
- BlockOffsets. 환경 오프셋 소유권 현대화. 여기에서 액세스하십시오.
- 출처: https://aws.amazon.com/blogs/machine-learning/exploring-summarization-options-for-healthcare-with-amazon-sagemaker/
- :있다
- :이다
- :아니
- :어디
- $UP
- 1
- 10
- 100
- 12
- 14
- 15%
- 24
- 33
- 7
- 8
- 9
- a
- 할 수 있는
- 소개
- 추상
- 가속
- 가속 자
- ACCESS
- 계정
- 정확한
- 가로질러
- 행위
- 아담
- 주소 지정
- 관리 된
- 많은
- 장점
- 후
- 다시
- 집합
- AI
- 인공 지능 연구
- AI / ML
- 알고리즘
- All
- 허용
- 수
- 따라
- 이미
- 또한
- 아마존
- 아마존 세이지 메이커
- Amazon Web Services
- 양
- 금액
- an
- 분석하다
- 및
- 발표
- 다른
- 어떤
- API를
- API
- 응용할 수 있는
- 어플리케이션
- 적용된
- 접근
- 구혼
- 적당한
- 아키텍처
- 있군요
- ARM
- 도착
- 기사
- AS
- 관련
- At
- 주의
- 자동화
- 가능
- 피하기
- 떨어져
- AWS
- 균형
- 기반으로
- BE
- 때문에
- 된
- 전에
- 시작하다
- 이익
- 혜택
- BEST
- 더 나은
- BIN
- 피
- 고혈압
- 꽃
- 보물상자
- 호흡
- 넓은
- 빌드
- 빌더
- 건물
- 내장
- 내장
- 비자 면제 프로그램에 해당하는 국가의 시민권을 가지고 있지만
- by
- 전화
- 라는
- CAN
- 기능
- 한
- 면밀히
- 케이스
- 가지 경우
- 목록
- 원인
- 과제
- 이전 단계로 돌아가기
- 잡담
- 선택
- 왼쪽 메뉴에서
- 선택
- 선택
- 수업
- 객관적인
- 클라우드
- 암호
- 코드
- 코딩
- 협력
- 단
- 열
- 왔다
- 제공
- 공통의
- 비교
- 불만
- 복잡한
- compliance
- 구성 요소
- 구성 요소들
- 구성
- 간결한
- 구성
- 단점
- 콘솔에서
- 건설 중의
- 문맥
- 제어
- 편리한
- 동
- 비용 효율적인
- 비용
- 수
- 적용
- 만들
- 만든
- 만들기
- 결정적인
- 현재
- 관습
- 고객
- 고객
- 사용자 정의
- 데이터
- 데이터 세트
- 의사 결정
- 결정
- 정의
- 전달
- 시연하는
- 학과
- 의존하는
- 의존
- 배포
- 배포
- 배치
- 전개
- 디자인
- 설계
- 설계
- 원하는
- 세부설명
- 개발
- 디바이스
- 다른
- 직접
- 발견
- 토론
- 논의 된
- 몇몇의
- do
- 의사
- 하기
- 도메인
- 도메인
- 한
- 말라
- 아래 (down)
- 단점
- ...동안
- 마다
- 쉽게
- 용이하게
- 쉽게
- 사용하기 쉬운
- 효과적으로
- 효율성
- 효율적인
- 효율적으로
- 노력
- 전자
- 전자 건강 기록
- 적임
- 비상 사태
- 가능
- 수
- 가능
- 종점
- 엔지니어링
- 강화
- 확인
- Enterprise
- 항목
- 환경
- 시대
- 필수
- 조차
- 진화하는
- 예
- 현존하는
- 경험
- 체험
- 탐험
- 탐험 한
- 탐색
- 연장
- 추출물
- 페이스메이크업
- 직면
- 멀리
- 빠른
- 연방 준비 은행
- 를
- 입양 부모로서의 귀하의 적합성을 결정하기 위해 미국 이민국에
- 파일
- 최후의
- 최종적으로
- Find
- 발견
- 먼저,
- 맞게
- 유연성
- 초점
- 따라
- 수행원
- 럭셔리
- 체재
- Foundation
- 에
- 가득 찬
- 충분히
- 기능
- 게다가
- 미래
- 이득
- 일반
- 생성
- 생성
- 생성
- 얻을
- 점점
- 주기
- 주어진
- 기부
- Go
- Google의
- GPU
- 큰
- 큰
- 보장
- 있다
- he
- 건강
- 건강 관리
- 심장
- 도움
- 그의
- 호스팅
- 방법
- How To
- HTML
- HTTP
- HTTPS
- 허브
- 포옹 얼굴
- 이상
- if
- 영상
- 구현
- 이행
- 구현
- import
- 중대한
- 개선
- in
- 심도
- 포함
- 포함
- 포함
- 독립
- 산업
- 산업
- 정보
- 정보
- 처음에는
- 입력
- 입력
- 통찰력
- 예
- 명령
- 완성
- 인텔리전스
- 으로
- 감다
- IT
- 그
- 일
- JSON
- 다만
- 알아
- 지식
- 실험실
- 실험실
- 경치
- 언어
- 넓은
- 성
- 후에
- 리드
- 지도
- 오퍼
- 배우다
- 배우기
- 왼쪽 (left)
- 도서관
- 처럼
- LLM
- 하중
- 로드
- 위치
- 논리
- 보기
- 잃다
- 오프
- 기계
- 기계 학습
- 만든
- 유지하다
- 확인
- 유튜브 영상을 만드는 것은
- 관리
- 관리
- 구축
- 지도
- 마케팅
- XNUMX월..
- 평균
- 의료
- 소개
- 메모리
- 만나
- 방법
- 수도
- 최소의
- 회의록
- ML
- 모델
- 모델
- 모듈
- 배우기
- 가장
- 가장 인기 많은
- 여러
- 이름
- 자연의
- 자연 언어 처리
- 이동
- 필요
- 요구
- 신제품
- 뉴욕
- 새로운
- 다음 것
- nlp
- 아니
- 수첩
- 노트
- 지금
- 번호
- 대상
- 사물
- of
- 제공
- 제공
- 제공
- 낡은
- on
- ONE
- 사람
- 습격
- ~에
- 열 수
- 오픈 소스
- 운영
- 최적화
- 최적화
- 최적화
- 최적화
- 선택권
- 옵션
- or
- 주문
- 조직
- 실물
- 기타
- 그렇지 않으면
- 우리의
- 아웃
- 출력
- 외부
- 위에
- 자신의
- 소유권
- 꾸러미
- 포장
- 페이지
- 고통
- 매개 변수
- 매개 변수
- 특별한
- 패스
- 통과
- 환자
- 환자
- 페가수스
- 펜실베니아
- 성능
- 관련
- 구문
- 플랫폼
- 플랫폼
- 플라톤
- 플라톤 데이터 인텔리전스
- 플라토데이터
- 포인트 적립
- 인기 문서
- 게시하다
- 강한
- 전원
- 연습
- Predictor
- 취하다
- Prepare
- 준비
- 제시
- 압박
- 시사
- 이전에
- 주로
- 방법
- 프로세스
- 처리
- 생산
- 링크를
- 전문가
- 프로젝트
- 약속
- 소유권
- 전문가
- 제공
- 제공
- 제공
- 제공
- 규정
- 목적
- 목적
- 놓다
- Python
- 품질
- 빠른
- 빨리
- 범위
- 빠르게
- 율
- 읽기
- 준비
- 현실 세계
- 기록
- 관련된
- 구조
- 제거
- 보고서
- 필요
- 필수
- 요구조건 니즈
- 필요
- 연구
- 제품 자료
- 응답
- 결과
- 반품
- 리뷰
- 직위별
- 달리기
- 달리는
- 실행
- 현자
- 같은
- 찜하기
- 확장성
- 확장성
- 범위
- 할퀴다
- SDK
- SDK
- 원활한
- 섹션
- 보안
- 참조
- 별도의
- 서비스
- 서비스
- 세트
- 설정
- 설정
- 몇몇의
- 단축
- 영상을
- 표시
- 표시
- 쇼
- 종료
- 체로 치다
- 상당한
- 크게
- 비슷한
- 단순, 간단, 편리
- 단순화
- 크기
- So
- 지금까지
- 소프트웨어
- 해결책
- 솔루션
- 일부
- 무언가
- 지우면 좋을거같음 . SM
- 구체적인
- 구체적으로
- 지출
- 스타트
- 시작 중
- 주 정부
- 최첨단
- 단계
- 저장
- 저장
- 저장
- 저장
- 능률화
- 구조
- 스튜디오
- 설하
- 성공적으로
- 이러한
- 돌연 한
- 소송
- 적당한
- 개요
- 확인
- 증상
- 개요
- 인조
- 합성 데이터
- 시스템은
- 테이블
- 받아
- 촬영
- 소요
- 태스크
- 작업
- 기법
- 술어
- 조건
- test
- 보다
- 그
- XNUMXD덴탈의
- 허브
- 그들
- 그때
- Bowman의
- 그들
- 이
- 그
- 세
- 을 통하여
- 도처에
- 시간
- 시간이 많이 걸리는
- 시대
- 에
- 오늘의
- 함께
- 토큰 화 된
- 토큰
- 검색을
- 토치
- 금액
- Train
- 훈련 된
- 트레이닝
- 변환
- 변압기
- 변압기
- 여행
- 두
- 유형
- 유형
- 일반적으로
- ui
- 궁극적으로
- 할 수 없는
- 아래에
- 이해
- 이해
- 업데이트
- 업로드
- us
- 사용
- 유스 케이스
- 익숙한
- 사용하기 쉬운
- 사용
- 사용
- 활용
- 확인
- 마케팅은:
- 여러
- 거대한
- 공급 업체
- 다양한
- 버전
- 대단히
- 볼륨
- 필요
- 였다
- we
- 재산
- 웹
- 웹 서비스
- 달다
- 잘
- 뭐
- 언제
- 어느
- 동안
- 넓은
- 넓은 범위
- 의지
- 과
- 없이
- 말
- 작업
- 일하는
- 일
- 겠지
- 쓰기
- year
- 요크
- 자신의
- 너의
- 제퍼 넷
- 지퍼