수만 명의 AWS 고객이 AWS 기계 학습(ML) 서비스를 사용하여 완전 관리형 인프라 및 도구로 ML 개발을 가속화합니다. 로컬 데스크톱과 같은 온프레미스에서 ML 모델을 개발해 온 고객은 레거시 ML 모델을 AWS 클라우드로 마이그레이션하여 AWS에서 사용할 수 있는 가장 포괄적인 ML 서비스, 인프라 및 구현 리소스 세트를 최대한 활용하기를 원합니다. .
용어 레거시 코드 로컬 데스크톱에서 수동으로 실행되도록 개발되었으며 다음과 같은 클라우드 지원 SDK로 빌드되지 않은 코드를 나타냅니다. Python 용 AWS SDK (Boto3) or Amazon SageMaker Python SDK. 즉, 이러한 레거시 코드는 클라우드 배포에 최적화되어 있지 않습니다. 마이그레이션을 위한 모범 사례는 다음을 사용하여 이러한 레거시 코드를 리팩터링하는 것입니다. 아마존 세이지메이커 API 또는 SageMaker Python SDK. 그러나 경우에 따라 레거시 모델이 많은 조직은 모든 모델을 다시 작성할 시간이나 리소스가 없을 수 있습니다.
이 게시물에서는 다음을 사용하여 추론을 위해 레거시 ML 코드를 AWS 클라우드로 마이그레이션하는 확장 가능하고 구현하기 쉬운 접근 방식을 공유합니다. 아마존 세이지 메이커 및 AWS 단계 함수, 최소한의 코드 리팩토링이 필요합니다. 이 솔루션을 쉽게 확장하여 더 많은 기능을 추가할 수 있습니다. 데이터 과학자와 MLOps 엔지니어라는 두 명의 서로 다른 페르소나가 어떻게 협업하여 수백 개의 레거시 모델을 리프트 앤 시프트할 수 있는지 보여줍니다.
솔루션 개요
이 프레임워크에서는 컨테이너의 레거시 코드를 SageMaker 처리 직업. SageMaker는 처리 컨테이너 내에서 레거시 스크립트를 실행합니다. 처리 컨테이너 이미지는 SageMaker 기본 제공 이미지 또는 사용자 지정 이미지일 수 있습니다. 처리 작업의 기본 인프라는 SageMaker에서 완전히 관리합니다. 레거시 코드를 변경할 필요가 없습니다. SageMaker 처리 작업 생성에 익숙하기만 하면 됩니다.
우리는 데이터 과학자와 MLOps 엔지니어라는 두 인물의 참여를 가정합니다. 데이터 과학자는 코드를 수동으로 또는 다음과 같은 코드 리포지토리에서 복제하여 SageMaker로 이동하는 일을 담당합니다. AWS 코드 커밋. 아마존 세이지 메이커 스튜디오 ML 수명 주기의 다양한 단계를 구현하기 위한 통합 개발 환경(IDE)을 제공하고 데이터 과학자는 이를 사용하여 배포에 필요한 코드 아티팩트가 포함된 사용자 지정 컨테이너를 수동으로 빌드합니다. 컨테이너는 다음과 같은 컨테이너 레지스트리에 등록됩니다. Amazon Elastic Container Registry (Amazon ECR) 배포용.
MLOps 엔지니어는 적절한 매개 변수를 사용하여 데이터 과학자가 개발한 사용자 지정 컨테이너를 배포하는 데 재사용할 수 있는 Step Functions 워크플로 구축에 대한 소유권을 갖습니다. Step Functions 워크플로는 사용 사례에 맞게 필요한 만큼 모듈화하거나 단일 프로세스를 시작하는 한 단계로 구성될 수 있습니다. 코드를 마이그레이션하는 데 필요한 노력을 최소화하기 위해 완전한 기능을 갖춘 배포 프로세스를 구축하기 위한 세 가지 모듈식 구성 요소를 확인했습니다.
- 전처리
- 추론
- 후 처리
다음 다이어그램은 솔루션 아키텍처와 워크플로를 보여줍니다.
이 솔루션에는 다음 단계가 포함됩니다.
- 데이터 과학자 페르소나는 Studio를 사용하여 코드 리포지토리에서 복제를 통해 레거시 코드를 가져온 다음 코드를 ML 수명 주기의 단계(전처리, 추론 및 후처리)를 따르는 별도의 구성 요소로 모듈화합니다.
- 데이터 과학자는 Studio, 특히 스튜디오 이미지 빌드 CLI Docker 이미지를 빌드하기 위해 SageMaker에서 제공하는 도구입니다. 이 CLI 도구를 사용하면 데이터 과학자가 Studio 내에서 직접 이미지를 빌드하고 이미지를 Amazon ECR에 자동으로 등록할 수 있습니다.
- MLOps 엔지니어는 등록된 컨테이너 이미지를 사용하고 Step Functions를 사용하여 특정 사용 사례에 대한 배포를 생성합니다. Step Functions는 Amazon States 언어를 사용하여 SageMaker API를 직접 제어할 수 있는 서버리스 워크플로 서비스입니다.
SageMaker 처리 작업
어떻게 이해하자 SageMaker 처리 작업 실행합니다. 다음 다이어그램은 SageMaker가 처리 작업을 실행하는 방법을 보여줍니다.
SageMaker는 스크립트를 가져오고 다음에서 데이터를 복사합니다. 아마존 단순 스토리지 서비스 (Amazon S3) 그런 다음 처리 컨테이너를 당깁니다. 처리 컨테이너 이미지는 SageMaker 기본 제공 이미지이거나 사용자가 제공하는 사용자 지정 이미지일 수 있습니다. 처리 작업의 기본 인프라는 SageMaker에서 완전히 관리합니다. 클러스터 리소스는 작업 기간 동안 프로비저닝되고 작업이 완료되면 정리됩니다. 처리 작업의 출력은 지정한 S3 버킷에 저장됩니다. 자체 컨테이너 구축에 대한 자세한 내용은 다음을 참조하세요. 자체 처리 컨테이너 구축(고급 시나리오).
SageMaker 처리 작업은 Docker 컨테이너 진입점 스크립트를 사용하여 처리 이미지를 설정합니다. 또한 앱 사양 API. 고유한 사용자 지정 진입점을 사용하는 경우 이미지를 다시 빌드하지 않고 독립 실행형 스크립트로 실행할 수 있는 유연성이 추가되었습니다.
이 예에서는 사용자 지정 컨테이너를 구성하고 추론을 위해 SageMaker 처리 작업을 사용합니다. 전처리 및 후처리 작업은 사전 빌드된 scikit-learn 컨테이너와 함께 스크립트 모드를 활용합니다.
사전 조건
이 게시물을 따르려면 다음 전제 조건 단계를 완료하십시오.
- 스튜디오 도메인을 생성합니다. 지침은 다음을 참조하십시오. 빠른 설정을 사용하여 Amazon SageMaker 도메인에 온보딩.
- S3 버킷을 생성합니다.
- 제공된 복제 GitHub 레포 스튜디오로.
GitHub 리포지토리는 ML 수명 주기의 다양한 단계에 해당하는 여러 폴더로 구성되어 있어 쉽게 탐색하고 관리할 수 있습니다.
레거시 코드 마이그레이션
이 단계에서 우리는 레거시 코드 마이그레이션을 담당하는 데이터 과학자 역할을 합니다.
우리는 build_and_push.ipynb
공책.
노트북의 초기 셀은 설치 과정을 안내합니다. 스튜디오 이미지 빌드 CLI. 이 CLI는 상위 수준 명령을 통해 상호 작용할 수 있는 재사용 가능한 빌드 환경을 자동으로 생성하여 설정 프로세스를 단순화합니다. CLI를 사용하면 이미지 빌드가 빌드하라고 지시하는 것만큼 쉬우며 그 결과 Amazon ECR에서 이미지 위치에 대한 링크가 생성됩니다. 이 접근 방식을 사용하면 CLI로 오케스트레이션된 복잡한 기본 워크플로를 관리할 필요가 없으므로 이미지 구축 프로세스가 간소화됩니다.
빌드 명령을 실행하기 전에 CLI에 지정된 대로 명령을 실행하는 역할에 필요한 권한이 있는지 확인하는 것이 중요합니다. GitHub의 읽어보기 또는 관련 게시물. 필요한 권한을 부여하지 않으면 빌드 프로세스 중에 오류가 발생할 수 있습니다.
다음 코드를 참조하십시오.
레거시 코드를 간소화하려면 preprocessing.py, predict.py 및 postprocessing.py라는 세 가지 고유한 Python 스크립트로 나눕니다. 코드를 기본 함수에서 호출되는 함수로 변환하여 최상의 프로그래밍 방법을 준수하십시오. 필요한 모든 라이브러리를 가져오고 requirements.txt 파일이 사용자 정의 라이브러리를 포함하도록 업데이트되었는지 확인하십시오.
코드를 구성한 후 요구 사항 파일과 함께 Docker 컨테이너로 패키징합니다. 다음 명령을 사용하여 Studio 내에서 컨테이너를 쉽게 빌드할 수 있습니다.
기본적으로 이미지는 latest 태그와 함께 sagemakerstudio라는 ECR 리포지토리에 푸시됩니다. 또한 기본 SageMaker Python SDK S3 버킷과 함께 Studio 앱의 실행 역할이 활용됩니다. 그러나 이러한 설정은 적절한 CLI 옵션을 사용하여 쉽게 변경할 수 있습니다. 다음 코드를 참조하십시오.
컨테이너가 구축되고 ECR 리포지토리에 등록되었으므로 이제 컨테이너를 사용하여 predict.py를 실행하는 방법에 대해 자세히 알아볼 차례입니다. 또한 사전 구축된 사이 킷 학습 preprocessing.py 및 postprocessing.py를 실행할 컨테이너.
컨테이너 생산
이 단계에서는 이전 단계에서 빌드한 컨테이너를 생산하는 MLOps 엔지니어 역할을 합니다.
Step Functions를 사용하여 워크플로를 조율합니다. Step Functions는 레거시 시스템에 존재할 수 있는 기존 종속성을 수용하여 다양한 범위의 서비스를 워크플로에 통합하는 탁월한 유연성을 제공합니다. 이 접근 방식은 필요한 모든 구성 요소가 원활하게 통합되고 원하는 순서로 실행되도록 하여 효율적이고 효과적인 워크플로우 솔루션을 제공합니다.
Step Functions는 Amazon States 언어에서 직접 특정 AWS 서비스를 제어할 수 있습니다. Step Functions 작업 및 SageMaker와의 통합에 대한 자세한 내용은 다음을 참조하십시오. Step Functions로 SageMaker 관리. SageMaker와 함께 Step Functions 통합 기능을 사용하여 스크립트 모드에서 SageMaker 처리 작업을 사용하여 전처리 및 후처리 스크립트를 실행하고 다음을 사용하여 SageMaker 처리 작업으로 추론을 실행합니다. 맞춤 컨테이너. Python용 AWS SDK(Boto3)를 사용하여 이를 수행합니다. 처리작업 생성 API 호출.
전처리
SageMaker는 사용자 지정 코드를 실행하기 위한 여러 옵션을 제공합니다. 사용자 지정 종속성이 없는 스크립트만 있는 경우 스크립트를 BYOS(Bring Your Own Script)로 실행할 수 있습니다. 이렇게 하려면 스크립트를 사전 구축된 scikit-learn 프레임워크 컨테이너에 전달하고 스크립트 모드에서 SageMaker 처리 작업을 실행하기만 하면 됩니다. 앱 사양 API. 이것은 간단한 스크립트를 실행하기 위한 간단하고 편리한 방법입니다.
에서 "전처리 스크립트 모드" 상태 구성을 확인하십시오. 샘플 Step Functions 워크플로 사용자 지정 스크립트를 실행하도록 CreateProcessingJob API 호출을 구성하는 방법을 이해합니다.
추론
다음을 사용하여 사용자 지정 컨테이너를 실행할 수 있습니다. 나만의 프로세싱 컨테이너 구축 접근하다. SageMaker 처리 작업은 /opt/ml
로컬 경로, 구성에서 ProcessingInputs 및 해당 로컬 경로를 지정할 수 있습니다. 그런 다음 처리 작업은 아티팩트를 로컬 컨테이너에 복사하고 작업을 시작합니다. 작업이 완료되면 ProcessingOutputs의 로컬 경로에 지정된 아티팩트를 지정된 외부 위치에 복사합니다.
"Inference Custom Container" 상태 구성을 확인하십시오. 샘플 Step Functions 워크플로 사용자 지정 컨테이너를 실행하도록 CreateProcessingJob API 호출을 구성하는 방법을 이해합니다.
후 처리
Step Functions CreateProcessingJob 단계를 사용하여 전처리 스크립트처럼 후처리 스크립트를 실행할 수 있습니다. 사후 처리 스크립트를 실행하면 추론 작업이 완료된 후 사용자 지정 처리 작업을 수행할 수 있습니다.
Step Functions 워크플로 만들기
신속한 프로토타이핑을 위해 Step Functions를 사용합니다. 아마존 주 언어. 상태 언어를 사용하여 직접 Step Functions 정의를 편집할 수 있습니다. 참조 샘플 Step Functions 워크플로.
다음을 선택하여 Step Functions 콘솔에서 새 Step Functions 상태 시스템을 생성할 수 있습니다. 코드로 워크플로 작성.
Step Functions는 사용하는 리소스를 보고 역할을 생성할 수 있습니다. 그러나 다음 메시지가 표시될 수 있습니다.
"SageMaker용 RoleArn이 경로에서 오는 경우 Step Functions는 IAM 정책을 생성할 수 없습니다. 상태 시스템 정의에서 SageMaker RoleArn을 하드코딩하거나 SageMaker를 호출하기 위한 Step Functions에 대한 적절한 권한이 있는 기존 역할을 선택하십시오.”
이 문제를 해결하려면 AWS 자격 증명 및 액세스 관리 (IAM) Step Functions 역할. 지침은 다음을 참조하십시오. 상태 시스템에 대한 IAM 역할 생성. 그런 다음 다음 IAM 정책을 연결하여 워크플로 실행에 필요한 권한을 제공합니다.
다음 그림은 Step Functions 워크플로의 각 단계로의 데이터 및 컨테이너 이미지 흐름을 보여줍니다.
다음은 Step Functions에서 초기화하는 데 필요한 최소 매개변수 목록입니다. 당신은 또한 참조할 수 있습니다 샘플 입력 매개변수 JSON:
- 입력_우리 – 입력 파일의 S3 URI
- 출력_우리 – 출력 파일의 S3 URI
- code_uri – 스크립트 파일의 S3 URI
- custom_image_uri – 빌드한 사용자 지정 컨테이너의 컨테이너 URI
- scikit_image_uri – 사전 빌드된 scikit-learn 프레임워크의 컨테이너 URI
- 역할 – 작업을 실행하는 실행 역할
- 인스턴스_유형 – 컨테이너를 실행하는 데 사용해야 하는 인스턴스 유형
- 볼륨 크기 – 컨테이너에 필요한 스토리지 볼륨 크기
- 최대 런타임 – 컨테이너의 최대 런타임(기본값 1시간)
워크 플로 실행
우리는 레거시 코드를 전처리, 추론 및 후처리와 같은 관리 가능한 부분으로 분류했습니다. 추론 요구 사항을 지원하기 위해 필요한 라이브러리 종속성을 갖춘 사용자 지정 컨테이너를 구성했습니다. 우리의 계획은 SageMaker API를 호출하는 기능을 활용하여 Step Functions를 활용하는 것입니다. SageMaker API를 사용하여 사용자 지정 코드를 실행하는 두 가지 방법, 즉 미리 빌드된 이미지를 활용하고 런타임 시 사용자 지정 스크립트를 사용하는 SageMaker 처리 작업과 필요한 패키지로 패키징된 사용자 지정 컨테이너를 사용하는 SageMaker 처리 작업을 보여 주었습니다. 사용자 지정 추론을 실행하기 위한 아티팩트.
다음 그림은 Step Functions 워크플로의 실행을 보여줍니다.
요약
이 게시물에서는 로컬 개발 환경에서 레거시 ML Python 코드를 마이그레이션하고 표준화된 MLOps 절차를 구현하는 프로세스에 대해 논의했습니다. 이 접근 방식을 사용하면 수백 개의 모델을 쉽게 전송하고 원하는 엔터프라이즈 배포 사례를 통합할 수 있습니다. SageMaker에서 사용자 지정 코드를 실행하는 두 가지 방법을 제시했으며 필요에 가장 적합한 방법을 선택할 수 있습니다.
고도로 사용자 지정 가능한 솔루션이 필요한 경우 사용자 지정 컨테이너 접근 방식을 사용하는 것이 좋습니다. 앞서 언급한 전처리 단계에서 설명한 대로 기본 스크립트가 있고 사용자 지정 컨테이너를 생성할 필요가 없는 경우 미리 빌드된 이미지를 사용하여 사용자 지정 스크립트를 실행하는 것이 더 적합할 수 있습니다. 또한 필요한 경우 이 게시물에서 추론 단계가 컨테이너화되는 방식과 마찬가지로 이 솔루션을 적용하여 레거시 모델 교육 및 평가 단계를 컨테이너화할 수 있습니다.
저자에 관하여
바바나 치루마밀라 데이터 및 기계 학습 운영에 대한 강한 열정을 가진 AWS의 수석 상주 설계자입니다. 그녀는 기업이 효과적인 데이터 및 ML 전략을 구축하는 데 도움이 되는 풍부한 경험과 열정을 제공합니다. 여가 시간에 Bhavana는 가족과 함께 시간을 보내고 여행, 하이킹, 정원 가꾸기, 다큐멘터리 시청과 같은 다양한 활동에 참여하는 것을 즐깁니다.
샤암 나마람 Amazon Web Services(AWS)의 수석 인공 지능(AI) 및 기계 학습(ML) 전문 솔루션 아키텍트입니다. 그는 기술 지침을 제공하고 고객이 AWS에서 안전한 클라우드 솔루션을 혁신하고 구축하도록 지원함으로써 AI 및 ML 채택을 가속화하기 위해 고객과 열정적으로 협력합니다. 그는 AI 및 ML, 컨테이너 및 분석 기술을 전문으로 합니다. 일 외에는 스포츠를 즐기고 트레킹을 통해 자연을 경험하는 것을 좋아합니다.
칭 웨이 리 Amazon Web Services의 기계 학습 전문가입니다. 그는 고문의 연구 보조금 계좌를 깨고 그가 약속 한 노벨상을 제공하지 못한 후 운영 연구 박사 학위를 받았습니다. 현재 그는 금융 서비스 및 보험 업계의 고객이 AWS에서 기계 학습 솔루션을 구축하도록 돕고 있습니다. 여가 시간에는 읽기와 가르치기를 좋아합니다.
스리니바사 샤이크 보스턴에 본사를 둔 AWS의 솔루션 아키텍트입니다. 그는 기업 고객이 클라우드로의 여정을 가속화하도록 돕습니다. 그는 컨테이너 및 기계 학습 기술에 열정적입니다. 여가 시간에는 가족과 함께 시간을 보내고 요리와 여행을 즐깁니다.
- SEO 기반 콘텐츠 및 PR 배포. 오늘 증폭하십시오.
- 플라토 블록체인. Web3 메타버스 인텔리전스. 지식 증폭. 여기에서 액세스하십시오.
- 출처: https://aws.amazon.com/blogs/machine-learning/bring-legacy-machine-learning-code-into-amazon-sagemaker-using-aws-step-functions/
- :이다
- $UP
- 1
- 10
- 100
- 214
- 7
- 8
- a
- 능력
- 소개
- 가속
- ACCESS
- 계정
- 행동
- 동작
- 방과 후 액티비티
- 추가
- 또한
- 주소
- 가입 한
- 양자
- 많은
- 이점
- 후
- AI
- All
- 수
- 아마존
- 아마존 세이지 메이커
- Amazon Web Services
- Amazon Web Services (AWS)
- 양
- 분석
- 및
- API를
- API
- 앱
- 신청
- 접근
- 적당한
- 아키텍처
- 있군요
- 인조의
- 인공 지능
- 인공 지능(AI)
- AS
- At
- 붙이다
- 자동적으로
- 가능
- AWS
- AWS 기계 학습
- AWS 단계 함수
- 기반으로
- 기본
- BE
- 시작하다
- BEST
- 보스턴
- 가져
- 돋보이게
- 파산
- 부서진
- 빌드
- 건물
- 내장
- 내장
- by
- 전화
- 라는
- 통화
- CAN
- 케이스
- 가지 경우
- 어떤
- 이전 단계로 돌아가기
- 왼쪽 메뉴에서
- 클라이언트
- 클라우드
- 클러스터
- 암호
- 협력
- COM
- 완전한
- 복잡한
- 구성 요소들
- 포괄적 인
- 조건
- 구성
- 콘솔에서
- 구축
- 컨테이너
- 용기
- 이 포함되어 있습니다
- 제어
- 편리한
- 만들
- 생성
- 만들기
- 현재
- 관습
- 고객
- 맞춤형
- 데이터
- 데이터 과학자
- 깊이
- 태만
- 배달하다
- 보여
- 배포
- 전개
- 기술 된
- 원하는
- 바탕 화면
- 개발
- 개발
- 개발
- 다른
- 직접
- 논의 된
- 뚜렷한
- 몇몇의
- 도커
- 다큐멘터리
- 도메인
- 말라
- 아래 (down)
- ...동안
- 마다
- 이전
- 용이하게
- 효과
- 유효한
- 효율적인
- 노력
- 중
- 거림
- 매력적인
- 기사
- 확인
- 보장
- Enterprise
- 기업
- 열광
- 환경
- 환경
- 갖추어 준
- 오류
- 평가
- 예
- 해외 투자자를 위한 맞춤형
- 실행
- 현존하는
- 경험
- 체험
- 확장
- 외부
- 촉진
- 실패한
- 정통
- 가족
- 그림
- 입양 부모로서의 귀하의 적합성을 결정하기 위해 미국 이민국에
- 금융
- 금융 서비스
- Find
- 맞게
- 유연성
- 흐름
- 따라
- 수행원
- 럭셔리
- 뼈대
- 에
- 충분히
- 기능
- 기능의
- 기능
- 기능
- 게다가
- 생성
- GitHub의
- 부여
- 지도
- 안내서
- 있다
- 도움
- 도움이
- 도움이
- 고수준
- 고도로
- 방법
- How To
- 그러나
- HTML
- HTTP
- HTTPS
- 수백
- 확인
- 통합 인증
- 영상
- 형상
- 이행
- 구현
- import
- 중대한
- in
- 기타의
- 포함
- 통합
- 산업
- 인프라
- 처음에는
- 시작
- 받아 들여 쓰다
- 입력
- 설치
- 설치
- 예
- 명령
- 보험
- 통합 된
- 통합
- 완성
- 인텔리전스
- 상호 작용하는
- 참여
- 참여
- IT
- 그
- 일
- 작업
- 여행
- JPG
- JSON
- 딱 하나만
- 언어
- 넓은
- 최근
- 배우다
- 배우기
- 유산
- 도서관
- 도서관
- wifecycwe
- 처럼
- LINK
- 명부
- 지방의
- 위치
- 보기
- 기계
- 기계 학습
- 본관
- 관리
- 관리
- 구축
- 수동으로
- 최고
- 말하는
- 메시지
- 방법
- 방법
- 이전
- 이주
- 최저한의
- ML
- MLOps
- 모드
- 모델
- 모델
- 모듈러
- 배우기
- 가장
- 움직이는
- 이름
- 자연
- 카테고리
- 필요한
- 필요
- 요구
- 신제품
- nobel prize
- 수첩
- 번호
- of
- 제공
- on
- ONE
- 열기
- 운영
- 행정부
- 최적화
- 옵션
- 조율 된
- 조직
- 최
- 기타
- 출력
- 외부
- 자신의
- 소유권
- 꾸러미
- 매개 변수
- 부품
- 열정
- 열렬한
- 통로
- 수행
- 권한
- 계획
- 플라톤
- 플라톤 데이터 인텔리전스
- 플라토데이터
- 연주
- 정책
- 게시하다
- 연습
- 사례
- 예측
- 제시
- 너무 이른
- 상
- 방법
- 처리
- 프로그램 작성
- 약속 한
- 적절한
- 프로토 타입
- 제공
- 제공
- 제공
- 제공
- 했었어요
- 목적
- 밀
- Python
- 빠른
- 빨리
- 범위
- 읽기
- 접수
- 추천
- 리팩터링
- 의미
- 등록된
- 레지스터들
- 레지스트리
- 저장소
- 필요
- 필수
- 요구조건 니즈
- 연구
- 의지
- 제품 자료
- 책임
- 결과
- 결과
- 재사용 가능한
- 직위별
- 달리기
- 달리는
- 현자
- 확장성
- 대본
- 과학자
- 사이 킷 학습
- 스크립트
- SDK
- 완벽하게
- 안전해야합니다.
- 선택
- 연장자
- 별도의
- 순서
- 서버리스
- 서비스
- 서비스
- 세트
- 설정
- 설정
- 설치
- 몇몇의
- 공유
- 변화
- 표시
- 표시
- 쇼
- 단순, 간단, 편리
- 간단히
- 단일
- 크기
- So
- 해결책
- 솔루션
- 일부
- 전문가
- 전문적으로
- 구체적인
- 구체적으로
- 지정
- 지출
- 핑핑
- 스포츠
- 단계
- 독립
- 시작
- 주 정부
- 성명서
- 미국
- 단계
- 단계
- 저장
- 저장
- 똑 바른
- 전략들
- 유선
- 능률화
- 강한
- 스튜디오
- 이러한
- 적당한
- SUPPORT
- SYS
- 체계
- TAG
- 받아
- 소요
- 복용
- 작업
- 교육
- 테크니컬
- 기술
- 그
- XNUMXD덴탈의
- 그들의
- 그들
- Bowman의
- 수천
- 세
- 을 통하여
- 시간
- 에
- 수단
- 검색을
- 트레이닝
- 이전
- 여행
- 밑에 있는
- 이해
- 업데이트
- 사용
- 유스 케이스
- 유틸리티
- 활용
- 사용
- 이용하다
- 가치
- 여러
- 버전
- 음량
- 시청
- 재산
- 웹
- 웹 서비스
- 어느
- 누구
- 의지
- 과
- 이내
- 없이
- 말
- 작업
- 일하는
- 일
- 자신의
- 너의
- 제퍼 넷