3부로 구성된 이 시리즈에서는 1D 개체 감지 작업을 위해 모델에 레이블을 지정하고 훈련하는 방법을 보여줍니다. 2부에서는 데이터를 이해하고 레이블을 지정하기 위해 사용 중인 데이터 세트와 전처리 단계에 대해 설명합니다. XNUMX부에서는 데이터 세트에서 모델을 교육하고 프로덕션에 배포하는 방법을 살펴봅니다.
LiDAR (빛 감지 및 거리 측정) 레이저로 물체나 표면을 겨냥하고 반사된 빛이 수신기로 돌아오는 시간을 측정하여 범위를 결정하는 방법입니다. 자율주행차 회사는 일반적으로 LiDAR 센서를 사용하여 차량 주변 환경에 대한 3D 이해를 생성합니다.
LiDAR 센서의 접근성과 비용 효율성이 높아짐에 따라 고객은 로봇 공학, 신호 매핑, 증강 현실과 같은 새로운 공간에서 포인트 클라우드 데이터를 점점 더 많이 사용하고 있습니다. 일부 새로운 모바일 장치에는 LiDAR 센서도 포함되어 있습니다. LiDAR 센서의 가용성이 높아짐에 따라 3D 객체 감지 및 추적, 3D 분할, 3D 객체 합성 및 재구성, 3D 데이터를 사용하여 2D 깊이 추정을 검증하는 것과 같은 기계 학습(ML) 작업을 위한 포인트 클라우드 데이터에 대한 관심이 높아졌습니다.
이 시리즈에서는 3D 장면에서 차량의 위치를 예측하기 위해 포인트 클라우드 데이터에서 실행되는 객체 감지 모델을 훈련하는 방법을 보여줍니다. 이 게시물에서는 특히 LiDAR 데이터 레이블 지정에 중점을 둡니다. 표준 LiDAR 센서 출력은 일반적인 캡처 속도가 초당 3프레임인 일련의 10D 포인트 클라우드 프레임입니다. 이 센서 출력에 레이블을 지정하려면 3D 데이터를 처리할 수 있는 레이블 지정 도구가 필요합니다. 아마존 세이지 메이커 그라운드 진실 단일 3D 프레임 또는 일련의 3D 포인트 클라우드 프레임에서 객체에 레이블을 지정하여 ML 교육 데이터 세트를 구축하기가 쉽습니다. Ground Truth는 또한 최대 XNUMX개의 비디오 카메라 입력으로 카메라와 LiDAR 데이터의 센서 융합을 지원합니다.
데이터는 모든 ML 프로젝트에 필수적입니다. 특히 3D 데이터는 소싱, 시각화 및 레이블 지정이 어려울 수 있습니다. 우리는 A2D2 데이터세트 이 게시물에서 시각화하고 레이블을 지정하는 단계를 안내합니다.
A2D2에는 40,000D 경계 상자 레이블이 있는 12,499개의 프레임을 포함하여 시맨틱 분할 및 포인트 클라우드 레이블이 있는 3개의 프레임이 포함되어 있습니다. 객체 감지에 초점을 맞추고 있으므로 12,499D 경계 상자 레이블이 있는 3개의 프레임에 관심이 있습니다. 이러한 주석에는 자동차, 보행자, 트럭, 버스 등과 같은 운전과 관련된 14개의 클래스가 포함됩니다.
다음 표는 전체 클래스 목록을 보여줍니다.
색인 | 클래스 목록 |
1 | 동물 |
2 | 자전거 |
3 | 버스 |
4 | 자동차 |
5 | 캐러밴 운송업자 |
6 | 자전거 타는 사람 |
7 | 긴급 차량 |
8 | 모터 바이커 |
9 | 모터사이클 |
10 | 보행자 |
11 | 트레일러 |
12 | 트럭 |
13 | 다용도 차량 |
14 | 밴/SUV |
데이터 세트에서 가장 일반적인 클래스(데이터 세트의 총 32616개 객체 중 42816개가 자동차로 레이블 지정됨)이므로 자동차를 구체적으로 감지하도록 감지기를 훈련할 것입니다.
솔루션 개요
이 시리즈에서는 Amazon SageMaker Ground Truth를 사용하여 데이터를 시각화하고 레이블을 지정하는 방법을 다루고 Amazon SageMaker 교육 작업에서 이 데이터를 사용하여 Amazon SageMaker 엔드포인트에 배포되는 객체 감지 모델을 생성하는 방법을 보여줍니다. 특히 Amazon SageMaker 노트북을 사용하여 솔루션을 운영하고 라벨링 또는 교육 작업을 시작할 것입니다.
다음 다이어그램은 레이블 지정에서 교육, 배포에 이르는 센서 데이터의 전반적인 흐름을 보여줍니다.
다음을 사용하여 실시간 3D 객체 감지 모델을 훈련하고 배포하는 방법을 배웁니다. 아마존 세이지 메이커 Ground Truth는 다음 단계를 따릅니다.
- 포인트 클라우드 데이터 세트 다운로드 및 시각화
- 라벨을 붙일 준비 데이터 Amazon SageMaker Ground Truth 포인트 클라우드 도구
- 다음을 사용하여 분산 Amazon SageMaker Ground Truth 교육 작업을 시작합니다. MM탐지3D
- 교육 작업 결과를 평가하고 리소스 활용도를 프로파일링합니다. Amazon SageMaker 디버거
- 비동기 배포 SageMaker 엔드 포인트
- 엔드포인트 호출 및 3D 개체 예측 시각화
이 솔루션을 구현하는 데 사용되는 AWS 서비스
사전 조건
다음 다이어그램은 개인 인력을 생성하는 방법을 보여줍니다. 작성된 단계별 지침은 다음을 참조하십시오. 인력 레이블 지정 페이지를 사용하여 Amazon Cognito 인력 생성.
AWS CloudFormation 스택 시작
이제 솔루션의 구조를 확인했으므로 예제 워크플로를 실행할 수 있도록 솔루션을 계정에 배포합니다. 레이블 지정 파이프라인과 관련된 모든 배포 단계는 AWS CloudFormation에서 관리합니다. 즉, AWS Cloudformation은 솔루션 실행을 지원하기 위해 노트북 인스턴스와 모든 역할 또는 Amazon S3 버킷을 생성합니다.
AWS 리전에서 스택을 시작할 수 있습니다. us-east-1
AWS CloudFormation 콘솔에서 다음을 사용하여 발사 스택
단추. 다른 리전에서 스택을 시작하려면 README의 지침을 사용하십시오. GitHub 저장소.
모든 리소스를 만드는 데 약 20분이 걸립니다. AWS CloudFormation 사용자 인터페이스(UI)에서 진행 상황을 모니터링할 수 있습니다.
CloudFormation 템플릿 실행이 완료되면 AWS 콘솔로 돌아갑니다.
노트북 열기
Amazon SageMaker 노트북 인스턴스는 Jupyter 노트북 앱에서 실행되는 ML 컴퓨팅 인스턴스입니다. Amazon SageMaker는 인스턴스 및 관련 리소스 생성을 관리합니다. 노트북 인스턴스에서 Jupyter 노트북을 사용하여 데이터를 준비 및 처리하고, 모델을 교육하는 코드를 작성하고, Amazon SageMaker 호스팅에 모델을 배포하고, 모델을 테스트 또는 검증하십시오.
Amazon SageMaker 노트북 환경에 액세스하려면 다음 단계를 따르십시오.
- 서비스 검색에서 아마존 세이지 메이커.
- $XNUMX Million 미만 수첩, 고르다 노트북 인스턴스.
- 노트북 인스턴스를 프로비저닝해야 합니다. 열기를 선택합니다. 주피터랩, 아래 사전 프로비저닝된 노트북 인스턴스의 오른쪽에 있습니다. 행위.
- 페이지가 로드되면 다음과 같은 아이콘이 표시됩니다.
- 다음 다이어그램과 같은 새 브라우저 탭으로 리디렉션됩니다.
- Amazon SageMaker 노트북 인스턴스 시작 관리자 UI에 있으면. 왼쪽 사이드바에서 다음을 선택합니다. 힘내 다음 다이어그램과 같이 아이콘을 클릭합니다.
- 선택 리포지토리 복제 옵션을 선택합니다.
- GitHub URL 입력(https://github.com/aws-samples/end-2-end-3d-ml) 팝업 창에서 복제.
- 선택 파일 탐색기 GitHub 폴더를 보려면.
- 라는 제목의 노트북을 엽니다.
1_visualization.ipynb.
노트북 작동
살펴보기
제목 섹션에 있는 노트북의 처음 몇 셀 다운로드 한 파일 데이터 세트를 다운로드하고 그 안에 있는 파일을 검사하는 방법을 안내합니다. 셀이 실행된 후 데이터 다운로드가 완료되는 데 몇 분 정도 걸립니다.
다운로드가 완료되면 장면 또는 드라이브 목록인 A2D2의 파일 구조를 검토할 수 있습니다. 장면은 차량의 센서 데이터를 짧게 기록한 것입니다. A2D2는 우리가 훈련할 수 있는 이러한 장면 중 18개를 제공하며 모두 고유한 날짜로 식별됩니다. 각 장면에는 2D 카메라 데이터, 2D 레이블, 3D 직육면체 주석 및 3D 포인트 클라우드가 포함됩니다.
다음을 사용하여 A2D2 데이터 세트의 파일 구조를 볼 수 있습니다.
A2D2 센서 설정
다음 섹션에서는 이 포인트 클라우드 데이터 중 일부를 읽어 우리가 올바르게 해석하고 있는지 확인하고 데이터 라벨링을 위한 형식으로 변환하기 전에 노트북에서 시각화할 수 있는지 확인합니다.
2D 및 3D 센서 데이터가 있는 모든 종류의 자율 주행 설정에서는 센서 보정 데이터 캡처가 필수적입니다. 원시 데이터 외에도 다운로드 cams_lidar.json
. 이 파일에는 차량의 좌표 프레임을 기준으로 각 센서의 변환 및 방향이 포함되며, 이를 센서의 포즈 또는 공간 위치라고도 합니다. 이것은 센서의 좌표계에서 차량의 좌표계로 포인트를 변환하는 데 중요합니다. 즉, 차량이 주행할 때 2D 및 3D 센서를 시각화하는 것이 중요합니다. 차량의 좌표계는 차량의 중심에 있는 정적인 점으로 정의되며, x축은 차량의 전진방향, y축은 좌우를 나타내고, z축은 양수이다. 차량 지붕을 가리키는 축. (5,2,1)의 점 (X,Y,Z)는 이 점이 우리 차량의 전방 5미터, 왼쪽으로 2미터, 차량 위 1미터임을 의미합니다. 이러한 보정을 통해 3D 포인트를 2D 이미지에 투사할 수 있어 포인트 클라우드 라벨링 작업에 특히 유용합니다.
차량의 센서 설정을 보려면 다음 다이어그램을 확인하십시오.
훈련 중인 포인트 클라우드 데이터는 특히 전면 카메라 또는 캠 전면 중앙에 정렬됩니다.
이는 3D로 카메라 센서를 시각화한 것과 일치합니다.
노트북의 이 부분은 A2D2 데이터 세트가 센서 위치에 대한 우리의 기대와 일치하고 포인트 클라우드 센서의 데이터를 카메라 프레임에 정렬할 수 있는지 확인하는 과정을 거칩니다. 제목이 있는 셀을 통해 모든 셀을 자유롭게 실행하십시오. 3D에서 2D로 프로젝션 다음 카메라 이미지에서 포인트 클라우드 데이터 오버레이를 볼 수 있습니다.
Amazon SageMaker Ground Truth로 변환
노트북에서 데이터를 시각화한 후 자신 있게 포인트 클라우드를 Amazon으로 변환할 수 있습니다. SageMaker Ground Truth의 3D 형식 라벨을 확인하고 조정합니다. 이 섹션에서는 A2D2의 데이터 형식을 Amazon으로 변환하는 과정을 안내합니다. SageMaker Ground Truth 시퀀스 파일, 개체 추적 양식에서 사용하는 입력 형식을 사용합니다.
시퀀스 파일 형식에는 포인트 클라우드 형식, 각 포인트 클라우드와 연결된 이미지, 이미지를 포인트 클라우드와 정렬하는 데 필요한 모든 센서 위치 및 방향 데이터가 포함됩니다. 이러한 변환은 이전 섹션에서 읽은 센서 정보를 사용하여 수행됩니다. 다음 예제는 단일 시간 단계만 있는 시퀀스를 설명하는 Amazon SageMaker Ground Truth의 시퀀스 파일 형식입니다.
이 시간 단계의 포인트 클라우드는 다음 위치에 있습니다. s3://sagemaker-us-east-1-322552456788/a2d2_smgt/20180807_145028_out/20180807145028_lidar_frontcenter_000000091.txt
의 형식을 가집니다. <x coordinate> <y coordinate> <z coordinate>
.
포인트 클라우드와 연결된 단일 카메라 이미지는 s3://sagemaker-us-east-1-322552456788/a2d2_smgt/20180807_145028_out/undistort_20180807145028_camera_frontcenter_000000091.png
. 포인트 클라우드에서 카메라로 그리고 그 반대로 투영할 수 있도록 모든 카메라 매개변수를 정의하는 시퀀스 파일을 사용합니다.
이 입력 형식으로 변환하려면 A2D2의 데이터 형식에서 Amazon SageMaker Ground Truth가 지원하는 데이터 형식으로의 변환을 작성해야 합니다. 이는 레이블 지정을 위해 자신의 데이터를 가져올 때 누구나 거쳐야 하는 동일한 프로세스입니다. 이 변환이 어떻게 작동하는지 단계별로 살펴보겠습니다. 노트북을 따라가는 경우 이름이 지정된 함수를 살펴보십시오. a2d2_scene_to_smgt_sequence_and_seq_label
.
포인트 클라우드 변환
첫 번째 단계는 numpy로 생성된 압축 Numpy 형식 파일(NPZ)에서 데이터를 변환하는 것입니다.알고있다 방법, 에 허용되는 원시 3D 형식 Amazon SageMaker Ground Truth용. 특히 포인트당 하나의 행이 있는 파일을 생성합니다. 각 3D 점은 XNUMX개의 부동 소수점 X, Y 및 Z 좌표로 정의됩니다. 시퀀스 파일에서 형식을 지정할 때 문자열을 사용합니다. text/xyz
이 형식을 나타냅니다. Amazon SageMaker Ground Truth는 강도 값 또는 RGB(Red Green Blue) 포인트 추가도 지원합니다.
A2D2의 NPZ 파일에는 각각 고유한 이름을 가진 여러 개의 Numpy 배열이 포함되어 있습니다. 변환을 수행하기 위해 Numpy를 사용하여 NPZ 파일을 로드합니다. 하중 메서드, 호출된 배열에 액세스 전철기 (즉, Nx3 배열, 여기서 N은 포인트 클라우드의 포인트 수), Numpy's를 사용하여 새 파일에 텍스트로 저장 savetxt 방법.
이미지 전처리
다음으로 이미지 파일을 준비합니다. A2D2는 PNG 이미지를 제공하고 Amazon SageMaker Ground Truth는 PNG 이미지를 지원합니다. 그러나 이러한 이미지는 왜곡되어 있습니다. 이미지 촬영 렌즈가 이미징 평면에 평행하게 정렬되지 않아 이미지의 일부 영역이 예상보다 가깝게 보이기 때문에 왜곡이 자주 발생합니다. 이 왜곡은 실제 카메라와 이상적인 핀홀 카메라 모델. 왜곡을 고려하지 않으면 Amazon SageMaker Ground Truth는 카메라 보기 위에 3D 포인트를 렌더링할 수 없으므로 레이블 지정을 수행하기가 더 어려워집니다. 카메라 보정에 대한 자습서는 다음 문서를 참조하십시오. OpenCV.
Amazon SageMaker Ground Truth는 입력 파일에서 왜곡 계수를 지원하지만 레이블 지정 작업 전에 전처리를 수행할 수도 있습니다. A2D2는 왜곡 제거를 수행하는 헬퍼 코드를 제공하므로 이를 이미지에 적용하고 왜곡과 관련된 필드는 시퀀스 파일에서 제외합니다. 왜곡 관련 필드에는 다음이 포함됩니다. k1, k2, k3, k4, p1, p2 및 스큐.
카메라 위치, 방향 및 투영 변환
레이블 지정에 필요한 원시 데이터 파일 외에도 시퀀스 파일에는 3D 포인트를 2D 카메라 보기로 투영하기 위한 카메라 위치 및 방향 정보도 필요합니다. 3D 직육면체 레이블과 3D 점이 이미지 위에 어떻게 렌더링되어야 하는지 파악하려면 카메라가 3D 공간에서 어디를 보고 있는지 알아야 합니다.
센서 위치를 A2D2 센서 설정 섹션의 일반 변환 관리자에 로드했기 때문에 변환 관리자에서 원하는 정보를 쉽게 쿼리할 수 있습니다. 우리의 경우 A0D0의 객체 감지 데이터 세트에서 제공하는 센서의 위치 정보가 없기 때문에 각 프레임에서 차량 위치를 (0, 2, 2)으로 처리합니다. 따라서 차량을 기준으로 카메라의 방향과 위치는 다음 코드로 설명됩니다.
이제 위치와 방향이 변환되었으므로 시퀀스 파일 형식의 각 카메라에 대한 모든 매개변수인 fx, fy, cx 및 cy에 대한 값도 제공해야 합니다.
이 매개변수는 카메라 매트릭스의 값을 나타냅니다. 위치와 방향은 카메라가 향하는 방향을 설명하는 반면, 카메라 매트릭스는 카메라 시야와 카메라에 상대적인 3D 점이 이미지의 2D 픽셀 위치로 변환되는 방식을 정확하게 설명합니다.
A2D2는 카메라 매트릭스를 제공합니다. 참조 카메라 매트릭스는 노트북이 적절한 필드를 얻기 위해 이 매트릭스를 인덱싱하는 방법과 함께 다음 코드에 표시됩니다.
A2D2의 형식에서 모든 필드를 구문 분석하여 시퀀스 파일을 저장하고 Amazon에서 사용할 수 있습니다. SageMaker Ground Truth 입력 매니페스트 파일 라벨링 작업을 시작합니다. 이 라벨링 작업을 통해 3D 경계 상자 라벨을 생성하여 3D 모델 교육에 다운스트림을 사용할 수 있습니다.
노트북이 끝날 때까지 모든 셀을 실행하고 workteam
Amazon SageMaker Ground Truth를 사용한 ARN workteam
사전 조건을 생성한 ARN. 작업 생성 시간에 레이블을 지정하고 약 10분이 지나면 작업자 포털에 로그인하여 다음을 사용할 수 있어야 합니다. 레이블 지정 사용자 인터페이스 장면을 시각화합니다.
정리
다음을 사용하여 배포한 AWS CloudFormation 스택을 삭제합니다. 발사 스택 이름이 지정된 버튼 ThreeD
AWS CloudFormation 콘솔에서 실행 중인 인스턴스를 포함하여 이 게시물에 사용된 모든 리소스를 제거합니다.
예상 비용
대략적인 비용은 5시간에 $2입니다.
결론
이 게시물에서는 3D 데이터를 가져와 Amazon SageMaker Ground Truth에서 라벨링할 준비가 된 형식으로 변환하는 방법을 시연했습니다. 이러한 단계를 통해 개체 감지 모델을 훈련하기 위해 자신의 3D 데이터에 레이블을 지정할 수 있습니다. 이 시리즈의 다음 게시물에서는 A2D2를 사용하여 데이터 세트에 이미 있는 레이블에서 물체 감지기 모델을 학습시키는 방법을 보여줍니다.
행복한 빌딩!
저자에 관하여
이삭 프리비 테라 선임 데이터 과학자입니다. 아마존 머신 러닝 솔루션 랩에서 고객의 비즈니스 문제를 해결하기 위한 맞춤형 머신 러닝 및 딥 러닝 솔루션을 개발합니다. 그는 주로 컴퓨터 비전 분야에서 일하며 분산 교육 및 능동적 학습을 통해 AWS 고객을 지원하는 데 중점을 둡니다.
비 디아 사가르 라비 파티 의 관리자입니다. 아마존 머신 러닝 솔루션 랩에서 그는 대규모 분산 시스템에 대한 그의 방대한 경험과 기계 학습에 대한 열정을 활용하여 다양한 산업 분야의 AWS 고객이 AI 및 클라우드 채택을 가속화 할 수 있도록 지원합니다. 이전에는 Amazon Connectivity Services의 기계 학습 엔지니어로 개인화 및 예측 유지 관리 플랫폼 구축을 도왔습니다.
제레미 펠트 라코 소프트웨어 개발 엔지니어입니다. 아마존 머신 러닝 솔루션 랩 아마존 웹 서비스에서. 그는 컴퓨터 비전, 로봇 공학 및 기계 학습에 대한 배경 지식을 활용하여 AWS 고객이 AI 채택을 가속화하도록 돕습니다.
- SEO 기반 콘텐츠 및 PR 배포. 오늘 증폭하십시오.
- 플라토 블록체인. Web3 메타버스 인텔리전스. 지식 증폭. 여기에서 액세스하십시오.
- 출처: https://aws.amazon.com/blogs/machine-learning/using-amazon-sagemaker-with-point-clouds-part-1-ground-truth-for-3d-labeling/
- :이다
- $UP
- 000
- 1
- 10
- 100
- 1996
- 2D
- 3d
- 7
- 9
- a
- 할 수 있는
- 소개
- 위의
- 가속
- ACCESS
- 얻기 쉬운
- 계정
- 가로질러
- 활동적인
- 또한
- 주소
- 양자
- 후
- 앞으로
- AI
- 정렬 된
- All
- 수
- 이미
- 아마존
- 아마존 코 그니 토
- 아마존 세이지 메이커
- 아마존 세이지 메이커 그라운드 진실
- Amazon Web Services
- 및
- 누군가
- 앱
- 신청
- 적당한
- 대략
- 아키텍처
- 있군요
- 지역
- 약
- 배열
- AS
- 관련
- At
- 증강 된
- 증강 현실
- 자발적인
- 유효성
- AWS
- AWS 클라우드 포메이션
- 뒤로
- 배경
- BE
- 때문에
- 가
- 전에
- 존재
- 이하
- 사이에
- 파란색
- 보물상자
- 가져
- 브라우저
- 빌드
- 건물
- 버스
- 사업
- 단추
- by
- 라는
- 카메라
- CAN
- 포착
- 캡처
- 자동차
- 자동차
- 케이스
- 셀
- 센터
- 도전
- 검사
- 왼쪽 메뉴에서
- 수업
- 수업
- 자세히
- 클라우드
- 클라우드 채택
- 암호
- 공통의
- 기업
- 완전한
- 계산
- 컴퓨터
- 컴퓨터 비전
- 자신있게
- 입/출력 라인
- 콘솔에서
- 포함하는
- 이 포함되어 있습니다
- 매출 상승
- 전환
- 변하게 하다
- 변환
- 좌표의
- 비용
- 비용 효율적인
- 엄호
- 만들
- 만든
- 생성
- 창조
- 고객
- CX
- 데이터
- 데이터 과학자
- 데이터 세트
- 날짜
- 깊은
- 깊은 학습
- 한정된
- 정의
- 보여
- 시연
- 보여줍니다
- 배포
- 배포
- 전개
- 깊이
- 설명
- 기술 된
- Detection System
- 결정
- 개발
- 개발
- 디바이스
- 차이
- 다른
- 어려운
- 방향
- 토론
- 분산
- 분산 시스템
- 분산 교육
- 선적 서류 비치
- 말라
- 다운로드
- 운전
- e
- 마다
- 용이하게
- 가능
- 종점
- 기사
- 확인
- 환경
- 특히
- 필수
- 등
- 조차
- 정확하게
- 예
- 기대
- 기대하는
- 경험
- 마주보고
- 를
- 들
- Fields
- 그림
- 입양 부모로서의 귀하의 적합성을 결정하기 위해 미국 이민국에
- 파일
- 마무리
- 먼저,
- 떠 있는
- 흐름
- 초점
- 초점
- 수행원
- 럭셔리
- 형태
- 체재
- 앞으로
- 발견
- FRAME
- 무료
- 에
- 앞
- 기능
- 퓨전
- FX
- 생성
- 생성
- 얻을
- 지프
- 힘내
- GitHub의
- Go
- 간다
- 초록색
- 육로
- 성장하는
- 핸들
- 있다
- 데
- 표제
- 도움
- 도움
- 도움이
- 호스팅
- 진료 시간
- 방법
- How To
- 그러나
- HTML
- HTTPS
- i
- ICON
- 확인
- 영상
- 형상
- 영상
- 구현
- 중대한
- in
- 기타의
- 포함
- 포함
- 포함
- 증가
- 더욱 더
- 색인
- 산업
- 정보
- 입력
- 예
- 명령
- 관심
- 관심있는
- 인터페이스
- IT
- 그
- 일
- 작업
- JPG
- JSON
- 종류
- 알아
- 라벨
- 레이블링
- 레이블
- 대규모
- 레이저
- 시작
- 배우다
- 배우기
- 휴가
- 레버리지
- 빛
- 처럼
- 명부
- 하중
- 잔뜩
- 위치한
- 위치
- 보기
- 찾고
- 봐라.
- 기계
- 기계 학습
- 유지
- 확인
- 제작
- 관리
- 매니저
- 관리하다
- 매핑
- 매트릭스
- 방법
- 측정
- 방법
- 회의록
- ML
- 모바일
- 모바일 장치
- 모델
- 모델
- 모니터
- 배우기
- 가장
- 운동
- 여러
- name
- 이름
- 필요
- 신제품
- 다음 것
- 수첩
- 번호
- numpy
- 대상
- 객체 감지
- 사물
- of
- on
- ONE
- 열 수
- OpenCV
- 운영
- 선택권
- 기타
- 출력
- 전체
- 자신의
- 페이지
- 평행
- 매개 변수
- 부품
- 특별한
- 열정
- 통로
- 수행
- 개인
- 물리적
- 관로
- 픽셀
- 플랫폼
- 플라톤
- 플라톤 데이터 인텔리전스
- 플라토데이터
- 포인트 적립
- 전철기
- 포털
- 위치
- 위치
- 긍정적인
- 게시하다
- 예측
- Prepare
- 너무 이른
- 이전에
- 주로
- 사설
- 문제
- 방법
- 생산
- 프로파일 링
- 진행
- 프로젝트
- 투영
- 제공
- 제공
- 이르기까지
- 율
- 살갗이 벗어 진
- 읽기
- 읽기
- 준비
- 실시간
- 현실
- 방송
- 빨간색
- 참조
- 반영
- 지방
- 관련
- 관련된
- 나머지
- 제거
- 교체
- 대표
- 필수
- 필요
- 의지
- 제품 자료
- 결과
- return
- 리뷰
- RGB
- 로봇
- 역할
- 지붕
- 열
- 달리기
- 달리는
- s
- 현자
- 같은
- 찜하기
- 장면
- 장면
- 과학자
- 검색
- 둘째
- 섹션
- 분할
- 연장자
- 센서
- 순서
- 연속
- 서비스
- 설치
- 짧은
- 영상을
- 표시
- 표시
- 쇼
- 측면
- 신호
- 이후
- 단일
- So
- 소프트웨어
- 소프트웨어 개발
- 해결책
- 솔루션
- 일부
- 출처
- 스페이스 버튼
- 공간
- 구체적으로
- 스택
- 표준
- 스타트
- 단계
- 단계
- 구조
- 공급
- SUPPORT
- 지원
- 지원
- 표면
- 시스템은
- 테이블
- 받아
- 소요
- 대상
- 작업
- 이 템플릿
- test
- 그
- XNUMXD덴탈의
- 정보
- 그들의
- Bowman의
- 세
- 을 통하여
- 시간
- 제목의
- 에
- 수단
- 상단
- 금액
- 추적
- Train
- 트레이닝
- 변환
- 번역
- 치료
- 트럭
- 지도 시간
- 전형적인
- 일반적으로
- ui
- 아래에
- 이해
- 이해
- 유일한
- us
- 사용
- 사용자
- 시간을 아껴주는 인터페이스
- 유효 기간
- 마케팅은:
- 거대한
- 자동차
- 차량
- 확인
- 업종
- Video
- 관측
- 보기
- 시력
- 심상
- 방법..
- 웹
- 웹 서비스
- 잘
- 어느
- 동안
- 누구
- 위키 백과
- 의지
- 과
- 이내
- 말
- 노동자
- 인력
- 일
- 쓰다
- 코드 작성
- 쓴
- X
- 얌
- 자신의
- 너의
- 제퍼 넷