Run:ai 인수를 통해 Nvidia는 AI K8 관리를 목표로 합니다.

Run:ai 인수를 통해 Nvidia는 AI K8 관리를 목표로 합니다.

Run:ai 인수를 통해 Nvidia는 AI K8s PlatoBlockchain 데이터 인텔리전스를 관리하는 것을 목표로 합니다. 수직 검색. 일체 포함.

엔비디아는 수요일 GPU 기반 컴퓨팅 클러스터의 효율성을 강화하기 위한 노력의 일환으로 AI 중심 쿠버네티스 오케스트레이션 제공업체인 Run:ai를 인수했다고 발표했습니다.

세부 사항 거래 공개되지는 않았지만 전하는 바에 의하면 이번 거래의 가치는 약 700억 달러에 달할 수 있습니다. 텔아비브에 본사를 둔 스타트업은 분명히 118년 설립 이후 2018번의 자금 조달 라운드를 통해 XNUMX억 XNUMX만 달러를 모금했습니다.

Run:ai의 플랫폼은 다양한 인기 Kubernetes 변형 작업을 위한 중앙 사용자 인터페이스와 제어 평면을 제공합니다. 이는 RedHat의 OpenShift 또는 SUSE의 Rancher와 약간 유사하며 네임스페이스, 사용자 프로필 및 리소스 할당과 같은 항목을 관리하기 위한 동일한 도구를 많이 제공합니다.

주요 차이점은 Run:ai가 타사 AI 도구 및 프레임워크와 통합하고 GPU 가속 컨테이너 환경을 처리하도록 설계되었다는 것입니다. 소프트웨어 포트폴리오에는 워크로드 스케줄링 및 가속기 파티셔닝과 같은 요소가 포함되어 있으며, 후자를 통해 여러 워크로드를 단일 GPU에 분산시킬 수 있습니다.

Nvidia에 따르면 Run:ai의 플랫폼은 이미 Superpod 구성, Base Command 클러스터 관리 시스템, NGC 컨테이너 라이브러리 및 AI Enterprise 제품군을 포함하여 DGX 컴퓨팅 플랫폼을 지원합니다.

AI와 관련하여 Kubernetes는 잠재적으로 지리적으로 분산된 여러 리소스에 대한 확장을 처리하도록 환경을 구성할 수 있으므로 베어 메탈 배포에 비해 여러 가지 이점이 있다고 주장합니다.

현재 기존 Run:ai 고객은 Nvidia가 플랫폼에 큰 변화를 가져오는 것에 대해 걱정할 필요가 없습니다. 안에 공개, Nvidia는 그것이 무엇을 의미하든 가까운 미래에 동일한 비즈니스 모델에 따라 Run:ai의 제품을 계속 제공할 것이라고 말했습니다.

한편, Nvidia의 DGX Cloud를 구독하는 사용자는 LLM(대형 언어 모델) 배포를 포함하여 AI 워크로드를 위한 Run:ai의 기능 세트에 액세스할 수 있습니다.

이번 발표는 GPU 거대 기업이 나온 지 불과 한 달여 만에 나온 것입니다. 공개 NIM(Nvidia Inference Microservices)이라는 AI 모델 구축을 위한 새로운 컨테이너 플랫폼입니다.

NIMS는 본질적으로 오픈 소스 버전이든 독점 버전이든 관계없이 모델을 실행하는 데 필요한 모든 종속성과 함께 모델을 포함하는 사전 구성되고 최적화된 컨테이너 이미지입니다.

대부분의 컨테이너와 마찬가지로 NIM은 CUDA 가속 Kubernetes 노드를 포함한 다양한 런타임에 배포될 수 있습니다.

LLM 및 기타 AI 모델을 마이크로서비스로 전환하는 이면의 아이디어는 이들을 함께 네트워크로 연결하여 전용 모델을 직접 교육하지 않고도 가능했던 것보다 더 복잡하고 기능이 풍부한 AI 모델을 구축하는 데 사용할 수 있다는 것입니다. 또는 적어도 Nvidia가 사람들이 사용하는 방식을 상상하는 방식입니다. 그들을.

Run:ai 인수로 Nvidia는 이제 GPU 인프라 전반에 걸쳐 이러한 NIM 배포를 관리하기 위한 Kubernetes 오케스트레이션 계층을 갖게 되었습니다. ®

타임 스탬프 :

더보기 등록