생성 데이터 인텔리전스

Run:ai 인수를 통해 Nvidia는 AI K8 관리를 목표로 합니다.

시간

엔비디아는 수요일 GPU 기반 컴퓨팅 클러스터의 효율성을 강화하기 위한 노력의 일환으로 AI 중심 쿠버네티스 오케스트레이션 제공업체인 Run:ai를 인수했다고 발표했습니다.

세부 사항 거래 공개되지는 않았지만 전하는 바에 의하면 이번 거래의 가치는 약 700억 달러에 달할 수 있습니다. 텔아비브에 본사를 둔 스타트업은 분명히 118년 설립 이후 2018번의 자금 조달 라운드를 통해 XNUMX억 XNUMX만 달러를 모금했습니다.

Run:ai의 플랫폼은 다양한 인기 Kubernetes 변형 작업을 위한 중앙 사용자 인터페이스와 제어 평면을 제공합니다. 이는 RedHat의 OpenShift 또는 SUSE의 Rancher와 약간 유사하며 네임스페이스, 사용자 프로필 및 리소스 할당과 같은 항목을 관리하기 위한 동일한 도구를 많이 제공합니다.

주요 차이점은 Run:ai가 타사 AI 도구 및 프레임워크와 통합하고 GPU 가속 컨테이너 환경을 처리하도록 설계되었다는 것입니다. 소프트웨어 포트폴리오에는 워크로드 스케줄링 및 가속기 파티셔닝과 같은 요소가 포함되어 있으며, 후자를 통해 여러 워크로드를 단일 GPU에 분산시킬 수 있습니다.

Nvidia에 따르면 Run:ai의 플랫폼은 이미 Superpod 구성, Base Command 클러스터 관리 시스템, NGC 컨테이너 라이브러리 및 AI Enterprise 제품군을 포함하여 DGX 컴퓨팅 플랫폼을 지원합니다.

AI와 관련하여 Kubernetes는 잠재적으로 지리적으로 분산된 여러 리소스에 대한 확장을 처리하도록 환경을 구성할 수 있으므로 베어 메탈 배포에 비해 여러 가지 이점이 있다고 주장합니다.

현재 기존 Run:ai 고객은 Nvidia가 플랫폼에 큰 변화를 가져오는 것에 대해 걱정할 필요가 없습니다. 안에 공개, Nvidia는 그것이 무엇을 의미하든 가까운 미래에 동일한 비즈니스 모델에 따라 Run:ai의 제품을 계속 제공할 것이라고 말했습니다.

한편, Nvidia의 DGX Cloud를 구독하는 사용자는 LLM(대형 언어 모델) 배포를 포함하여 AI 워크로드를 위한 Run:ai의 기능 세트에 액세스할 수 있습니다.

이번 발표는 GPU 거대 기업이 나온 지 불과 한 달여 만에 나온 것입니다. 공개 NIM(Nvidia Inference Microservices)이라는 AI 모델 구축을 위한 새로운 컨테이너 플랫폼입니다.

NIMS는 본질적으로 오픈 소스 버전이든 독점 버전이든 관계없이 모델을 실행하는 데 필요한 모든 종속성과 함께 모델을 포함하는 사전 구성되고 최적화된 컨테이너 이미지입니다.

대부분의 컨테이너와 마찬가지로 NIM은 CUDA 가속 Kubernetes 노드를 포함한 다양한 런타임에 배포될 수 있습니다.

LLM 및 기타 AI 모델을 마이크로서비스로 전환하는 이면의 아이디어는 이들을 함께 네트워크로 연결하여 전용 모델을 직접 교육하지 않고도 가능했던 것보다 더 복잡하고 기능이 풍부한 AI 모델을 구축하는 데 사용할 수 있다는 것입니다. 또는 적어도 Nvidia가 사람들이 사용하는 방식을 상상하는 방식입니다. 그들을.

Run:ai 인수로 Nvidia는 이제 GPU 인프라 전반에 걸쳐 이러한 NIM 배포를 관리하기 위한 Kubernetes 오케스트레이션 계층을 갖게 되었습니다. ®

spot_img

최신 인텔리전스

spot_img

우리와 함께 채팅

안녕하세요! 어떻게 도와 드릴까요?