엔비디아는 수요일 GPU 기반 컴퓨팅 클러스터의 효율성을 강화하기 위한 노력의 일환으로 AI 중심 쿠버네티스 오케스트레이션 제공업체인 Run:ai를 인수했다고 발표했습니다.
세부 사항 거래 공개되지는 않았지만 전하는 바에 의하면 이번 거래의 가치는 약 700억 달러에 달할 수 있습니다. 텔아비브에 본사를 둔 스타트업은 분명히 118년 설립 이후 2018번의 자금 조달 라운드를 통해 XNUMX억 XNUMX만 달러를 모금했습니다.
Run:ai의 플랫폼은 다양한 인기 Kubernetes 변형 작업을 위한 중앙 사용자 인터페이스와 제어 평면을 제공합니다. 이는 RedHat의 OpenShift 또는 SUSE의 Rancher와 약간 유사하며 네임스페이스, 사용자 프로필 및 리소스 할당과 같은 항목을 관리하기 위한 동일한 도구를 많이 제공합니다.
주요 차이점은 Run:ai가 타사 AI 도구 및 프레임워크와 통합하고 GPU 가속 컨테이너 환경을 처리하도록 설계되었다는 것입니다. 소프트웨어 포트폴리오에는 워크로드 스케줄링 및 가속기 파티셔닝과 같은 요소가 포함되어 있으며, 후자를 통해 여러 워크로드를 단일 GPU에 분산시킬 수 있습니다.
Nvidia에 따르면 Run:ai의 플랫폼은 이미 Superpod 구성, Base Command 클러스터 관리 시스템, NGC 컨테이너 라이브러리 및 AI Enterprise 제품군을 포함하여 DGX 컴퓨팅 플랫폼을 지원합니다.
AI와 관련하여 Kubernetes는 잠재적으로 지리적으로 분산된 여러 리소스에 대한 확장을 처리하도록 환경을 구성할 수 있으므로 베어 메탈 배포에 비해 여러 가지 이점이 있다고 주장합니다.
현재 기존 Run:ai 고객은 Nvidia가 플랫폼에 큰 변화를 가져오는 것에 대해 걱정할 필요가 없습니다. 안에 공개, Nvidia는 그것이 무엇을 의미하든 가까운 미래에 동일한 비즈니스 모델에 따라 Run:ai의 제품을 계속 제공할 것이라고 말했습니다.
한편, Nvidia의 DGX Cloud를 구독하는 사용자는 LLM(대형 언어 모델) 배포를 포함하여 AI 워크로드를 위한 Run:ai의 기능 세트에 액세스할 수 있습니다.
이번 발표는 GPU 거대 기업이 나온 지 불과 한 달여 만에 나온 것입니다. 공개 NIM(Nvidia Inference Microservices)이라는 AI 모델 구축을 위한 새로운 컨테이너 플랫폼입니다.
NIMS는 본질적으로 오픈 소스 버전이든 독점 버전이든 관계없이 모델을 실행하는 데 필요한 모든 종속성과 함께 모델을 포함하는 사전 구성되고 최적화된 컨테이너 이미지입니다.
대부분의 컨테이너와 마찬가지로 NIM은 CUDA 가속 Kubernetes 노드를 포함한 다양한 런타임에 배포될 수 있습니다.
LLM 및 기타 AI 모델을 마이크로서비스로 전환하는 이면의 아이디어는 이들을 함께 네트워크로 연결하여 전용 모델을 직접 교육하지 않고도 가능했던 것보다 더 복잡하고 기능이 풍부한 AI 모델을 구축하는 데 사용할 수 있다는 것입니다. 또는 적어도 Nvidia가 사람들이 사용하는 방식을 상상하는 방식입니다. 그들을.
Run:ai 인수로 Nvidia는 이제 GPU 인프라 전반에 걸쳐 이러한 NIM 배포를 관리하기 위한 Kubernetes 오케스트레이션 계층을 갖게 되었습니다. ®
- SEO 기반 콘텐츠 및 PR 배포. 오늘 증폭하십시오.
- PlatoData.Network 수직 생성 Ai. 자신에게 권한을 부여하십시오. 여기에서 액세스하십시오.
- PlatoAiStream. 웹3 인텔리전스. 지식 증폭. 여기에서 액세스하십시오.
- 플라톤ESG. 탄소, 클린테크, 에너지, 환경, 태양광, 폐기물 관리. 여기에서 액세스하십시오.
- PlatoHealth. 생명 공학 및 임상 시험 인텔리전스. 여기에서 액세스하십시오.
- 출처: https://go.theregister.com/feed/www.theregister.com/2024/04/24/runai_acquisition_nvidia/