Generativ dataintelligens

Med Run:ai-opkøb sigter Nvidia efter at administrere dine AI K8'er

Dato:

Nvidia annoncerede onsdag købet af den AI-centrerede Kubernetes-orkestreringsudbyder Run:ai i et forsøg på at hjælpe med at styrke effektiviteten af ​​computerklynger bygget på GPU.

Detaljerne om aftalen blev ikke afsløret, men efter sigende handlen kan være vurderet til omkring 700 millioner dollars. Den Tel Aviv-baserede startup har tilsyneladende indsamlet 118 millioner dollars på tværs af fire finansieringsrunder, siden det blev grundlagt i 2018.

Run:ai's platform giver en central brugergrænseflade og kontrolplan til at arbejde med en række populære Kubernetes-varianter. Dette gør det lidt ligesom RedHats OpenShift eller SUSEs Rancher, og det har mange af de samme værktøjer til at administrere ting som navnerum, brugerprofiler og ressourceallokeringer.

Den vigtigste forskel er, at Run:ai's er designet til at integrere med tredjeparts AI-værktøjer og rammer og håndtere GPU-accelererede containermiljøer. Dens softwareportefølje inkluderer elementer som arbejdsbelastningsplanlægning og acceleratorpartitionering, hvoraf sidstnævnte tillader flere arbejdsbelastninger at blive spredt over en enkelt GPU.

Ifølge Nvidia understøtter Run:ai's platform allerede dets DGX-beregningsplatforme, inklusive dets Superpod-konfigurationer, Base Command-klyngestyringssystemet, NGC-containerbibliotek og en AI Enterprise-suite.

Med hensyn til AI hævder Kubernetes en række fordele i forhold til bare metal-installationer, da miljøet kan konfigureres til at håndtere skalering på tværs af flere, potentielt geografisk fordelte, ressourcer.

For nuværende behøver eksisterende Run:ai-kunder ikke bekymre sig om, at Nvidia påtvinger store ændringer af platformen. I en frigive, sagde Nvidia, at det ville fortsætte med at tilbyde Run:ai's produkter under samme forretningsmodel i den nærmeste fremtid - hvad end det måtte betyde.

I mellemtiden vil de, der abonnerer på Nvidias DGX Cloud, få adgang til Run:ai's funktionssæt til deres AI-arbejdsbelastninger, inklusive implementering af store sprogmodeller (LLM).

Udmeldingen kommer lidt over en måned efter GPU-giganten afsløret en ny containerplatform til at bygge AI-modeller kaldet Nvidia Inference Microservices (NIM).

NIMS er i det væsentlige prækonfigurerede og optimerede containerbilleder, der indeholder modellen, uanset om det er open source eller proprietær version, med alle de afhængigheder, der er nødvendige for at få den til at køre.

Som de fleste containere kan NIM'er implementeres på tværs af en række kørselstider, herunder CUDA-accelererede Kubernetes-noder.

Ideen bag at omdanne LLM'er og andre AI-modeller til mikrotjenester er, at de kan netværkes sammen og bruges til at bygge mere komplekse og funktionsrige AI-modeller, end det ellers ville være muligt uden at træne en dedikeret model selv, eller det er i det mindste sådan, Nvidia forestiller sig, at folk bruger dem.

Med købet af Run:ai har Nvidia nu et Kubernetes-orkestreringslag til styring af udrulningen af ​​disse NIM'er på tværs af sin GPU-infrastruktur. ®

spot_img

Seneste efterretninger

spot_img

Chat med os

Hej! Hvordan kan jeg hjælpe dig?