Generativ dataintelligens

Med Run:ai-oppkjøpet tar Nvidia sikte på å administrere AI K8-ene dine

Dato:

Nvidia kunngjorde onsdag oppkjøpet av den AI-sentriske Kubernetes-orkestrasjonsleverandøren Run:ai i et forsøk på å bidra til å styrke effektiviteten til databehandlingsklynger bygget på GPU.

Detaljene om avtalen ble ikke avslørt, men velig avtalen kan ha en verdi på rundt 700 millioner dollar. Den Tel Aviv-baserte oppstarten har tilsynelatende samlet inn 118 millioner dollar over fire finansieringsrunder siden det ble grunnlagt i 2018.

Run:ai sin plattform gir et sentralt brukergrensesnitt og kontrollplan for å jobbe med en rekke populære Kubernetes-varianter. Dette gjør det litt som RedHats OpenShift eller SUSEs Rancher, og det har mange av de samme verktøyene for å administrere ting som navneområder, brukerprofiler og ressursallokeringer.

Hovedforskjellen er at Run:ai er designet for å integreres med tredjeparts AI-verktøy og rammeverk, og håndtere GPU-akselererte containermiljøer. Programvareporteføljen inkluderer elementer som arbeidsbelastningsplanlegging og akseleratorpartisjonering, hvor sistnevnte lar flere arbeidsbelastninger spres over en enkelt GPU.

I følge Nvidia støtter Run:ai sin plattform allerede DGX-databehandlingsplattformene, inkludert Superpod-konfigurasjonene, Base Command-klyngeadministrasjonssystemet, NGC-beholderbiblioteket og en AI Enterprise-suite.

Med hensyn til AI hevder Kubernetes en rekke fordeler fremfor bare metall-distribusjoner, ettersom miljøet kan konfigureres til å håndtere skalering på tvers av flere, potensielt geografisk distribuerte, ressurser.

Foreløpig trenger ikke eksisterende Run:ai-kunder bekymre seg for at Nvidia skal pålegge store endringer på plattformen. I en slipp, sa Nvidia at de vil fortsette å tilby Run:ai sine produkter under den samme forretningsmodellen, for den nærmeste fremtiden - uansett hva det måtte bety.

I mellomtiden vil de som abonnerer på Nvidias DGX Cloud få tilgang til Run:ai sitt funksjonssett for deres AI-arbeidsbelastninger, inkludert distribusjon av store språkmodeller (LLM).

Kunngjøringen kommer en drøy måned etter GPU-giganten avduket en ny containerplattform for å bygge AI-modeller kalt Nvidia Inference Microservices (NIM).

NIMS er i hovedsak forhåndskonfigurerte og optimaliserte containerbilder som inneholder modellen, enten det er åpen kildekode eller proprietær versjon, med alle avhengighetene som er nødvendige for å få den til å kjøre.

Som de fleste containere, kan NIM-er distribueres på tvers av en rekke kjøretider, inkludert CUDA-akselererte Kubernetes-noder.

Ideen bak å gjøre LLM-er og andre AI-modeller til mikrotjenester er at de kan kobles sammen i nettverk og brukes til å bygge mer komplekse og funksjonsrike AI-modeller enn det ellers ville vært mulig uten å trene en dedikert modell selv, eller i det minste er det slik Nvidia ser for seg at folk bruker dem.

Med oppkjøpet av Run:ai har Nvidia nå et Kubernetes-orkestreringslag for å administrere distribusjonen av disse NIM-ene på tvers av GPU-infrastrukturen. ®

spot_img

Siste etterretning

spot_img

Chat med oss

Hei der! Hvordan kan jeg hjelpe deg?