Nvidia kunngjorde onsdag oppkjøpet av den AI-sentriske Kubernetes-orkestrasjonsleverandøren Run:ai i et forsøk på å bidra til å styrke effektiviteten til databehandlingsklynger bygget på GPU.
Detaljene om avtalen ble ikke avslørt, men velig avtalen kan ha en verdi på rundt 700 millioner dollar. Den Tel Aviv-baserte oppstarten har tilsynelatende samlet inn 118 millioner dollar over fire finansieringsrunder siden det ble grunnlagt i 2018.
Run:ai sin plattform gir et sentralt brukergrensesnitt og kontrollplan for å jobbe med en rekke populære Kubernetes-varianter. Dette gjør det litt som RedHats OpenShift eller SUSEs Rancher, og det har mange av de samme verktøyene for å administrere ting som navneområder, brukerprofiler og ressursallokeringer.
Hovedforskjellen er at Run:ai er designet for å integreres med tredjeparts AI-verktøy og rammeverk, og håndtere GPU-akselererte containermiljøer. Programvareporteføljen inkluderer elementer som arbeidsbelastningsplanlegging og akseleratorpartisjonering, hvor sistnevnte lar flere arbeidsbelastninger spres over en enkelt GPU.
I følge Nvidia støtter Run:ai sin plattform allerede DGX-databehandlingsplattformene, inkludert Superpod-konfigurasjonene, Base Command-klyngeadministrasjonssystemet, NGC-beholderbiblioteket og en AI Enterprise-suite.
Med hensyn til AI hevder Kubernetes en rekke fordeler fremfor bare metall-distribusjoner, ettersom miljøet kan konfigureres til å håndtere skalering på tvers av flere, potensielt geografisk distribuerte, ressurser.
Foreløpig trenger ikke eksisterende Run:ai-kunder bekymre seg for at Nvidia skal pålegge store endringer på plattformen. I en slipp, sa Nvidia at de vil fortsette å tilby Run:ai sine produkter under den samme forretningsmodellen, for den nærmeste fremtiden - uansett hva det måtte bety.
I mellomtiden vil de som abonnerer på Nvidias DGX Cloud få tilgang til Run:ai sitt funksjonssett for deres AI-arbeidsbelastninger, inkludert distribusjon av store språkmodeller (LLM).
Kunngjøringen kommer en drøy måned etter GPU-giganten avduket en ny containerplattform for å bygge AI-modeller kalt Nvidia Inference Microservices (NIM).
NIMS er i hovedsak forhåndskonfigurerte og optimaliserte containerbilder som inneholder modellen, enten det er åpen kildekode eller proprietær versjon, med alle avhengighetene som er nødvendige for å få den til å kjøre.
Som de fleste containere, kan NIM-er distribueres på tvers av en rekke kjøretider, inkludert CUDA-akselererte Kubernetes-noder.
Ideen bak å gjøre LLM-er og andre AI-modeller til mikrotjenester er at de kan kobles sammen i nettverk og brukes til å bygge mer komplekse og funksjonsrike AI-modeller enn det ellers ville vært mulig uten å trene en dedikert modell selv, eller i det minste er det slik Nvidia ser for seg at folk bruker dem.
Med oppkjøpet av Run:ai har Nvidia nå et Kubernetes-orkestreringslag for å administrere distribusjonen av disse NIM-ene på tvers av GPU-infrastrukturen. ®
- SEO-drevet innhold og PR-distribusjon. Bli forsterket i dag.
- PlatoData.Network Vertical Generative Ai. Styrk deg selv. Tilgang her.
- PlatoAiStream. Web3 Intelligence. Kunnskap forsterket. Tilgang her.
- PlatoESG. Karbon, CleanTech, Energi, Miljø, Solenergi, Avfallshåndtering. Tilgang her.
- PlatoHelse. Bioteknologisk og klinisk etterretning. Tilgang her.
- kilde: https://go.theregister.com/feed/www.theregister.com/2024/04/24/runai_acquisition_nvidia/