Generatieve data-intelligentie

Met Run:ai-acquisitie wil Nvidia uw AI K8's beheren

Datum:

Nvidia kondigde woensdag de overname aan van Run:ai, een leverancier van AI-gerichte Kubernetes-orkestratie, in een poging de efficiëntie van computerclusters die op GPU zijn gebouwd, te helpen versterken.

De details van de overeenkomst werden niet bekendgemaakt, maar naar verluidt de deal kan worden gewaardeerd op ongeveer $ 700 miljoen. De in Tel Aviv gevestigde startup heeft dat gedaan blijkbaar Sinds de oprichting in 118 heeft het in vier financieringsrondes 2018 miljoen dollar opgehaald.

Het platform van Run:ai biedt een centrale gebruikersinterface en besturingsvlak voor het werken met een verscheidenheid aan populaire Kubernetes-varianten. Dit maakt het een beetje zoals OpenShift van RedHat of Rancher van SUSE, en het beschikt over veel van dezelfde tools voor het beheren van zaken als naamruimten, gebruikersprofielen en toewijzing van bronnen.

Het belangrijkste verschil is dat Run:ai's is ontworpen om te integreren met AI-tools en -frameworks van derden, en om te gaan met GPU-versnelde containeromgevingen. Het softwareportfolio omvat elementen als werklastplanning en acceleratorpartitionering, waarvan de laatste het mogelijk maakt meerdere werklasten over één GPU te verspreiden.

Volgens Nvidia ondersteunt het platform van Run:ai al zijn DGX-computerplatforms, inclusief de Superpod-configuraties, het Base Command-clusterbeheersysteem, de NGC-containerbibliotheek en een AI Enterprise-suite.

Met betrekking tot AI claimt Kubernetes een aantal voordelen ten opzichte van bare metal-implementaties, omdat de omgeving kan worden geconfigureerd om schaalvergroting over meerdere, mogelijk geografisch verspreide, bronnen aan te kunnen.

Voorlopig hoeven bestaande Run:ai-klanten zich geen zorgen te maken dat Nvidia grote veranderingen aan het platform zal opleggen. In een losNvidia zei dat het de producten van Run:ai onder hetzelfde bedrijfsmodel zou blijven aanbieden, voor de nabije toekomst – wat dat ook mag betekenen.

Ondertussen krijgen degenen die zijn geabonneerd op Nvidia's DGX Cloud toegang tot de functieset van Run:ai voor hun AI-workloads, inclusief implementaties van grote taalmodellen (LLM).

De aankondiging komt iets meer dan een maand na de GPU-gigant onthuld een nieuw containerplatform voor het bouwen van AI-modellen genaamd Nvidia Inference Microservices (NIM).

NIMS zijn in wezen vooraf geconfigureerde en geoptimaliseerde containerimages die het model bevatten, of het nu de open source- of propriëtaire versie is, met alle afhankelijkheden die nodig zijn om het te laten werken.

Zoals de meeste containers kunnen NIM's worden ingezet over verschillende runtimes, waaronder CUDA-versnelde Kubernetes-nodes.

Het idee achter het omzetten van LLM's en andere AI-modellen in microservices is dat ze met elkaar in een netwerk kunnen worden opgenomen en kunnen worden gebruikt om complexere en rijkere AI-modellen te bouwen dan anders mogelijk zou zijn zonder zelf een speciaal model te trainen, of dat is tenminste hoe Nvidia zich voorstelt dat mensen deze gebruiken hen.

Met de overname van Run:ai beschikt Nvidia nu over een Kubernetes-orkestratielaag voor het beheren van de implementatie van deze NIM’s in de GPU-infrastructuur. ®

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?