Generative Datenintelligenz

Mit der Übernahme von Run:ai zielt Nvidia darauf ab, Ihre KI-K8s zu verwalten

Datum:

Nvidia gab am Mittwoch die Übernahme des KI-zentrierten Kubernetes-Orchestrierungsanbieters Run:ai bekannt, um die Effizienz von auf GPUs basierenden Computing-Clustern zu steigern.

Die Details von der Deal wurden nicht bekannt gegeben, aber Berichten zufolge Der Deal könnte einen Wert von rund 700 Millionen US-Dollar haben. Das in Tel Aviv ansässige Startup hat anscheinend hat seit seiner Gründung im Jahr 118 in vier Finanzierungsrunden 2018 Millionen US-Dollar eingesammelt.

Die Plattform von Run:ai bietet eine zentrale Benutzeroberfläche und Steuerungsebene für die Arbeit mit einer Vielzahl beliebter Kubernetes-Varianten. Dadurch ähnelt es ein wenig dem OpenShift von RedHat oder dem Rancher von SUSE und verfügt über viele der gleichen Tools zum Verwalten von Dingen wie Namespaces, Benutzerprofilen und Ressourcenzuweisungen.

Der Hauptunterschied besteht darin, dass Run:ai für die Integration in KI-Tools und Frameworks von Drittanbietern sowie für den Umgang mit GPU-beschleunigten Containerumgebungen konzipiert ist. Das Softwareportfolio umfasst Elemente wie Workload-Planung und Beschleunigerpartitionierung, wobei letztere die Verteilung mehrerer Workloads auf eine einzige GPU ermöglicht.

Laut Nvidia unterstützt die Plattform von Run:ai bereits seine DGX-Rechenplattformen, einschließlich seiner Superpod-Konfigurationen, des Base Command-Clusterverwaltungssystems, der NGC-Containerbibliothek und einer AI Enterprise-Suite.

Im Hinblick auf KI behauptet Kubernetes eine Reihe von Vorteilen gegenüber Bare-Metal-Bereitstellungen, da die Umgebung so konfiguriert werden kann, dass sie die Skalierung über mehrere, potenziell geografisch verteilte Ressourcen hinweg ermöglicht.

Bestehende Run:ai-Kunden müssen sich vorerst keine Sorgen machen, dass Nvidia größere Änderungen an der Plattform vornimmt. In einem ReleaseNvidia sagte, dass es die Run:ai-Produkte in naher Zukunft weiterhin unter demselben Geschäftsmodell anbieten werde – was auch immer das bedeuten mag.

In der Zwischenzeit erhalten diejenigen, die Nvidias DGX Cloud abonniert haben, Zugriff auf den Funktionsumfang von Run:ai für ihre KI-Workloads, einschließlich LLM-Bereitstellungen (Large Language Model).

Die Ankündigung erfolgt etwas mehr als einen Monat nach dem GPU-Riesen enthüllt eine neue Containerplattform zum Erstellen von KI-Modellen namens Nvidia Inference Microservices (NIM).

Bei NIMS handelt es sich im Wesentlichen um vorkonfigurierte und optimierte Container-Images, die das Modell enthalten, unabhängig davon, ob es sich um die Open-Source- oder proprietäre Version handelt, mit allen für die Ausführung erforderlichen Abhängigkeiten.

Wie die meisten Container können NIMs in einer Vielzahl von Laufzeiten bereitgestellt werden, einschließlich CUDA-beschleunigter Kubernetes-Knoten.

Die Idee hinter der Umwandlung von LLMs und anderen KI-Modellen in Microservices besteht darin, dass sie miteinander vernetzt und zum Erstellen komplexerer und funktionsreicherer KI-Modelle verwendet werden können, als dies sonst möglich wäre, ohne selbst ein dediziertes Modell zu trainieren, oder zumindest stellt sich Nvidia dies vor ihnen.

Mit der Übernahme von Run:ai verfügt Nvidia nun über eine Kubernetes-Orchestrierungsebene für die Verwaltung der Bereitstellung dieser NIMs in seiner GPU-Infrastruktur. ®

spot_img

Neueste Intelligenz

spot_img

Chat mit uns

Hallo! Wie kann ich dir helfen?