生成的データ インテリジェンス

Run:ai の買収により、Nvidia は AI K8 の管理を目指します

日付:

Nvidia は水曜日、GPU 上に構築されたコンピューティング クラスターの効率向上を目的として、AI 中心の Kubernetes オーケストレーション プロバイダーである Run:ai の買収を発表しました。

の詳細 取引 明らかにされていませんでしたが、 報道によると この取引の価値は約700億ドルになる可能性がある。テルアビブを拠点とするこのスタートアップは、 明らかに 118年の設立以来、2018回の資金調達ラウンドでXNUMX億XNUMX万ドルを調達しました。

Run:ai のプラットフォームは、さまざまな人気のある Kubernetes バリアントを操作するための中央ユーザー インターフェイスとコントロール プレーンを提供します。これは RedHat の OpenShift や SUSE の Rancher に似ており、名前空間、ユーザー プロファイル、リソース割り当てなどを管理するための同じツールを多く備えています。

主な違いは、Run:ai はサードパーティの AI ツールおよびフレームワークと統合し、GPU で高速化されたコンテナー環境を処理するように設計されていることです。そのソフトウェア ポートフォリオには、ワークロード スケジューリングやアクセラレータ パーティショニングなどの要素が含まれており、後者により複数のワークロードを単一の GPU 全体に分散できます。

Nvidia によると、Run:ai のプラットフォームは、Superpod 構成、Base Command クラスター管理システム、NGC コンテナ ライブラリ、AI Enterprise スイートを含む DGX コンピューティング プラットフォームをすでにサポートしています。

AI に関して、Kubernetes は、地理的に分散している可能性がある複数のリソースにわたるスケーリングを処理するように環境を構成できるため、ベアメタル展開に比べて多くの利点があると主張しています。

今のところ、既存の Run:ai 顧客は、Nvidia がプラットフォームに大きな変更を課すことを心配する必要はありません。で リリース, Nvidiaは、それが何を意味するにせよ、当面は同じビジネスモデルでRun:aiの製品を提供し続けると述べた。

一方、Nvidia の DGX Cloud に加入しているユーザーは、大規模言語モデル (LLM) の展開を含む、AI ワークロード向けの Run:ai の機能セットにアクセスできるようになります。

この発表は、GPU 巨人の 1 か月強後に行われました。 発表 Nvidia Inference Microservices (NIM) と呼ばれる、AI モデルを構築するための新しいコンテナ プラットフォーム。

NIMS は基本的に、モデルがオープンソースであるか独自バージョンであるかに関係なく、モデルを実行するために必要なすべての依存関係を含む、事前に構成され最適化されたコンテナー イメージです。

ほとんどのコンテナーと同様に、NIM は、CUDA で高速化された Kubernetes ノードを含むさまざまなランタイムにわたってデプロイできます。

LLM やその他の AI モデルをマイクロサービスに変える背後にある考え方は、それらをネットワーク化して、専用のモデルを自分でトレーニングすることなくより複雑で機能豊富な AI モデルを構築するために使用できるということです。少なくとも Nvidia は、それをユーザーが使用することを想定しています。彼ら。

Run:ai の買収により、Nvidia は GPU インフラストラクチャ全体でこれらの NIM の展開を管理するための Kubernetes オーケストレーション レイヤーを備えました。 ®

スポット画像

最新のインテリジェンス

スポット画像

私たちとチャット

やあ! どんな御用でしょうか?