Nvidia は水曜日、GPU 上に構築されたコンピューティング クラスターの効率向上を目的として、AI 中心の Kubernetes オーケストレーション プロバイダーである Run:ai の買収を発表しました。
の詳細 取引 明らかにされていませんでしたが、 報道によると この取引の価値は約700億ドルになる可能性がある。テルアビブを拠点とするこのスタートアップは、 明らかに 118年の設立以来、2018回の資金調達ラウンドでXNUMX億XNUMX万ドルを調達しました。
Run:ai のプラットフォームは、さまざまな人気のある Kubernetes バリアントを操作するための中央ユーザー インターフェイスとコントロール プレーンを提供します。これは RedHat の OpenShift や SUSE の Rancher に似ており、名前空間、ユーザー プロファイル、リソース割り当てなどを管理するための同じツールを多く備えています。
主な違いは、Run:ai はサードパーティの AI ツールおよびフレームワークと統合し、GPU で高速化されたコンテナー環境を処理するように設計されていることです。そのソフトウェア ポートフォリオには、ワークロード スケジューリングやアクセラレータ パーティショニングなどの要素が含まれており、後者により複数のワークロードを単一の GPU 全体に分散できます。
Nvidia によると、Run:ai のプラットフォームは、Superpod 構成、Base Command クラスター管理システム、NGC コンテナ ライブラリ、AI Enterprise スイートを含む DGX コンピューティング プラットフォームをすでにサポートしています。
AI に関して、Kubernetes は、地理的に分散している可能性がある複数のリソースにわたるスケーリングを処理するように環境を構成できるため、ベアメタル展開に比べて多くの利点があると主張しています。
今のところ、既存の Run:ai 顧客は、Nvidia がプラットフォームに大きな変更を課すことを心配する必要はありません。で リリース, Nvidiaは、それが何を意味するにせよ、当面は同じビジネスモデルでRun:aiの製品を提供し続けると述べた。
一方、Nvidia の DGX Cloud に加入しているユーザーは、大規模言語モデル (LLM) の展開を含む、AI ワークロード向けの Run:ai の機能セットにアクセスできるようになります。
この発表は、GPU 巨人の 1 か月強後に行われました。 発表 Nvidia Inference Microservices (NIM) と呼ばれる、AI モデルを構築するための新しいコンテナ プラットフォーム。
NIMS は基本的に、モデルがオープンソースであるか独自バージョンであるかに関係なく、モデルを実行するために必要なすべての依存関係を含む、事前に構成され最適化されたコンテナー イメージです。
ほとんどのコンテナーと同様に、NIM は、CUDA で高速化された Kubernetes ノードを含むさまざまなランタイムにわたってデプロイできます。
LLM やその他の AI モデルをマイクロサービスに変える背後にある考え方は、それらをネットワーク化して、専用のモデルを自分でトレーニングすることなくより複雑で機能豊富な AI モデルを構築するために使用できるということです。少なくとも Nvidia は、それをユーザーが使用することを想定しています。彼ら。
Run:ai の買収により、Nvidia は GPU インフラストラクチャ全体でこれらの NIM の展開を管理するための Kubernetes オーケストレーション レイヤーを備えました。 ®
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- PlatoData.Network 垂直生成 Ai。 自分自身に力を与えましょう。 こちらからアクセスしてください。
- プラトアイストリーム。 Web3 インテリジェンス。 知識増幅。 こちらからアクセスしてください。
- プラトンESG。 カーボン、 クリーンテック、 エネルギー、 環境、 太陽、 廃棄物管理。 こちらからアクセスしてください。
- プラトンヘルス。 バイオテクノロジーと臨床試験のインテリジェンス。 こちらからアクセスしてください。
- 情報源: https://go.theregister.com/feed/www.theregister.com/2024/04/24/runai_acquisition_nvidia/