生成数据智能

通过收购 Run:ai,Nvidia 旨在管理您的 AI K8

日期:

Nvidia 周三宣布收购以 AI 为中心的 Kubernetes 编排提供商 Run:ai,以帮助提高基于 GPU 构建的计算集群的效率。

详细 交易 没有透露,但是 据说 这笔交易的价值约为 700 亿美元。这家总部位于特拉维夫的初创公司 显然地 自 118 年成立以来,已通过四轮融资筹集了 2018 亿美元。

Run:ai 的平台提供了一个中央用户界面和控制平面,用于处理各种流行的 Kubernetes 变体。这使得它有点像 RedHat 的 OpenShift 或 SUSE 的 Rancher,并且它具有许多相同的工具来管理命名空间、用户配置文件和资源分配等内容。

关键区别在于 Run:ai 旨在与第三方 AI 工具和框架集成,并处理 GPU 加速容器环境。其软件产品组合包括工作负载调度和加速器分区等元素,后者允许多个工作负载分布在单个 GPU 上。

据 Nvidia 称,Run:ai 的平台已经支持其 DGX 计算平台,包括 Superpod 配置、Base Command 集群管理系统、NGC 容器库和 AI Enterprise 套件。

关于 AI,Kubernetes 声称比裸机部署有许多优势,因为可以将环境配置为处理跨多个可能分布在地理上的资源的扩展。

目前,现有的 Run:ai 客户不必担心 Nvidia 对该平台进行重大更改。在一个 释放,Nvidia 表示,在不久的将来,它将继续以相同的商业模式提供 Run:ai 的产品——无论这意味着什么。

与此同时,订阅 Nvidia DGX Cloud 的用户将可以访问 Run:ai 的 AI 工作负载功能集,包括大型语言模型 (LLM) 部署。

就在 GPU 巨头宣布这一消息一个多月后 亮相 用于构建 AI 模型的新容器平台称为 Nvidia Inference Microservices (NIM)。

NIMS 本质上是包含模型的预配置和优化的容器映像,无论是开源版本还是专有版本,以及运行该模型所需的所有依赖项。

与大多数容器一样,NIM 可以跨各种运行时部署,包括 CUDA 加速的 Kubernetes 节点。

将法学硕士和其他人工智能模型转变为微服务背后的想法是,它们可以联网在一起,用于构建更复杂、功能更丰富的人工智能模型,而无需自己训练专用模型,或者至少这就是 Nvidia 设想的人们使用的方式他们。

通过收购 Run:ai,Nvidia 现在拥有了一个 Kubernetes 编排层,用于管理这些 NIM 在其 GPU 基础设施中的部署。 ®

现货图片

最新情报

现货图片

在线答疑

你好呀! 我怎么帮你?