Trí thông minh dữ liệu tạo

Với việc mua lại Run:ai, Nvidia đặt mục tiêu quản lý AI K8 của bạn

Ngày:

Nvidia hôm thứ Tư đã công bố việc mua lại nhà cung cấp điều phối Kubernetes tập trung vào AI Run: ai trong nỗ lực giúp nâng cao hiệu quả của các cụm máy tính được xây dựng trên GPU.

Các chi tiết của thỏa thuận không được tiết lộ nhưng báo cáo thỏa thuận có thể được định giá khoảng 700 triệu USD. Công ty khởi nghiệp có trụ sở tại Tel Aviv đã dường như đã huy động được 118 triệu USD qua bốn vòng cấp vốn kể từ khi thành lập vào năm 2018.

Nền tảng của Run:ai cung cấp giao diện người dùng trung tâm và mặt phẳng điều khiển để làm việc với nhiều biến thể Kubernetes phổ biến. Điều này làm cho nó hơi giống OpenShift của RedHat hoặc Rancher của SUSE và nó có nhiều công cụ tương tự để quản lý những thứ như không gian tên, hồ sơ người dùng và phân bổ tài nguyên.

Điểm khác biệt chính là Run:ai's được thiết kế để tích hợp với các công cụ và khung AI của bên thứ ba, đồng thời xử lý các môi trường vùng chứa được tăng tốc GPU. Danh mục phần mềm của nó bao gồm các yếu tố như lập lịch khối lượng công việc và phân vùng tăng tốc, tính năng sau cho phép trải rộng nhiều khối lượng công việc trên một GPU.

Theo Nvidia, nền tảng của Run:ai đã hỗ trợ các nền tảng tính toán DGX, bao gồm cấu hình Superpod, hệ thống quản lý cụm Base Command, thư viện bộ chứa NGC và bộ AI Enterprise.

Liên quan đến AI, Kubernetes khẳng định có một số lợi thế so với việc triển khai kim loại trần, vì môi trường có thể được cấu hình để xử lý việc mở rộng quy mô trên nhiều tài nguyên, có khả năng phân bổ theo địa lý.

Hiện tại, khách hàng hiện tại của Run:ai không cần lo lắng về việc Nvidia áp đặt những thay đổi lớn lên nền tảng. trong một phát hành, Nvidia cho biết họ sẽ tiếp tục cung cấp các sản phẩm của Run: ai theo cùng một mô hình kinh doanh trước mắt - bất kể điều đó có nghĩa là gì.

Trong khi đó, những người đã đăng ký DGX Cloud của Nvidia sẽ có quyền truy cập vào bộ tính năng của Run:ai cho khối lượng công việc AI của họ, bao gồm cả việc triển khai mô hình ngôn ngữ lớn (LLM).

Thông báo được đưa ra chỉ hơn một tháng sau khi gã khổng lồ GPU Tiết lộ một nền tảng container mới để xây dựng các mô hình AI có tên là Nvidia Inference Microservices (NIM).

NIMS về cơ bản là các hình ảnh vùng chứa được cấu hình sẵn và tối ưu hóa chứa mô hình, cho dù đó là phiên bản nguồn mở hay phiên bản độc quyền, với tất cả các phụ thuộc cần thiết để chạy mô hình.

Giống như hầu hết các container, NIM có thể được triển khai trên nhiều thời gian chạy khác nhau, bao gồm cả các nút Kubernetes được tăng tốc CUDA.

Ý tưởng đằng sau việc biến LLM và các mô hình AI khác thành microservice là chúng có thể được nối mạng với nhau và được sử dụng để xây dựng các mô hình AI phức tạp và giàu tính năng hơn mức có thể nếu không tự mình đào tạo một mô hình chuyên dụng, hoặc ít nhất đó là cách Nvidia hình dung mọi người sử dụng họ.

Với việc mua lại Run:ai, Nvidia hiện có lớp điều phối Kubernetes để quản lý việc triển khai các NIM này trên cơ sở hạ tầng GPU của mình. ®

tại chỗ_img

Tin tức mới nhất

tại chỗ_img

Trò chuyện trực tiếp với chúng tôi (chat)

Chào bạn! Làm thế nào để tôi giúp bạn?