Generative Data Intelligence

З придбанням Run:ai Nvidia прагне керувати вашими AI K8

Дата:

У середу компанія Nvidia оголосила про придбання постачальника оркестровки Kubernetes Run:ai, орієнтованого на ШІ, щоб допомогти підвищити ефективність обчислювальних кластерів, побудованих на GPU.

Деталі Угода не були розголошені, але як повідомляється угода може бути оцінена приблизно в 700 мільйонів доларів. Тель-авівський стартап має мабуть залучив 118 мільйонів доларів США протягом чотирьох раундів фінансування з моменту свого заснування в 2018 році.

Платформа Run:ai надає центральний інтерфейс користувача та площину керування для роботи з різними популярними варіантами Kubernetes. Це робить його трохи схожим на OpenShift від RedHat або Rancher від SUSE, і він містить багато тих самих інструментів для керування такими речами, як простори імен, профілі користувачів і розподіл ресурсів.

Ключова відмінність полягає в тому, що Run:ai розроблено для інтеграції зі сторонніми інструментами та фреймворками штучного інтелекту та роботи з контейнерними середовищами, прискореними GPU. Його портфоліо програмного забезпечення включає такі елементи, як планування робочого навантаження та розподіл прискорювача, останній з яких дозволяє розподілити кілька робочих навантажень на один GPU.

За словами Nvidia, платформа Run:ai вже підтримує її обчислювальні платформи DGX, включаючи конфігурації Superpod, систему керування кластером Base Command, бібліотеку контейнерів NGC і пакет AI Enterprise.

Що стосується штучного інтелекту, Kubernetes заявляє про низку переваг перед розгортанням «голого металу», оскільки середовище можна налаштувати для масштабування кількох, потенційно географічно розподілених, ресурсів.

На даний момент існуючим клієнтам Run:ai не потрібно турбуватися про те, що Nvidia внесе серйозні зміни в платформу. В звільнити, Nvidia заявила, що продовжить пропонувати продукти Run:ai за тією ж бізнес-моделлю в найближчому майбутньому — що б це не означало.

Тим часом ті, хто підписався на DGX Cloud від Nvidia, отримають доступ до набору функцій Run:ai для своїх робочих навантажень AI, включаючи розгортання великої мовної моделі (LLM).

Оголошення з’явилося трохи більше ніж через місяць після появи гіганта GPU представила нову контейнерну платформу для створення моделей ШІ під назвою Nvidia Inference Microservices (NIM).

NIMS — це, по суті, попередньо налаштовані та оптимізовані образи контейнерів, що містять модель, будь то версія з відкритим вихідним кодом або пропрієтарна версія, з усіма залежностями, необхідними для її запуску.

Як і більшість контейнерів, NIM можна розгортати в різних середовищах виконання, включаючи вузли Kubernetes із прискоренням CUDA.

Ідея перетворення LLM та інших моделей штучного інтелекту на мікросервіси полягає в тому, що їх можна об’єднати в мережу та використовувати для створення більш складних і багатофункціональних моделей штучного інтелекту, ніж це було б можливо без самостійного навчання спеціальної моделі, або, принаймні, так Nvidia бачить людей, які використовують їх.

Після придбання Run:ai Nvidia тепер має рівень оркестровки Kubernetes для керування розгортанням цих NIM у своїй інфраструктурі GPU. ®

spot_img

Остання розвідка

spot_img

Зв'яжіться з нами!

Привіт! Чим я можу вам допомогти?