Üretken Veri Zekası

Run:ai satın alımıyla Nvidia, AI K8'lerinizi yönetmeyi hedefliyor

Tarih:

Nvidia Çarşamba günü, GPU üzerine kurulu bilgi işlem kümelerinin verimliliğini artırmaya yardımcı olmak amacıyla AI merkezli Kubernetes düzenleme sağlayıcısı Run:ai'yi satın aldığını duyurdu.

Detayları anlaşma açıklanmadı ama söylendiğine göre anlaşmanın değeri yaklaşık 700 milyon dolar olabilir. Tel Aviv merkezli girişim, görünüşe göre 118 yılında kurulduğundan bu yana dört finansman turunda 2018 milyon dolar topladı.

Run:ai'nin platformu, çeşitli popüler Kubernetes çeşitleriyle çalışmak için merkezi bir kullanıcı arayüzü ve kontrol düzlemi sağlar. Bu, onu biraz RedHat'ın OpenShift'ine veya SUSE'nin Rancher'ına benzetiyor ve ad alanları, kullanıcı profilleri ve kaynak tahsisleri gibi şeyleri yönetmek için aynı araçların çoğunu içeriyor.

Temel fark, Run:ai'nin üçüncü taraf AI araçları ve çerçeveleriyle entegre olacak ve GPU hızlandırmalı konteyner ortamlarıyla başa çıkacak şekilde tasarlanmış olmasıdır. Yazılım portföyü, iş yükü planlama ve hızlandırıcı bölümleme gibi öğeleri içerir; bunlardan ikincisi birden fazla iş yükünün tek bir GPU'ya yayılmasına olanak tanır.

Nvidia'ya göre Run:ai'nin platformu, Superpod yapılandırmaları, Base Command küme yönetim sistemi, NGC konteyner kitaplığı ve bir AI Enterprise paketi dahil olmak üzere DGX bilgi işlem platformlarını zaten destekliyor.

AI Kubernetes ile ilgili olarak, ortamın birden fazla, potansiyel olarak coğrafi olarak dağıtılmış kaynaklar arasında ölçeklendirmeyi yönetecek şekilde yapılandırılabilmesi nedeniyle, çıplak donanım dağıtımlarına göre bir dizi avantaj öne sürüyor.

Şimdilik mevcut Run:ai müşterilerinin Nvidia'nın platforma büyük değişiklikler getirmesi konusunda endişelenmesine gerek yok. İçinde serbestNvidia, Run:ai ürünlerini yakın gelecekte aynı iş modeli altında sunmaya devam edeceğini söyledi - bu ne anlama geliyorsa.

Bu arada, Nvidia'nın DGX Cloud'una abone olanlar, büyük dil modeli (LLM) dağıtımları da dahil olmak üzere AI iş yükleri için Run:ai'nin özellik setine erişebilecek.

Duyuru GPU devinden sadece bir ay sonra geldi açıkladı Nvidia Inference Microservices (NIM) adı verilen yapay zeka modelleri oluşturmaya yönelik yeni bir konteyner platformu.

NIMS, ister açık kaynak ister özel sürüm olsun, modeli çalıştırmak için gerekli tüm bağımlılıklarla birlikte içeren, önceden yapılandırılmış ve optimize edilmiş konteyner görüntüleridir.

Çoğu konteyner gibi NIM'ler de CUDA ile hızlandırılmış Kubernetes düğümleri de dahil olmak üzere çeşitli çalışma zamanlarında dağıtılabilir.

Yüksek Lisans'ları ve diğer AI modellerini mikro hizmetlere dönüştürmenin ardındaki fikir, bunların birlikte ağa bağlanabilmesi ve özel bir modeli kendiniz eğitmeden mümkün olandan daha karmaşık ve zengin özelliklere sahip AI modelleri oluşturmak için kullanılabilmesidir veya en azından Nvidia, insanların bu şekilde kullanmasını öngörüyor onlara.

Run:ai'nin satın alınmasıyla Nvidia artık bu NIM'lerin GPU altyapısında dağıtımını yönetmek için bir Kubernetes orkestrasyon katmanına sahip oldu. ®

spot_img

En Son İstihbarat

spot_img

Bizimle sohbet

Merhaba! Size nasıl yardım edebilirim?