Inteligența generativă a datelor

Prin achiziția Run:ai, Nvidia își propune să vă gestioneze AI K8-urile

Data:

Nvidia a anunțat miercuri achiziția furnizorului de orchestrare Kubernetes, centrat pe inteligența artificială, Run:ai, într-un efort de a ajuta la creșterea eficienței clusterelor de calcul construite pe GPU.

Detalii despre intelegerea nu au fost dezvăluite, dar relatărilor afacerea ar putea fi evaluată la aproximativ 700 de milioane de dolari. Startup-ul din Tel Aviv are aparent a strâns 118 milioane USD în patru runde de finanțare de la înființare în 2018.

Platforma Run:ai oferă o interfață de utilizator centrală și un plan de control pentru lucrul cu o varietate de variante populare Kubernetes. Acest lucru îl face un pic asemănător cu OpenShift de la RedHat sau Rancher de la SUSE și oferă multe dintre aceleași instrumente pentru gestionarea lucrurilor precum spațiile de nume, profilurile utilizatorilor și alocările de resurse.

Diferența cheie este că Run:ai este proiectat să se integreze cu instrumente și cadre AI terțe și să se ocupe de mediile de containere accelerate GPU. Portofoliul său de software include elemente precum programarea încărcăturii de lucru și partiționarea acceleratorului, cea din urmă permitând repartizarea mai multor sarcini de lucru pe un singur GPU.

Potrivit Nvidia, platforma Run:ai acceptă deja platformele sale de calcul DGX, inclusiv configurațiile sale Superpod, sistemul de management al clusterului Base Command, biblioteca de containere NGC și o suită AI Enterprise.

În ceea ce privește AI, Kubernetes susține o serie de avantaje față de implementările bare metal, deoarece mediul poate fi configurat pentru a gestiona scalarea pe mai multe resurse, potențial distribuite geografic.

Deocamdată, clienții Run:ai existenți nu trebuie să-și facă griji că Nvidia va impune modificări majore platformei. Într-o eliberaţi, Nvidia a spus că va continua să ofere produsele Run:ai sub același model de afaceri, pentru viitorul imediat - orice ar însemna asta.

Între timp, cei abonați la DGX Cloud de la Nvidia vor avea acces la setul de funcții Run:ai pentru sarcinile lor de lucru AI, inclusiv implementările modelului de limbă mare (LLM).

Anunțul vine la puțin peste o lună după gigantul GPU dezvaluit o nouă platformă de containere pentru construirea de modele AI numită Nvidia Inference Microservices (NIM).

NIMS sunt în esență imagini de container pre-configurate și optimizate care conțin modelul, fie că este vorba de versiunea open source sau proprietară, cu toate dependențele necesare pentru a-l pune în funcțiune.

La fel ca majoritatea containerelor, NIM-urile pot fi implementate într-o varietate de timpi de execuție, inclusiv noduri Kubernetes accelerate de CUDA.

Ideea din spatele transformării LLM-urilor și a altor modele AI în microservicii este că acestea pot fi conectate împreună și utilizate pentru a construi modele AI mai complexe și mai bogate în caracteristici decât ar fi posibil fără a antrena singur un model dedicat, sau cel puțin așa își imaginează Nvidia că oamenii folosesc lor.

Odată cu achiziționarea Run:ai, Nvidia are acum un nivel de orchestrare Kubernetes pentru gestionarea implementării acestor NIM-uri în infrastructura sa GPU. ®

spot_img

Ultimele informații

spot_img

Chat cu noi

Bună! Cu ce ​​​​vă pot ajuta?