Generatiivne andmeluure

Run:ai omandamisega soovib Nvidia hallata teie AI K8-sid

kuupäev:

Nvidia teatas kolmapäeval tehisintellekti-keskse Kubernetese orkestreerimisteenuse pakkuja Run:ai omandamisest, et aidata suurendada GPU-le ehitatud andmetöötlusklastrite tõhusust.

Üksikasjad diil ei avalikustatud, kuid teatatud tehingu väärtus võiks olla ligikaudu 700 miljonit dollarit. Tel Avivis asuv startup on ilmselt kogus alates selle asutamisest 118. aastal nelja rahastamisvooru jooksul 2018 miljonit dollarit.

Run:ai platvorm pakub keskse kasutajaliidese ja juhtimistasandi erinevate populaarsete Kubernetese variantidega töötamiseks. See muudab selle pisut sarnaseks RedHati OpenShiftiga või SUSE Rancheriga ning sisaldab paljusid samu tööriistu selliste asjade haldamiseks nagu nimeruumid, kasutajaprofiilid ja ressursside eraldamine.

Peamine erinevus seisneb selles, et Run:ai's on loodud integreeruma kolmanda osapoole AI tööriistade ja raamistikega ning tegelema GPU kiirendatud konteinerikeskkondadega. Selle tarkvaraportfell sisaldab selliseid elemente nagu töökoormuse ajastamine ja kiirendi partitsioonid, millest viimane võimaldab mitme töökoormuse jaotamist ühe GPU vahel.

Nvidia andmetel toetab Run:ai platvorm juba DGX-i arvutusplatvorme, sealhulgas Superpodi konfiguratsioone, Base Command klastri haldussüsteemi, NGC konteineriteeki ja AI Enterprise'i komplekti.

Seoses tehisintellektiga väidab Kubernetes mitmeid eeliseid palja metalli juurutamise ees, kuna keskkonda saab konfigureerida nii, et see käsitleks mitme potentsiaalselt geograafiliselt hajutatud ressursi skaleerimist.

Praegu ei pea olemasolevad Run:ai kliendid muretsema selle pärast, et Nvidia teeb platvormi suuri muudatusi. Sees vabastama, Nvidia ütles, et jätkab Run:ai toodete pakkumist sama ärimudeli alusel lähitulevikus – mida iganes see ka ei tähendaks.

Samal ajal saavad Nvidia DGX Cloudi tellijad juurdepääsu Run:ai funktsioonide komplektile oma tehisintellekti töökoormuse jaoks, sealhulgas suurte keelemudelite (LLM) juurutamiseks.

Teade tuleb veidi üle kuu pärast GPU hiiglast Avalikustas uus konteinerplatvorm AI mudelite ehitamiseks nimega Nvidia Inference Microservices (NIM).

NIMS on sisuliselt eelkonfigureeritud ja optimeeritud konteineri kujutised, mis sisaldavad mudelit, olgu see siis avatud lähtekoodiga või patenteeritud versioon, koos kõigi selle käitamiseks vajalike sõltuvustega.

Nagu enamikke konteinereid, saab ka NIM-e juurutada mitmesugustes käitusaegades, sealhulgas CUDA-kiirendusega Kubernetese sõlmedes.

LLM-ide ja muude tehisintellekti mudelite mikroteenusteks muutmise idee seisneb selles, et neid saab omavahel võrku ühendada ja kasutada keerukamate ja funktsioonirikkamate AI-mudelite loomiseks, kui muidu oleks võimalik ilma spetsiaalset mudelit ise välja õpetamata või vähemalt nii näeb Nvidia inimesi, kes kasutavad. neid.

Run:ai omandamisega on Nvidial nüüd Kubernetese orkestreerimiskiht nende NIM-ide juurutamise haldamiseks kogu oma GPU infrastruktuuris. ®

spot_img

Uusim intelligentsus

spot_img

Jututuba koos meiega

Tere! Kuidas ma teid aidata saan?