Generative Data Intelligence

Með Run:ai kaupunum miðar Nvidia að því að stjórna AI K8s þínum

Dagsetning:

Nvidia tilkynnti á miðvikudaginn um kaup á gervigreindarmiðlægum Kubernetes hljómsveitarveitanda Run:ai í viðleitni til að hjálpa til við að styrkja skilvirkni tölvuklasa byggða á GPU.

Upplýsingar um samningurinn voru ekki gefnar upp, en að sögn Samningurinn gæti verið metinn á um 700 milljónir dollara. Sprotafyrirtækið í Tel Aviv hefur greinilega safnaði 118 milljónum dala í fjórum fjármögnunarlotum síðan það var stofnað árið 2018.

Run:ai vettvangurinn býður upp á miðlægt notendaviðmót og stjórnborð til að vinna með margs konar vinsælum Kubernetes afbrigðum. Þetta gerir það svolítið eins og RedHat's OpenShift eða SUSE's Rancher, og það er með mörg af sömu verkfærunum til að stjórna hlutum eins og nafnasvæðum, notendasniðum og tilföngum.

Lykilmunurinn er sá að Run:ai er hannað til að samþætta gervigreindarverkfærum og ramma þriðja aðila og takast á við umhverfi GPU hraðaðs gáma. Hugbúnaðarsafn þess inniheldur þætti eins og tímasetningu vinnuálags og skipting á eldsneytisgjöfum, en sú síðarnefnda gerir kleift að dreifa mörgum vinnuálagi yfir eina GPU.

Samkvæmt Nvidia styður vettvangur Run:ai nú þegar DGX tölvupalla sína, þar á meðal Superpod stillingar, Base Command klasastjórnunarkerfið, NGC gámasafn og AI Enterprise föruneyti.

Með tilliti til gervigreindar heldur Kubernetes fram fjölda kosta fram yfir notkun á berum málmum, þar sem hægt er að stilla umhverfið til að takast á við mælikvarða yfir margar, hugsanlega landfræðilega dreifðar, auðlindir.

Í bili þurfa núverandi Run:ai viðskiptavinir ekki að hafa áhyggjur af því að Nvidia geri miklar breytingar á pallinum. Í gefa út, sagði Nvidia að það myndi halda áfram að bjóða Run:ai vörur undir sama viðskiptamódeli, um nánustu framtíð - hvað sem það kann að þýða.

Á sama tíma munu þeir sem eru áskrifendur að DGX Cloud frá Nvidia fá aðgang að eiginleikum Run:ai fyrir gervigreind vinnuálag þeirra, þar á meðal uppsetningu stórra tungumálalíkana (LLM).

Tilkynningin kemur rúmum mánuði á eftir GPU risanum kynnt nýr gámavettvangur til að byggja gervigreind módel sem kallast Nvidia Inference Microservices (NIM).

NIMS eru í meginatriðum forstilltar og fínstilltar gámamyndir sem innihalda líkanið, hvort sem það er opinn uppspretta eða sérútgáfa, með öllum þeim ósjálfstæðum sem nauðsynleg eru til að koma því í gang.

Eins og flesta gáma, er hægt að dreifa NIM yfir margs konar keyrslutíma, þar á meðal CUDA-hraðaða Kubernetes hnúta.

Hugmyndin að baki því að breyta LLM og öðrum gervigreindum gerðum í örþjónustu er að hægt sé að tengja þau saman og nota til að byggja upp flóknari og innihaldsríkari gervigreind módel en annars væri mögulegt án þess að þjálfa sérstakt líkan sjálfur, eða að minnsta kosti þannig sér Nvidia fyrir sér að fólk noti þeim.

Með kaupunum á Run:ai hefur Nvidia nú Kubernetes hljómsveitarlag til að stjórna uppsetningu þessara NIMs yfir GPU innviði þess. ®

blettur_img

Nýjasta upplýsingaöflun

blettur_img

Spjallaðu við okkur

Sæll! Hvernig get ég aðstoðað þig?