אינטליגנציה של נתונים גנרטיביים

עם רכישת Run:ai, Nvidia שואפת לנהל את ה-AI K8s שלך

תאריך:

Nvidia הודיעה ביום רביעי על רכישת ספקית התזמורת Kubernetes המתמקדת ב-AI, Run:ai, במאמץ לסייע בחיזוק היעילות של אשכולות מחשוב הבנויים על GPU.

הפרטים של העסקה לא נחשפו, אבל לפי הדיווחים העסקה עשויה להיות מוערכת בכ-700 מיליון דולר. לסטארטאפ התל אביבי יש ככל הנראה גייסה 118 מיליון דולר על פני ארבעה סבבי גיוס מאז הקמתה ב-2018.

הפלטפורמה של Run:ai מספקת ממשק משתמש מרכזי ומישור בקרה לעבודה עם מגוון גרסאות פופולריות של Kubernetes. זה הופך אותו קצת לדומה ל-OpenShift של RedHat או ל-Rancher של SUSE, והוא כולל רבים מאותם כלים לניהול דברים כמו מרחבי שמות, פרופילי משתמשים והקצאות משאבים.

ההבדל העיקרי הוא ש-Run:ai's מתוכנן להשתלב עם כלים ומסגרות AI של צד שלישי, ולהתמודד עם סביבות מכולות מואצות של GPU. תיק התוכנה שלה כולל אלמנטים כמו תזמון עומסי עבודה ומחיצות מאיץ, שהאחרון מאפשר לפזר עומסי עבודה מרובים על פני GPU יחיד.

לפי Nvidia, הפלטפורמה של Run:ai כבר תומכת בפלטפורמות המחשוב שלה DGX, כולל תצורות ה-Superpod שלה, מערכת ניהול האשכולות Base Command, ספריית מיכל NGC וחבילת AI Enterprise.

לגבי AI Kubernetes טוענת למספר יתרונות על פני פריסות מתכת חשופות, שכן ניתן להגדיר את הסביבה להתמודד עם קנה מידה על פני משאבים מרובים, שעלולים להפיץ גיאוגרפית.

לעת עתה, לקוחות Run:ai קיימים אינם צריכים לדאוג ש-Nvidia תטיל שינויים גדולים בפלטפורמה. ב לשחרר, Nvidia אמרה שהיא תמשיך להציע את המוצרים של Run:ai תחת אותו מודל עסקי, לעתיד המיידי - מה שזה לא יהיה.

בינתיים, המנויים ל-DGX Cloud של Nvidia יקבלו גישה לסט התכונות של Run:ai לעומסי העבודה של AI שלהם, כולל פריסות של מודל שפה גדול (LLM).

ההכרזה מגיעה קצת יותר מחודש לאחר ענקית ה-GPU חשף פלטפורמת קונטיינר חדשה לבניית דגמי AI בשם Nvidia Inference Microservices (NIM).

NIMS הן בעצם תמונות מיכל מוגדרות מראש ומותאמות המכילות את המודל, בין אם מדובר בגרסה הפתוח או הקניינית, עם כל התלות הדרושה כדי להפעיל אותו.

כמו רוב הקונטיינרים, ניתן לפרוס NIM על פני מגוון זמני ריצה כולל צמתי Kubernetes המואצים ב-CUDA.

הרעיון מאחורי הפיכת LLMs ומודלים אחרים של AI למיקרו-שירותים הוא שניתן לחבר אותם לרשת ולהשתמש בהם כדי לבנות מודלים מורכבים ועשירים יותר ממה שהיה אפשרי בלי להכשיר מודל ייעודי בעצמך, או לפחות כך רואה Nvidia אנשים המשתמשים אוֹתָם.

עם רכישת Run:ai, ל-Nvidia יש כעת שכבת תזמור של Kubernetes לניהול הפריסה של NIMs אלה על פני תשתית ה-GPU שלה. ®

ספוט_ימג

המודיעין האחרון

ספוט_ימג

דבר איתנו

שלום שם! איך אני יכול לעזור לך?