जनरेटिव डेटा इंटेलिजेंस

रन:एआई अधिग्रहण के साथ, एनवीडिया का लक्ष्य आपके एआई K8s को प्रबंधित करना है

दिनांक:

एनवीडिया ने बुधवार को जीपीयू पर निर्मित कंप्यूटिंग क्लस्टर की दक्षता को बढ़ाने में मदद करने के प्रयास में एआई-केंद्रित कुबेरनेट्स ऑर्केस्ट्रेशन प्रदाता रन: एआई के अधिग्रहण की घोषणा की।

का विवरण सौदा खुलासा नहीं किया गया, लेकिन कथित तौर पर इस सौदे का मूल्य लगभग $700 मिलियन हो सकता है। तेल अवीव स्थित स्टार्टअप के पास है जाहिरा तौर पर 118 में इसकी स्थापना के बाद से चार फंडिंग राउंड में 2018 मिलियन डॉलर जुटाए गए।

रन:एआई का प्लेटफ़ॉर्म विभिन्न लोकप्रिय कुबेरनेट्स वेरिएंट के साथ काम करने के लिए एक केंद्रीय उपयोगकर्ता इंटरफ़ेस और नियंत्रण विमान प्रदान करता है। यह इसे कुछ हद तक RedHat के OpenShift या SUSE के Rancher जैसा बनाता है, और इसमें नेमस्पेस, उपयोगकर्ता प्रोफ़ाइल और संसाधन आवंटन जैसी चीजों को प्रबंधित करने के लिए कई समान उपकरण हैं।

मुख्य अंतर यह है कि Run:ai को तीसरे पक्ष के AI टूल और फ्रेमवर्क के साथ एकीकृत करने और GPU त्वरित कंटेनर वातावरण से निपटने के लिए डिज़ाइन किया गया है। इसके सॉफ्टवेयर पोर्टफोलियो में वर्कलोड शेड्यूलिंग और एक्सेलेरेटर विभाजन जैसे तत्व शामिल हैं, जिनमें से उत्तरार्द्ध एक ही जीपीयू में कई वर्कलोड को फैलाने की अनुमति देता है।

एनवीडिया के अनुसार, रन: एआई का प्लेटफॉर्म पहले से ही अपने डीजीएक्स कंप्यूट प्लेटफॉर्म का समर्थन करता है, जिसमें सुपरपॉड कॉन्फ़िगरेशन, बेस कमांड क्लस्टर प्रबंधन प्रणाली, एनजीसी कंटेनर लाइब्रेरी और एआई एंटरप्राइज सूट शामिल है।

एआई के संबंध में कुबेरनेट्स नंगे धातु की तैनाती पर कई फायदे का दावा करता है, क्योंकि पर्यावरण को कई संभावित भौगोलिक रूप से वितरित संसाधनों में स्केलिंग को संभालने के लिए कॉन्फ़िगर किया जा सकता है।

अभी के लिए, मौजूदा रन:एआई ग्राहकों को एनवीडिया द्वारा प्लेटफ़ॉर्म में बड़े बदलाव करने के बारे में चिंता करने की ज़रूरत नहीं है। में एक और , एनवीडिया ने कहा कि वह तत्काल भविष्य के लिए उसी बिजनेस मॉडल के तहत रन:एआई के उत्पादों की पेशकश जारी रखेगी - चाहे इसका कोई भी मतलब हो।

इस बीच, एनवीडिया के डीजीएक्स क्लाउड की सदस्यता लेने वालों को अपने एआई वर्कलोड के लिए रन: एआई के फीचर सेट तक पहुंच मिलेगी, जिसमें बड़े भाषा मॉडल (एलएलएम) तैनाती भी शामिल है।

यह घोषणा GPU दिग्गज के ठीक एक महीने बाद आई है अनावरण किया AI मॉडल के निर्माण के लिए एक नया कंटेनर प्लेटफ़ॉर्म जिसे Nvidia Inference Microservices (NIM) कहा जाता है।

एनआईएमएस अनिवार्य रूप से पूर्व-कॉन्फ़िगर और अनुकूलित कंटेनर छवियां हैं जिनमें मॉडल शामिल है, चाहे वह खुला स्रोत हो या मालिकाना संस्करण, इसे चलाने के लिए आवश्यक सभी निर्भरताओं के साथ।

अधिकांश कंटेनरों की तरह, NIM को CUDA-त्वरित कुबेरनेट्स नोड्स सहित विभिन्न रनटाइम पर तैनात किया जा सकता है।

एलएलएम और अन्य एआई मॉडलों को माइक्रोसर्विसेज में बदलने के पीछे का विचार यह है कि उन्हें एक साथ नेटवर्क किया जा सकता है और अधिक जटिल और सुविधा संपन्न एआई मॉडल बनाने के लिए उपयोग किया जा सकता है, अन्यथा एक समर्पित मॉडल को प्रशिक्षित किए बिना यह संभव नहीं होगा, या कम से कम एनवीडिया इसी तरह लोगों का उपयोग करने की कल्पना करता है। उन्हें।

रन:एआई के अधिग्रहण के साथ, एनवीडिया के पास अब अपने जीपीयू बुनियादी ढांचे में इन एनआईएम की तैनाती के प्रबंधन के लिए कुबेरनेट्स ऑर्केस्ट्रेशन परत है। ®

स्पॉट_आईएमजी

नवीनतम खुफिया

स्पॉट_आईएमजी

हमारे साथ चैट करें

नमस्ते! मैं आपकी कैसे मदद कर सकता हूँ?