ذكاء البيانات التوليدية

من خلال الاستحواذ على Run:ai، تهدف Nvidia إلى إدارة أجهزة K8 ذات الذكاء الاصطناعي

التاريخ:

أعلنت Nvidia يوم الأربعاء عن استحواذها على Run:ai، مزود تنسيق Kubernetes المرتكز على الذكاء الاصطناعي، في محاولة للمساعدة في تعزيز كفاءة مجموعات الحوسبة المبنية على وحدة معالجة الرسومات.

تفاصيل الصفقة لم يتم الكشف عنها، ولكن يقال ويمكن أن تقدر قيمة الصفقة بنحو 700 مليون دولار. الشركة الناشئة التي يوجد مقرها في تل أبيب لديها كما يبدو جمعت 118 مليون دولار عبر أربع جولات تمويل منذ تأسيسها في عام 2018.

توفر منصة Run:ai واجهة مستخدم مركزية ومستوى تحكم للعمل مع مجموعة متنوعة من متغيرات Kubernetes الشائعة. وهذا يجعله يشبه إلى حد ما OpenShift من RedHat أو SUSE's Rancher، ويتميز بالعديد من الأدوات نفسها لإدارة أشياء مثل مساحات الأسماء وملفات تعريف المستخدمين وتخصيص الموارد.

يتمثل الاختلاف الرئيسي في أن Run:ai's مصمم للتكامل مع أدوات وأطر عمل الذكاء الاصطناعي التابعة لجهات خارجية، والتعامل مع بيئات الحاويات المسرعة بواسطة وحدة معالجة الرسومات. تشتمل مجموعة برامجها على عناصر مثل جدولة عبء العمل وتقسيم المسرع، والذي يسمح الأخير بتوزيع أعباء العمل المتعددة عبر وحدة معالجة الرسومات (GPU) واحدة.

وفقًا لـ Nvidia، تدعم منصة Run:ai بالفعل منصات حوسبة DGX الخاصة بها، بما في ذلك تكوينات Superpod، ونظام إدارة مجموعة Base Command، ومكتبة حاويات NGC، ومجموعة AI Enterprise.

فيما يتعلق بالذكاء الاصطناعي، تدعي Kubernetes عددًا من المزايا مقارنة بعمليات النشر المعدنية، حيث يمكن تكوين البيئة للتعامل مع التوسع عبر موارد متعددة، يحتمل أن تكون موزعة جغرافيًا.

في الوقت الحالي، لا يحتاج عملاء Run:ai الحاليون إلى القلق بشأن قيام Nvidia بفرض تغييرات كبيرة على النظام الأساسي. في الافراج عنقالت Nvidia إنها ستستمر في تقديم منتجات Run:ai ضمن نموذج العمل نفسه، في المستقبل القريب - مهما كان معنى ذلك.

وفي الوقت نفسه، سيتمكن المشتركون في DGX Cloud من Nvidia من الوصول إلى مجموعة ميزات Run:ai لأحمال عمل الذكاء الاصطناعي الخاصة بهم، بما في ذلك عمليات نشر نماذج اللغة الكبيرة (LLM).

يأتي هذا الإعلان بعد ما يزيد قليلاً عن شهر من إعلان شركة GPU العملاقة كشف النقاب منصة حاوية جديدة لبناء نماذج الذكاء الاصطناعي تسمى Nvidia Inference Microservices (NIM).

NIMS هي في الأساس صور حاويات مُحسَّنة ومُكونة مسبقًا تحتوي على النموذج، سواء كان إصدارًا مفتوح المصدر أو إصدارًا خاصًا، مع جميع التبعيات اللازمة لتشغيله.

مثل معظم الحاويات، يمكن نشر NIMs عبر مجموعة متنوعة من أوقات التشغيل بما في ذلك عقد Kubernetes المسرّعة بواسطة CUDA.

الفكرة وراء تحويل LLMs ونماذج الذكاء الاصطناعي الأخرى إلى خدمات صغيرة هي أنه يمكن ربطها ببعضها البعض واستخدامها لبناء نماذج ذكاء اصطناعي أكثر تعقيدًا وميزات غنية مما قد يكون ممكنًا دون تدريب نموذج مخصص بنفسك، أو على الأقل هذا هو ما تتصوره Nvidia للأشخاص الذين يستخدمون هم.

مع الاستحواذ على Run:ai، أصبح لدى Nvidia الآن طبقة تنسيق Kubernetes لإدارة نشر NIMs عبر البنية التحتية لوحدة معالجة الرسومات الخاصة بها. ®

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة

الدردشة معنا

أهلاً! كيف يمكنني مساعدك؟