Generative Data Intelligence

Με την απόκτηση Run:ai, η Nvidia στοχεύει στη διαχείριση των AI K8 σας

Ημερομηνία:

Η Nvidia ανακοίνωσε την Τετάρτη την εξαγορά του παρόχου ενορχήστρωσης Run:ai με επίκεντρο την τεχνητή νοημοσύνη, Run:ai, σε μια προσπάθεια να βοηθήσει στην ενίσχυση της αποτελεσματικότητας των συμπλεγμάτων υπολογιστών που είναι κατασκευασμένα σε GPU.

Οι λεπτομέρειες του η συμφωνία δεν αποκαλύφθηκαν, αλλά σύμφωνα με πληροφορίες η συμφωνία θα μπορούσε να αποτιμηθεί σε περίπου 700 εκατομμύρια δολάρια. Η startup με έδρα το Τελ Αβίβ έχει προφανώς συγκέντρωσε 118 εκατομμύρια δολάρια σε τέσσερις γύρους χρηματοδότησης από την ίδρυσή της το 2018.

Η πλατφόρμα του Run:ai παρέχει μια κεντρική διεπαφή χρήστη και ένα επίπεδο ελέγχου για εργασία με μια ποικιλία δημοφιλών παραλλαγών Kubernetes. Αυτό το κάνει λίγο σαν το OpenShift του RedHat ή το Rancher του SUSE και διαθέτει πολλά από τα ίδια εργαλεία για τη διαχείριση στοιχείων όπως χώρων ονομάτων, προφίλ χρηστών και κατανομές πόρων.

Η βασική διαφορά είναι ότι το Run:ai's έχει σχεδιαστεί για να ενσωματώνεται με εργαλεία και πλαίσια τεχνητής νοημοσύνης τρίτων κατασκευαστών και να αντιμετωπίζει περιβάλλοντα κοντέινερ με επιτάχυνση GPU. Το χαρτοφυλάκιο λογισμικού του περιλαμβάνει στοιχεία όπως ο προγραμματισμός φόρτου εργασίας και ο διαχωρισμός επιταχυντή, ο τελευταίος από τους οποίους επιτρέπει την κατανομή πολλαπλών φόρτων εργασίας σε μια ενιαία GPU.

Σύμφωνα με τη Nvidia, η πλατφόρμα του Run:ai υποστηρίζει ήδη τις υπολογιστικές πλατφόρμες DGX, συμπεριλαμβανομένων των διαμορφώσεων Superpod, του συστήματος διαχείρισης συμπλέγματος Base Command, της βιβλιοθήκης κοντέινερ NGC και μιας σουίτας AI Enterprise.

Όσον αφορά την τεχνητή νοημοσύνη, η Kubernetes ισχυρίζεται μια σειρά πλεονεκτημάτων έναντι των αναπτύξεων γυμνού μετάλλου, καθώς το περιβάλλον μπορεί να διαμορφωθεί ώστε να χειρίζεται την κλιμάκωση σε πολλαπλούς, δυνητικά γεωγραφικά κατανεμημένους, πόρους.

Προς το παρόν, οι υπάρχοντες πελάτες Run:ai δεν χρειάζεται να ανησυχούν μήπως η Nvidia επιβάλλει σημαντικές αλλαγές στην πλατφόρμα. Σε ένα απελευθερώνουν, η Nvidia είπε ότι θα συνεχίσει να προσφέρει τα προϊόντα της Run:ai με το ίδιο επιχειρηματικό μοντέλο, για το άμεσο μέλλον — ό,τι κι αν σημαίνει αυτό.

Εν τω μεταξύ, όσοι είναι εγγεγραμμένοι στο DGX Cloud της Nvidia θα έχουν πρόσβαση στο σύνολο δυνατοτήτων του Run:ai για τους φόρτους εργασίας τους με τεχνητή νοημοσύνη, συμπεριλαμβανομένων των αναπτύξεων μεγάλων γλωσσικών μοντέλων (LLM).

Η ανακοίνωση έρχεται λίγο περισσότερο από ένα μήνα μετά τον γίγαντα της GPU αποκαλυπτήρια μια νέα πλατφόρμα κοντέινερ για την κατασκευή μοντέλων AI που ονομάζεται Nvidia Inference Microservices (NIM).

Τα NIMS είναι ουσιαστικά προδιαμορφωμένες και βελτιστοποιημένες εικόνες κοντέινερ που περιέχουν το μοντέλο, είτε πρόκειται για έκδοση ανοιχτού κώδικα είτε αποκλειστική έκδοση, με όλες τις απαραίτητες εξαρτήσεις για την εκτέλεσή του.

Όπως τα περισσότερα κοντέινερ, τα NIM μπορούν να αναπτυχθούν σε διάφορους χρόνους εκτέλεσης, συμπεριλαμβανομένων των κόμβων Kubernetes με επιτάχυνση CUDA.

Η ιδέα πίσω από τη μετατροπή των LLM και άλλων μοντέλων τεχνητής νοημοσύνης σε μικροϋπηρεσίες είναι ότι μπορούν να δικτυωθούν μεταξύ τους και να χρησιμοποιηθούν για τη δημιουργία πιο περίπλοκων και πλούσιων μοντέλων τεχνητής νοημοσύνης από ό,τι διαφορετικά θα ήταν δυνατό χωρίς να εκπαιδεύσετε μόνοι σας ένα αποκλειστικό μοντέλο, ή τουλάχιστον έτσι οραματίζεται η Nvidia οι άνθρωποι να χρησιμοποιούν τους.

Με την απόκτηση του Run:ai, η Nvidia διαθέτει πλέον ένα επίπεδο ενορχήστρωσης Kubernetes για τη διαχείριση της ανάπτυξης αυτών των NIM σε όλη την υποδομή GPU της. ®

spot_img

Τελευταία Νοημοσύνη

spot_img

Συνομιλία με μας

Γεια σου! Πώς μπορώ να σε βοηθήσω?