ความฉลาดทางข้อมูลเชิงกำเนิด

ด้วยการซื้อกิจการ Run:ai ทาง Nvidia มีเป้าหมายที่จะจัดการ AI K8 ของคุณ

วันที่:

เมื่อวันพุธที่ผ่านมา Nvidia ได้ประกาศการเข้าซื้อกิจการ Run:ai ผู้ให้บริการจัดการ Kubernetes ที่เน้น AI เป็นหลัก เพื่อช่วยเสริมประสิทธิภาพของคลัสเตอร์การประมวลผลที่สร้างบน GPU

รายละเอียดของ ข้อตกลง ไม่เปิดเผยแต่. ตามข่าว ข้อตกลงนี้อาจมีมูลค่าประมาณ 700 ล้านดอลลาร์ มีสตาร์ทอัพที่ตั้งอยู่ในเทลอาวีฟ เด่นชัด ระดมทุนได้ 118 ล้านดอลลาร์จากการระดมทุนสี่รอบนับตั้งแต่ก่อตั้งในปี 2018

แพลตฟอร์มของ Run:ai มอบอินเทอร์เฟซผู้ใช้ส่วนกลางและส่วนควบคุมสำหรับการทำงานกับตัวแปร Kubernetes ยอดนิยมที่หลากหลาย สิ่งนี้ทำให้คล้ายกับ OpenShift ของ RedHat หรือ Rancher ของ SUSE เล็กน้อย และมีเครื่องมือหลายอย่างที่เหมือนกันสำหรับจัดการสิ่งต่าง ๆ เช่น เนมสเปซ โปรไฟล์ผู้ใช้ และการจัดสรรทรัพยากร

ข้อแตกต่างที่สำคัญคือ Run:ai ได้รับการออกแบบมาเพื่อผสานรวมกับเครื่องมือและเฟรมเวิร์ก AI ของบริษัทอื่น และจัดการกับสภาพแวดล้อมคอนเทนเนอร์ที่เร่งด้วย GPU พอร์ตโฟลิโอซอฟต์แวร์ประกอบด้วยองค์ประกอบต่างๆ เช่น การกำหนดเวลาภาระงานและการแบ่งพาร์ติชันตัวเร่ง ซึ่งองค์ประกอบหลังช่วยให้สามารถกระจายปริมาณงานหลายรายการผ่าน GPU ตัวเดียว

ตามข้อมูลของ Nvidia แพลตฟอร์มของ Run:ai รองรับแพลตฟอร์มการคำนวณ DGX แล้ว รวมถึงการกำหนดค่า Superpod ระบบการจัดการคลัสเตอร์ Base Command ไลบรารีคอนเทนเนอร์ NGC และชุด AI Enterprise

ในส่วนของ AI Kubernetes อ้างว่ามีข้อได้เปรียบเหนือการใช้งาน Bare Metal หลายประการ เนื่องจากสามารถกำหนดค่าสภาพแวดล้อมให้รองรับการปรับขนาดทรัพยากรต่างๆ ที่อาจกระจายตามพื้นที่ทางภูมิศาสตร์ได้

ในตอนนี้ ลูกค้า Run:ai ในปัจจุบันไม่จำเป็นต้องกังวลว่า Nvidia จะมีการเปลี่ยนแปลงครั้งใหญ่ในแพลตฟอร์ม ใน ปล่อยNvidia กล่าวว่าจะยังคงนำเสนอผลิตภัณฑ์ของ Run:ai ภายใต้รูปแบบธุรกิจเดียวกันต่อไปในอนาคตอันใกล้ ไม่ว่านั่นจะหมายถึงอะไรก็ตาม

ในขณะเดียวกัน ผู้ที่สมัครสมาชิก DGX Cloud ของ Nvidia จะสามารถเข้าถึงฟีเจอร์ Run:ai ที่ตั้งค่าไว้สำหรับเวิร์กโหลด AI ของพวกเขา รวมถึงการปรับใช้โมเดลภาษาขนาดใหญ่ (LLM)

การประกาศดังกล่าวเกิดขึ้นเพียงหนึ่งเดือนหลังจากยักษ์ใหญ่ GPU เปิดตัว แพลตฟอร์มคอนเทนเนอร์ใหม่สำหรับการสร้างโมเดล AI ที่เรียกว่า Nvidia Inference Microservices (NIM)

NIMS เป็นคอนเทนเนอร์อิมเมจที่ได้รับการกำหนดค่าไว้ล่วงหน้าและปรับให้เหมาะสมโดยพื้นฐานแล้วประกอบด้วยโมเดล ไม่ว่าจะเป็นโอเพ่นซอร์สหรือเวอร์ชันที่เป็นกรรมสิทธิ์ พร้อมด้วยการขึ้นต่อกันทั้งหมดที่จำเป็นเพื่อให้โมเดลทำงานได้

เช่นเดียวกับคอนเทนเนอร์ส่วนใหญ่ NIM สามารถปรับใช้ได้บนรันไทม์ที่หลากหลาย รวมถึงโหนด Kubernetes ที่เร่งด้วย CUDA

แนวคิดเบื้องหลังการเปลี่ยน LLM และโมเดล AI อื่นๆ ให้เป็นไมโครเซอร์วิสก็คือ พวกมันสามารถเชื่อมต่อเครือข่ายเข้าด้วยกัน และใช้เพื่อสร้างโมเดล AI ที่ซับซ้อนและมีฟีเจอร์ที่หลากหลายมากกว่าที่จะเป็นไปได้โดยไม่ต้องฝึกฝนโมเดลเฉพาะด้วยตัวคุณเอง หรืออย่างน้อยนั่นก็คือวิธีที่ Nvidia จินตนาการถึงผู้คนที่ใช้ พวกเขา.

ด้วยการซื้อกิจการ Run:ai ตอนนี้ Nvidia มีเลเยอร์ประสาน Kubernetes สำหรับจัดการการปรับใช้ NIM เหล่านี้ผ่านโครงสร้างพื้นฐาน GPU

จุด_img

ข่าวกรองล่าสุด

จุด_img

แชทกับเรา

สวัสดี! ฉันจะช่วยคุณได้อย่างไร?