เมื่อวันพุธที่ผ่านมา Nvidia ได้ประกาศการเข้าซื้อกิจการ Run:ai ผู้ให้บริการจัดการ Kubernetes ที่เน้น AI เป็นหลัก เพื่อช่วยเสริมประสิทธิภาพของคลัสเตอร์การประมวลผลที่สร้างบน GPU
รายละเอียดของ ข้อตกลง ไม่เปิดเผยแต่. ตามข่าว ข้อตกลงนี้อาจมีมูลค่าประมาณ 700 ล้านดอลลาร์ มีสตาร์ทอัพที่ตั้งอยู่ในเทลอาวีฟ เด่นชัด ระดมทุนได้ 118 ล้านดอลลาร์จากการระดมทุนสี่รอบนับตั้งแต่ก่อตั้งในปี 2018
แพลตฟอร์มของ Run:ai มอบอินเทอร์เฟซผู้ใช้ส่วนกลางและส่วนควบคุมสำหรับการทำงานกับตัวแปร Kubernetes ยอดนิยมที่หลากหลาย สิ่งนี้ทำให้คล้ายกับ OpenShift ของ RedHat หรือ Rancher ของ SUSE เล็กน้อย และมีเครื่องมือหลายอย่างที่เหมือนกันสำหรับจัดการสิ่งต่าง ๆ เช่น เนมสเปซ โปรไฟล์ผู้ใช้ และการจัดสรรทรัพยากร
ข้อแตกต่างที่สำคัญคือ Run:ai ได้รับการออกแบบมาเพื่อผสานรวมกับเครื่องมือและเฟรมเวิร์ก AI ของบริษัทอื่น และจัดการกับสภาพแวดล้อมคอนเทนเนอร์ที่เร่งด้วย GPU พอร์ตโฟลิโอซอฟต์แวร์ประกอบด้วยองค์ประกอบต่างๆ เช่น การกำหนดเวลาภาระงานและการแบ่งพาร์ติชันตัวเร่ง ซึ่งองค์ประกอบหลังช่วยให้สามารถกระจายปริมาณงานหลายรายการผ่าน GPU ตัวเดียว
ตามข้อมูลของ Nvidia แพลตฟอร์มของ Run:ai รองรับแพลตฟอร์มการคำนวณ DGX แล้ว รวมถึงการกำหนดค่า Superpod ระบบการจัดการคลัสเตอร์ Base Command ไลบรารีคอนเทนเนอร์ NGC และชุด AI Enterprise
ในส่วนของ AI Kubernetes อ้างว่ามีข้อได้เปรียบเหนือการใช้งาน Bare Metal หลายประการ เนื่องจากสามารถกำหนดค่าสภาพแวดล้อมให้รองรับการปรับขนาดทรัพยากรต่างๆ ที่อาจกระจายตามพื้นที่ทางภูมิศาสตร์ได้
ในตอนนี้ ลูกค้า Run:ai ในปัจจุบันไม่จำเป็นต้องกังวลว่า Nvidia จะมีการเปลี่ยนแปลงครั้งใหญ่ในแพลตฟอร์ม ใน ปล่อยNvidia กล่าวว่าจะยังคงนำเสนอผลิตภัณฑ์ของ Run:ai ภายใต้รูปแบบธุรกิจเดียวกันต่อไปในอนาคตอันใกล้ ไม่ว่านั่นจะหมายถึงอะไรก็ตาม
ในขณะเดียวกัน ผู้ที่สมัครสมาชิก DGX Cloud ของ Nvidia จะสามารถเข้าถึงฟีเจอร์ Run:ai ที่ตั้งค่าไว้สำหรับเวิร์กโหลด AI ของพวกเขา รวมถึงการปรับใช้โมเดลภาษาขนาดใหญ่ (LLM)
การประกาศดังกล่าวเกิดขึ้นเพียงหนึ่งเดือนหลังจากยักษ์ใหญ่ GPU เปิดตัว แพลตฟอร์มคอนเทนเนอร์ใหม่สำหรับการสร้างโมเดล AI ที่เรียกว่า Nvidia Inference Microservices (NIM)
NIMS เป็นคอนเทนเนอร์อิมเมจที่ได้รับการกำหนดค่าไว้ล่วงหน้าและปรับให้เหมาะสมโดยพื้นฐานแล้วประกอบด้วยโมเดล ไม่ว่าจะเป็นโอเพ่นซอร์สหรือเวอร์ชันที่เป็นกรรมสิทธิ์ พร้อมด้วยการขึ้นต่อกันทั้งหมดที่จำเป็นเพื่อให้โมเดลทำงานได้
เช่นเดียวกับคอนเทนเนอร์ส่วนใหญ่ NIM สามารถปรับใช้ได้บนรันไทม์ที่หลากหลาย รวมถึงโหนด Kubernetes ที่เร่งด้วย CUDA
แนวคิดเบื้องหลังการเปลี่ยน LLM และโมเดล AI อื่นๆ ให้เป็นไมโครเซอร์วิสก็คือ พวกมันสามารถเชื่อมต่อเครือข่ายเข้าด้วยกัน และใช้เพื่อสร้างโมเดล AI ที่ซับซ้อนและมีฟีเจอร์ที่หลากหลายมากกว่าที่จะเป็นไปได้โดยไม่ต้องฝึกฝนโมเดลเฉพาะด้วยตัวคุณเอง หรืออย่างน้อยนั่นก็คือวิธีที่ Nvidia จินตนาการถึงผู้คนที่ใช้ พวกเขา.
ด้วยการซื้อกิจการ Run:ai ตอนนี้ Nvidia มีเลเยอร์ประสาน Kubernetes สำหรับจัดการการปรับใช้ NIM เหล่านี้ผ่านโครงสร้างพื้นฐาน GPU
- เนื้อหาที่ขับเคลื่อนด้วย SEO และการเผยแพร่ประชาสัมพันธ์ รับการขยายวันนี้
- PlatoData.Network Vertical Generative Ai เพิ่มพลังให้กับตัวเอง เข้าถึงได้ที่นี่.
- เพลโตไอสตรีม. Web3 อัจฉริยะ ขยายความรู้ เข้าถึงได้ที่นี่.
- เพลโตESG. คาร์บอน, คลีนเทค, พลังงาน, สิ่งแวดล้อม แสงอาทิตย์, การจัดการของเสีย. เข้าถึงได้ที่นี่.
- เพลโตสุขภาพ เทคโนโลยีชีวภาพและข่าวกรองการทดลองทางคลินิก เข้าถึงได้ที่นี่.
- ที่มา: https://go.theregister.com/feed/www.theregister.com/2024/04/24/runai_acquisition_nvidia/