رپرتاژ آگهی همانطور که هوش مصنوعی دامنه خود را در محیط های محاسباتی کسب و کار گسترش می دهد، تأثیر آن باعث ایجاد برخی اثرات غیرقابل پیش بینی می شود. جدیدترین IDC FutureScape به عنوان مثال، گزارش پیشبینی میکند که با رقابت شرکتها برای معرفی محصولات/خدمات تقویتشده هوش مصنوعی و کمک به مشتریان خود در پیادهسازی هوش مصنوعی، این فناوری به یک محرک اصلی برای نوآوری تبدیل خواهد شد.
یکی دیگر از تغییرات مبتنی بر هوش مصنوعی به میزانی که مراکز داده ممکن است مجبور شوند CPU ها را با شتاب دهنده های هوش مصنوعی گسسته، مانند GPU ها یا معماری های تخصصی متعادل کنند، به منظور ارائه قابلیت های محاسباتی با کارایی بالا که توسعه دهندگان هوش مصنوعی می خواهند، محور است.
این بحثی است که مسائل پرمخاطره ای را برای صاحبان مرکز داده مطرح می کند، هم از نظر سرمایه گذاری اضافی CAPEX و هم احتمال اینکه (در حالی که روش های اندازه گیری نادقیق هستند) عملیات معمولی هوش مصنوعی مبتنی بر GPU انرژی بیشتری نسبت به بارهای کاری معمولی IT مصرف می کند.
پرداختن به سربار انرژی/کربن بالاتر هوش مصنوعی یک نقطه دردسر اضافی برای عملیات مرکز داده است، که همچنین باید اطمینان حاصل کند که معماریهای محاسباتی ارتقا یافته بهینهشده برای هوش مصنوعی میتوانند تقاضای افزایش انرژی را بدون خطر بارگذاری بیش از حد فناوری یا امکانات موجود مدیریت کنند.
بنابراین از آنجایی که مقررات گسترده در حاکمیت پایداری و مدیریت کربن، عملیات را برای کاهش مصرف انرژی در سراسر سختافزار و نرمافزار IT سوق میدهد، هوش مصنوعی هم فرصت و هم مانع را نشان میدهد.
کاهش مصرف انرژی هوش مصنوعی
استفان گیلیچ، مدیر هوش مصنوعی GTM در مرکز تعالی هوش مصنوعی اینتل توضیح میدهد که در مجموع، افزایش مصرف انرژی و پیکربندیهای مجدد معماری لازم برای تطبیق با حجمهای کاری هوش مصنوعی و یادگیری ماشین، چالشی اجتنابناپذیر برای مراکز داده ایجاد میکند.
در سراسر بخشها و صنایع عمودی، هرجا که برنامهها و سرویسهای یادگیری ماشینی/AI در حال توسعه، آموزش و اجرا هستند، کاملاً واضح است که قابلیتهای امکانات فناوری اطلاعات اولیه و میزبان ابری باید برای مقابله با افزایش حجم دادهها ارتقا یابد. گیلیچ میگوید: بارهای کاری فشرده. "همچنین واضح است که این ارتقاء باید بیش از افزایش قابلیت محاسباتی را شامل شود."
گیلیچ معتقد است که برای افزایش پایداری مراکز داده متمرکز بر هوش مصنوعی، کارهای زیادی می توان انجام داد و با ارزیابی مجدد برخی از مفروضات پیرامون چشم انداز AI/Machine Learning شروع می شود. واحدهای پردازش مکان خوبی برای شروع هستند، به ویژه هنگامی که تصمیم می گیریم که آیا CPU یا GPU برای کار مناسب تر هستند.
از آنجا که در حالی که به نظر می رسد حجم کاری محاسباتی ویژه هوش مصنوعی در حال افزایش است (هیچ کس کاملاً مطمئن نیست که با چه سرعتی)، بخش عمده ای از کارهای مرکز داده (بارهای کاری غیر AI) باید روز به روز از بین برود – ارائه برنامه ثابت و جریان درآمد خدمات مختل نشود.
اکثر اینها در حال حاضر توسط CPUها مدیریت میشوند و نصب مجدد یک مرکز داده استاندارد با پردازندههای گرافیکی گرانتر برای بسیاری از امکانات، مازاد بر نیاز خواهد بود. به طور کلی، یک GPU برای انجام یک کار مشابه، وات بیشتری نسبت به یک CPU مصرف می کند. بسته به منبع تغذیه یک پیکربندی رک معین، ادغام پردازندههای گرافیکی در زیرساختهای مرکز داده به ارتقاء سیستمهای توزیع برق نیاز دارد، بهعنوان مثال، سیستمهای توزیع برق، علاوه بر هزینههای بیشتر انرژی پس از اجرا، متحمل هزینههای اولیه اضافی میشوند.
علاوه بر این، توسعه CPU اینتل به نوآوری خود ادامه می دهد. گیلیچ استدلال میکند که در چندین مورد استفاده، میتوان ثابت کرد که یک CPU به عملکرد کلی خوب و گاهی بهتر از یک GPU میرسد. و عملکرد آنها را میتوان با فناوریهای نوآورانه مانند Intel® AMX (افزونههای پیشرفته ماتریس) یک شتابدهنده که در نسل چهارم پردازندههای اینتل زئون تعبیه شده است، افزایش داد.
Gillich خاطرنشان می کند: «پردازنده های Intel Xeon می توانند یک مرکز داده را قادر سازند تا پذیرش هوش مصنوعی خود را از طریق شتاب هوش مصنوعی داخلی که عملکرد CPU را برای یادگیری ماشینی، آموزش و استنتاج افزایش می دهد، افزایش دهد. به این ترتیب، آنها میتوانند شتابدهندههای مجزا را برای به حداقل رساندن CAPEX و به حداکثر رساندن عملکرد در حالی که از محیطهای پردازشی Xeon اینتل استفاده میکنند، استفاده کنند.
نیاز به ترکیب بار کاری هوش مصنوعی و غیر AI
Intel AMX یک بلوک سختافزاری اختصاصی بر روی هسته پردازشگر Intel Xeon Scalable است که به بارهای کاری هوش مصنوعی اجازه میدهد تا به جای بارگذاری روی یک شتابدهنده مجزا، روی CPU اجرا شوند و عملکرد قابل توجهی را افزایش دهند. این برای بارهای کاری هوش مصنوعی مانند سیستمهای توصیهکننده یادگیری ماشین، تشخیص تصویر و پردازش زبان طبیعی که بر ریاضیات ماتریس متکی هستند، مناسب است.
استدلال دیگر به نفع CPU های تقویت شده این است که آنها یک مسیر مقرون به صرفه برای اپراتورهای مرکز داده فراهم می کنند تا تعهدات CPU موجود را بیشتر کنند، دارایی های خود را در آینده مقاوم کنند تا بتوانند بارهای کاری ترکیبی را تحمل کنند، و آنها را در موقعیتی بهتر قرار دهند. کنترل مصرف برق کلی
این به نوبه خود ممکن است به ارائه دهندگان خدمات مرکز داده (و مشتریان آنها) در رسیدن به اهداف پایداری کمک کند و یک نقطه فروش برای توسعه دهندگان نرم افزار (شرکت یا شخص ثالث) که به دنبال یک پلت فرم بهینه برای نمایش بهره وری انرژی کدگذاری خود هستند، فراهم می کند. خروجی ها.
گیلیچ میگوید: «واقعیت این است که اپراتورهای مرکز داده بهجای عجله در فرصتهایی که بار کاری هوش مصنوعی میدهد، متوجه میشوند که باید طیفی از الزامات را در نظر بگیرند که به همان اندازه از نگرانیهای تجاری بهعنوان انتخابهای فناوری آگاه هستند.
این الزامات می تواند شامل موارد زیر باشد: ادغام بارهای کاری هوش مصنوعی با بارهای کاری غیر AI. ادغام پشته های مختلف سخت افزار و نرم افزار؛ و از آنجا که آنها می خواهند اطمینان حاصل کنند که دارای معماری مناسب برای چندین بار کاری مختلف، ادغام انواع مختلف جریان کاری هستند.
گیلیچ میگوید: «این سؤالها به چالشهای پیچیده اشاره میکنند، زیرا درست کردن آنها بر بهرهوری بهینه فنآوری و انرژی تأثیر دارد – با بهرهوری انرژی در حال حاضر معیار عملکرد اصلی است که به طور فزایندهای بر دوام تجاری یک مرکز داده تأثیر میگذارد». "پس باز هم، از اهمیت بالایی برخوردار است."
از دیدگاه گیلیچ، کلید انطباق با این واقعیت نوظهور، فرآیندی است که میتوان آن را «همانسازی هوش مصنوعی» نامید. نکته اول در اینجا این است که بارهای کاری هوش مصنوعی از سایر انواع بار کاری جدا نمی شوند - آنها به جای اجرای جداگانه در بارهای کاری معمولی ادغام می شوند.
Gillich کنفرانس ویدئویی را به عنوان نمونه ای از این ادغام مرحله ای ارائه می دهد: «در حال حاضر هنگام پخش ترافیک استاندارد صوتی/تصویری در بین برنامه های کاربردی استاندارد، هوش مصنوعی برای انجام کارهای همزمان مانند خلاصه سازی، ترجمه، رونویسی یکپارچه شده است. چنین ویژگی هایی به خوبی توسط هوش مصنوعی پشتیبانی می شوند.
صرفه جویی در مصرف انرژی
گیلیچ استدلال می کند که دستیابی به بهره وری انرژی باید یک تعهد استراتژیک واقعاً پایانی باشد. "این نرم افزار و همچنین معماری های سخت افزاری را در بر می گیرد - مکانیزم کاملی که یک فرآیند گردش کار مشخص را امکان پذیر می کند. دادهها در کجا ذخیره میشوند تا دسترسی به کارآمدتر باشد - محاسباتی و در نتیجه انرژی - بهترین مکان برای بهرهوری انرژی است؟
عامل دیگری که باید در این ارزیابی وارد شود، تعیین محل اجرای حجم کار است. برای مثال، آیا بر روی کلاینتها (مانند رایانههای شخصی هوش مصنوعی مجهز به پردازندههای Intel Core Ultra به جای سرورهای موجود در مرکز داده) اجرا میشود؟ آیا میتوان برخی از این بارهای کاری هوش مصنوعی را بر روی کلاینتها (در کنار سرورها) اجرا کرد؟
گیلیچ استدلال میکند که اگر بخواهد تعادل هوش مصنوعی/مصرف انرژی را به یک تراز کردن بهتر کمک کند، ارزش بررسی دارد: «تقریباً مانند بازگشت به مفهوم قدیمی رایانش توزیعشده است».
Gillich می افزاید: "گاهی اوقات مشتریان ما می پرسند، "هوش مصنوعی کجا بازی می کند؟" – پاسخ این است که هوش مصنوعی در همه جا پخش خواهد شد. بنابراین در اینتل جاهطلبی ما بر چیزی متمرکز است که میتوان آن را تطبیق جهانی هوش مصنوعی نامید، زیرا ما معتقدیم که در تمام زمینههای کاربردی وارد خواهد شد.
در اینتل این شامل میان افزارهایی مانند API است که مانند هر بخش دیگری از پشته نرم افزار، باید تا حد امکان کارآمد باشد. "گسترش API" می تواند منجر به پردازش غیر ضروری، به حداقل رساندن ردپای زیرساخت آنها و عدم نظارت و کنترل شود.
"با اینتل oneAPIشرکتها میتوانند ارزش سختافزاری کامل خود را درک کنند، کدهای معماری متقابل با کارایی بالا را توسعه دهند و برنامههای کاربردی خود را برای نیازهای آینده آماده کنند.
“Intel oneAPI یک مدل برنامهنویسی باز، فراصنعتی، مبتنی بر استانداردها، یکپارچه، چندمعماری و چند فروشنده است که یک تجربه توسعهدهنده مشترک در معماریهای شتابدهنده ارائه میدهد - برای عملکرد سریعتر برنامهها و بهرهوری بهتر. ابتکار oneAPI همکاری بر روی مشخصات oneAPI و پیاده سازی oneAPI سازگار در سراسر اکوسیستم را تشویق می کند.
Gillich میافزاید: «oneAPI یک پشته میانافزار فراهم میکند که چیزهای استانداردی مانند AI Frameworks - مانند Pytorch یا TensorFlow [پلتفرم نرمافزار منبع باز برای هوش مصنوعی و یادگیری ماشینی] را میگیرد و آنها را در سطح ماشین ترجمه میکند، و oneAPI راهی کارآمد را برای انجام این کار کاربران میتوانند از یک API مشترک در سطح چارچوب Ai استفاده کنند، و ما یک API (oneAPI) داریم که به مزههای سختافزاری مختلف میپردازد.» بنابراین یک API معمولی به این معنی است که کاربران می توانند نرم افزار باز ایجاد کنند که می تواند در پشته نرم افزار باز پشتیبانی شود.
عملکرد در سطح GPU در نقاط قیمتی در سطح CPU
پیشرفت در فناوری اطلاعات عمدتاً ناشی از انتظار پیشرفت مداوم فناوری است که با بهبودهای مبتنی بر بینش در استراتژیهای استقرار همراه است. این مدلی مبتنی بر یافتن بهترین تعادل قابل دستیابی بین مخارج بودجه و بازگشت سرمایه تجاری و این انتظار است که همیشه نوآوری بیشتری برای تلاش وجود دارد. هوش مصنوعی اوج این ایدهآل را نشان میدهد – آنقدر باهوش است که پیشنهاد ارزش خود را از طریق خودسازی دائمی دوباره ابداع کند.
با ساخت شتابدهنده AMX در نسل چهارم پردازندههای Intel Xeon، اینتل نشان میدهد که چگونه میتوان عملکرد سطح GPU را در قیمتهای سطح CPU به دست آورد. این به مراکز داده اجازه میدهد تا در عین به حداکثر رساندن ارزش بازگشتی موجودی پردازشهای مجهز به اینتل زئون، مقیاسپذیری کنند، اما همچنین یک مدل قیمتگذاری ارائه میکند که هزینه ورود را برای مشتریانی با حجم کاری هوش مصنوعی اما بودجههای محدود کاهش میدهد.
و مصرف انرژی کمتر پردازندهها به این معنی است که راندمان انرژی را میتوان به طور کلی در طول کل عملیات مرکز داده - مانند سرمایش و تهویه - به دست آورد و این یکی دیگر از جاذبههای برنده برای معماران نرمافزار با وجدان پایداری و توسعهدهندگان راهحلهای AL است.
ارائه شده توسط اینتل
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- PlatoData.Network Vertical Generative Ai. به خودت قدرت بده دسترسی به اینجا.
- PlatoAiStream. هوش وب 3 دانش تقویت شده دسترسی به اینجا.
- PlatoESG. کربن ، CleanTech، انرژی، محیط، خورشیدی، مدیریت پسماند دسترسی به اینجا.
- PlatoHealth. هوش بیوتکنولوژی و آزمایشات بالینی. دسترسی به اینجا.
- منبع: https://go.theregister.com/feed/www.theregister.com/2024/01/29/the_role_of_the_cpu/