생성 데이터 인텔리전스

지속 가능한 AI/ML에서 CPU의 역할

시간

advertorial AI가 비즈니스 컴퓨팅 환경 전반으로 범위를 확장함에 따라 그 영향은 예상치 못한 연쇄 효과를 일으키고 있습니다. IDC의 최신 퓨처스케이프 예를 들어, 보고서는 기업이 AI로 강화된 제품/서비스를 도입하고 고객의 AI 구현을 지원하기 위해 경쟁하면서 기술이 혁신의 핵심 동기가 될 것이라고 예측합니다.

AI가 주도하는 또 다른 변화는 AI 개발자가 원하는 고성능 컴퓨팅 기능을 제공하기 위해 데이터센터가 GPU 또는 특수 아키텍처와 같은 개별 AI 가속기와 CPU의 균형을 맞춰야 하는 정도에 따라 달라집니다.

이는 추가 CAPEX 투자와 (측정 방법은 부정확하지만) 일반적인 GPU 기반 AI 작업이 기존 IT 워크로드보다 더 많은 전력을 소비할 가능성이라는 측면에서 데이터 센터 소유자에게 중요한 문제를 제기하는 논쟁입니다.

AI의 더 높은 전력/탄소 오버헤드를 처리하는 것은 데이터센터 운영의 추가적인 문제점이며, AI에 최적화된 업그레이드된 컴퓨팅 아키텍처가 기존 기술이나 시설에 과부하가 걸릴 위험 없이 증가된 전력 수요를 관리할 수 있도록 보장해야 합니다.

따라서 지속 가능성 거버넌스 및 탄소 관리에 대한 규제가 확대되면서 운영이 IT 하드웨어 및 소프트웨어 전반에 걸쳐 에너지 사용량을 줄이게 되면서 AI는 기회이자 장애물이 됩니다.

AI 전력 소비 완화

Intel AI Center of Excellence의 인공 지능 GTM 이사인 Stephan Gillich는 증가된 전력 소비와 AI 및 기계 학습 워크로드를 수용하는 데 필요한 필수 아키텍처 재구성이 데이터 센터에 거침없는 과제를 제기한다고 설명합니다.

“AI/머신 러닝 애플리케이션과 서비스가 개발, 훈련, 실행되는 업종과 관계없이 온프레미스 및 클라우드 호스팅 IT 시설의 기능이 증가된 데이터 볼륨을 처리하기 위해 업그레이드되어야 한다는 점은 매우 분명합니다. 집약적인 작업 부하입니다.”라고 Gillich는 말합니다. "또한 이러한 업그레이드에는 단순히 컴퓨팅 기능을 향상시키는 것 이상의 것이 필요하다는 것도 분명합니다."

Gillich는 AI/기계 학습 환경에 대한 일부 가정을 재평가하는 것부터 시작하여 AI 중심 데이터 센터의 지속 가능성을 향상시키기 위해 많은 일을 할 수 있다고 믿습니다. 처리 장치는 특히 작업에 CPU 또는 GPU 중 어느 것이 더 적합한지 결정할 때 시작하기 좋은 곳입니다.

AI 관련 컴퓨팅 집약적인 워크로드가 증가하는 것처럼 보이지만(아무도 그 속도를 확신할 수 없음) 대량의 데이터 센터 작업(비 AI 워크로드)은 매일매일 계속해서 처리해야 하기 때문에 안정적인 애플리케이션을 제공해야 합니다. 서비스 수익 흐름이 방해받지 않도록 해야 합니다.

이들 중 대부분은 현재 CPU에 의해 처리되고 있으며 매우 많은 시설에 대해 더 비싼 GPU로 표준 데이터 센터를 재조정하는 것은 요구 사항에 비해 과잉일 것입니다. 일반적으로 GPU는 유사한 작업을 수행하기 위해 CPU보다 더 많은 전력을 소비합니다. 주어진 랙 구성의 전원 공급 장치에 따라 GPU를 데이터 센터 인프라에 통합하려면 예를 들어 배전 시스템으로 업그레이드해야 하며, 이는 실행 후 더 높은 에너지 비용 외에도 추가 초기 비용이 발생할 수밖에 없습니다.

게다가 인텔의 CPU 개발은 계속해서 혁신을 이루고 있습니다. 여러 사용 사례에서 CPU는 GPU만큼 좋고 때로는 더 나은 전체 성능을 달성하는 것으로 입증될 수 있다고 Gillich는 주장합니다. 그리고 4세대 Intel Xeon CPU에 내장된 가속기인 Intel® AMX(Advanced Matrix Extensions)와 같은 획기적인 기술을 통해 성능을 향상시킬 수 있습니다.

"인텔 제온 프로세서를 사용하면 기계 학습, 교육 및 추론을 위한 CPU 성능을 향상시키는 내장형 AI 가속기를 통해 데이터 센터에서 AI 채택을 확장할 수 있습니다."라고 Gillich는 지적합니다. "이러한 방식으로 개별 가속기를 채택하여 기존 Intel Xeon 처리 환경을 활용하면서 CAPEX를 최소화하고 성능을 최대화할 수 있습니다."

AI 워크로드와 비AI 워크로드를 혼합해야 함

Intel AMX는 AI 워크로드를 별도의 가속기로 오프로드하는 대신 CPU에서 실행하여 상당한 성능 향상을 제공하는 Intel Xeon Scalable 프로세서 코어의 전용 하드웨어 블록입니다. 이는 행렬 수학에 의존하는 기계 학습 추천 시스템, 이미지 인식, 자연어 처리와 같은 AI 워크로드에 적합합니다.

확장된 CPU를 선호하는 또 다른 주장은 데이터 센터 운영자가 기존 CPU 약속을 더 많이 활용하고, 자산의 미래를 보장하여 혼합된 워크로드를 처리하고, 더 나은 위치에 배치할 수 있는 비용 효율적인 경로를 제공한다는 것입니다. 전반적인 전력 사용량을 제어합니다.

이는 결과적으로 데이터 센터 서비스 제공업체(및 해당 고객)가 지속 가능성 목표를 달성하는 데 도움이 될 수 있으며 코딩의 에너지 효율성을 보여주기 위해 최적화된 플랫폼을 찾고 있는 소프트웨어 개발자(기업 또는 타사)에게 판매 포인트를 제공할 수 있습니다. 출력.

Gillich는 "데이터센터 운영자는 AI 워크로드가 약속할 수 있는 기회를 서두르기보다는 기술적 선택만큼 상업적인 우려를 반영한 ​​다양한 필수 사항을 고려해야 한다는 사실을 깨닫고 있는 것이 현실입니다."라고 말합니다.

이러한 필수 사항에는 다음이 포함될 수 있습니다. AI 워크로드와 비 AI 워크로드의 통합; 다양한 하드웨어 및 소프트웨어 스택의 통합; 또한 다양한 워크로드에 적합한 아키텍처를 확보하고 다양한 작업 흐름 유형을 통합하기를 원하기 때문입니다.

Gillich는 "이러한 질문은 복잡한 문제를 의미합니다. 왜냐하면 이를 올바르게 해결하는 것은 최적의 기술 및 에너지 효율성과 관련이 있기 때문입니다. 이제 에너지 효율성은 데이터 센터의 상업적 생존 가능성에 점점 더 영향을 미칠 핵심 성능 벤치마크가 되었습니다."라고 Gillich는 말합니다. “다시 한 번 말씀드리지만, 이것이 가장 중요합니다.”

길리치의 관점에서 볼 때, 이러한 새로운 현실에 적응하는 열쇠는 'AI 동화'라고 할 수 있는 단계적 과정입니다. 여기서 중요한 점은 AI 워크로드가 다른 워크로드 유형과 분리되지 않고 별도로 실행되지 않고 기존 워크로드에 통합된다는 것입니다.

Gillich는 이러한 단계적 통합의 예로 화상 회의를 제시합니다. “이미 표준 애플리케이션 전반에 걸쳐 표준 오디오/비디오 트래픽을 스트리밍하는 동안 AI는 통합되어 요약, 번역, 전사와 같은 수반되는 작업을 수행합니다. 이러한 기능은 AI에서 매우 잘 지원됩니다.

엔드투엔드 에너지 절약

에너지 효율성을 달성하는 것은 진정한 엔드투엔드 전략 사업이어야 한다고 Gillich는 주장합니다. “이는 하드웨어 아키텍처뿐만 아니라 소프트웨어 측면까지 포괄하며, 이는 주어진 워크플로우 프로세스를 가능하게 하는 완전한 메커니즘입니다. 액세스를 가장 효율적으로 만들기 위해(계산 방식, 즉 에너지 측면에서) 데이터를 저장하는 곳이 에너지 효율성을 위한 최고의 장소입니까?”

이 평가에 적용해야 할 또 다른 요소는 워크로드가 실행되는 위치를 결정하는 것입니다. 예를 들어, 데이터 센터의 서버가 아닌 Intel Core Ultra 프로세서가 장착된 AI PC와 같은 클라이언트에서 실행됩니까? 이러한 AI 워크로드 중 일부가 실제로 클라이언트(서버와 함께)에서 실행될 수 있습니까?

AI-컴퓨팅/전력 소비 균형을 더 잘 맞추는 데 도움이 된다면 모든 옵션을 고려할 가치가 있다고 Gillich는 주장합니다. "이것은 분산 컴퓨팅이라는 구식 개념으로의 복귀와 거의 같습니다."

Gillich는 다음과 같이 덧붙입니다. “가끔 고객이 'AI가 어디에서 플레이할까요?'라고 묻습니다. – 대답은 AI가 어디에서나 플레이할 것이라는 것입니다. 따라서 인텔에서 우리의 야망은 AI의 보편적 수용이라고 할 수 있는 것에 초점을 맞추고 있습니다. 왜냐하면 우리는 그것이 모든 응용 분야에 적용될 것이라고 믿기 때문입니다.”

인텔에서는 여기에는 소프트웨어 스택의 다른 부분과 마찬가지로 최대한 효율적이어야 하는 API와 같은 미들웨어가 포함됩니다. 'API 확장'으로 인해 불필요한 처리가 발생하고 인프라 공간이 최소화되며 모니터링 및 제어가 부족해질 수 있습니다.

"와 인텔 원API, 기업은 전체 하드웨어 가치를 실현하고 고성능 크로스 아키텍처 코드를 개발하며 향후 요구 사항에 맞게 애플리케이션을 준비할 수 있습니다.”라고 Gillich는 설명합니다.

“Intel oneAPI는 더 빠른 애플리케이션 성능과 향상된 생산성을 위해 가속기 아키텍처 전반에 걸쳐 공통 개발자 경험을 제공하는 개방형, 산업 간, 표준 기반, 통합, 다중 아키텍처, 다중 공급업체 프로그래밍 모델입니다. oneAPI 이니셔티브는 생태계 전반에 걸쳐 oneAPI 사양 및 호환 가능한 oneAPI 구현에 대한 협업을 장려합니다.”

Gillich는 다음과 같이 덧붙였습니다. "oneAPI는 Pytorch 또는 TensorFlow(AI 및 기계 학습을 위한 오픈 소스 소프트웨어 플랫폼)와 같은 AI 프레임워크와 같은 표준 항목을 가져와 기계 수준에서 변환하는 미들웨어 스택을 제공합니다. 그렇게. 사용자는 Ai 프레임워크 수준에서 공통 API를 사용할 수 있으며 우리는 다양한 하드웨어 취향을 다루는 API(oneAPI)를 보유하고 있습니다." 따라서 공통 API는 사용자가 개방형 소프트웨어 스택에서 지원될 수 있는 개방형 소프트웨어를 만들 수 있음을 의미합니다.

CPU 수준 가격대의 GPU 수준 성능

IT의 발전은 주로 배포 전략의 통찰력 중심 개선과 관련된 지속적인 기술 발전에 대한 기대에 의해 주도됩니다. 이는 예산 지출과 비즈니스 ROI 사이에서 달성 가능한 최상의 균형을 찾는 것과 항상 더 많은 혁신을 위해 노력해야 한다는 기대를 기반으로 하는 모델입니다. AI는 이러한 이상의 정점을 나타냅니다. AI는 끊임없는 자기 개선을 통해 자체 가치 제안을 재창조할 만큼 충분히 똑똑합니다.

Intel은 4세대 Intel Xeon CPU에 AMX 가속기를 구축함으로써 CPU 수준 가격대에서 GPU 수준 성능을 달성할 수 있는 방법을 보여줍니다. 이를 통해 기존 Intel Xeon 기반 프로세싱 자산의 반환 가치를 극대화하면서 데이터 센터를 확장할 수 있을 뿐만 아니라, AI 워크로드가 있지만 예산이 제한된 고객의 진입 비용을 낮추는 가격 모델도 제공합니다.

그리고 CPU의 낮은 전력 소비는 냉각 및 환기와 같은 데이터 센터 시설의 전체 운영 전반에 걸쳐 에너지 효율성을 전체적으로 달성할 수 있음을 의미하며 이는 지속 가능성을 중시하는 소프트웨어 설계자와 AL 솔루션 개발자에게 또 다른 이점입니다.

인텔이 제공합니다.

spot_img

최신 인텔리전스

spot_img