생성 데이터 인텔리전스

엔비디아 경쟁이 뜨거워지면서 구글과 인텔, 자체 AI 칩 출시

시간

화요일 Google과 Intel은 ChatGPT나 Gemini와 같은 생성 AI 모델을 구동하기 위한 고급 반도체 제조 경쟁이 심화됨에 따라 Nvidia에 도전하기 위해 자체 AI 칩을 출시했습니다.

구글 Cloud TPU v5p를 출시했고 Intel은 Gaudi 3 AI 프로세서를 공개했습니다. 이 칩은 '완성된 소프트웨어 실행'은 물론 AI 시스템 훈련 성능을 높이기 위해 설계됐다.

또한 읽기 : 대만 지진으로 주요 AI 칩 허브 중단, 글로벌 공급 위협

더욱 빠른 속도로 LLM 교육

Google은 지난 5월 Gemini와 함께 새로운 TPU(텐서 처리 장치)를 처음 발표했습니다. 현재 개발자에게 제공되는 TPU vXNUMXp는 지금까지 가장 강력하고 확장 가능한 AI 프로세서라고 밝혔습니다.

회사는 업데이트된 칩이 AI 챗봇의 기반이 되는 기술인 대규모 언어 모델(LLM)을 훈련할 수 있다고 주장합니다. 쌍둥이 자리ChatGPT, 이전 버전인 Google TPU v4보다 12배 빠릅니다. AI 칩은 이전 버전보다 XNUMX배의 처리량을 제공한다고 밝혔습니다.

Google CEO Sundar Pichai는 라스베거스에서 열린 회사 행사에서 "이제 5세대인 [Google TPU의] 이러한 발전은 고객이 최첨단 언어 모델을 교육하고 제공하는 데 도움이 되었습니다."라고 말했습니다. 따라 업계 언론에.

[포함 된 콘텐츠]

그래픽 처리 장치(GPU)로 알려진 AI 칩의 최대 90%를 공급하는 미국 기업 엔비디아에 도전하려는 목적이 있는 반면, 구글은 여전히 ​​엔비디아에 의존하고 있음을 보여줬다.

같은에서 블로그 게시물 구글은 최신 TPU를 발표하면서 A3 슈퍼컴퓨터를 업그레이드한다고 밝혔습니다. 엔비디아 H100 그래픽 처리 장치. 이 회사는 또한 Nvidia의 최신 GPU인 블랙웰, AI 하이퍼컴퓨터에서.

Google은 또한 영국 회사 Arm의 기술을 사용하여 구축된 데이터 센터용 새로운 맞춤형 중앙 처리 장치(CPU)인 Axion을 출시했습니다. 마이크로소프트, 아마존, 메타의 CPU와 경쟁하는 액시온은 구글 검색, AI 운영 등 다양한 작업을 처리할 수 있다고 밝혔다.

Google에 따르면 Axion은 "현재 클라우드에서 사용할 수 있는 가장 빠른 범용 Arm 기반 인스턴스보다 30% 더 나은 성능"을 제공하고 다른 범용 Arm보다 "최대 50% 더 나은 성능과 최대 60% 더 나은 에너지 효율성"을 제공합니다. 작은 조각.

인텔: AI는 어디에나 있다

화요일에 인텔은 인공 지능 프로세서인 Gaudi 3의 새 버전 출시도 발표했습니다. 회사는 Gaudi 3 칩이 Nvidia의 H100 GPU보다 전력 효율이 두 배 이상 높으며 AI 모델을 한 번에 실행할 수 있다고 밝혔습니다. 절반 더 빠릅니다.

인텔 CEO 팻 겔싱어(Pat Gelsinger)는 “혁신은 실리콘을 통해 전례 없는 속도로 발전하고 있으며 모든 기업이 빠르게 AI 기업으로 변모하고 있다”고 말했다. 성명서. “인텔은 PC부터 데이터 센터, 엣지까지 기업 전반에 걸쳐 AI를 도입하고 있습니다.

Gelsinger는 Gaudi 3의 가격이 얼마인지 밝히지 않았습니다. Bloomberg 보고서, 그러나 그의 회사의 소위 가속기 칩은 Nvidia의 현재 및 미래 칩 가격보다 "훨씬 낮을" 것이라고 말했습니다. 그는 “매우 좋은” 총 소유 비용을 제공할 것이라고 덧붙였습니다.

인텔은 자사의 최신 칩이 생성 AI 작업을 수행하는 기업을 위한 AI 훈련 및 추론 분야에서 "큰 도약"을 제공할 것이라고 주장합니다. AI 시스템을 교육하는 기업은 실제 질문에 대한 응답으로 예측을 할 수 있어야 합니다. 이를 추론이라고 합니다.

Intel에 따르면 Gaudi 3는 H100 및 Meta의 Llama 또는 Abu Dhabì의 다국어 Falcon과 같은 GPU를 사용하여 훈련된 모든 대규모 언어 모델보다 더 빠르고 전력 효율적일 것입니다. 이 칩은 음성 인식을 위해 OpenAI의 Stable Diffusion이나 Whisper와 같은 모델을 훈련하는 데 도움이 될 수 있다고 말했습니다.

회사에 따르면 이러한 유형의 교육에서 Gaudi 3는 소프트웨어 실행 속도가 1.7배 더 빠르고 1.5배 더 좋습니다. 인텔은 AI 칩의 성능이 Nvidia의 새로운 B200과 비슷하며 일부 영역에서는 뛰어나고 다른 영역에서는 뒤처진다고 말했습니다.

Intel은 새로운 Gaudi 3 칩이 XNUMX분기에 고객에게 제공될 것이며 Supermicro, Dell 및 HP를 포함한 회사가 AI 가속기를 사용하여 시스템을 구축할 것이라고 밝혔습니다.

엔비디아에 도전하다

생성 AI 시스템을 구축하는 회사들은 값비싼 엔비디아의 GPU에 의존하는 것을 줄여 비용을 낮추려고 합니다.

소프트웨어 엔지니어 제임스 해밀턴(James Hamilton)에 따르면 2023년 Amazon은 단일 교육 실행에 약 65만 달러를 지출했습니다. 그는 이 수치가 곧 1억 달러를 넘어설 것으로 예상하고 있습니다.

일주일 전, OpenAI와 Microsoft 공개 '스타게이트'라는 AI 훈련용 데이터센터를 100억 달러 규모로 구축할 계획이다. 그리고 9월에 Meta CEO인 Mark Zuckerberg는 그의 회사가 Nvidia GPU에만 XNUMX억 달러를 지출할 계획이라고 말했습니다.

모든 주요 기술 회사는 Nvidia에서 칩을 구매하지만 자체적으로 칩을 제작하거나 작년에 MI300X라는 새로운 데이터 센터 GPU를 출시한 AMD에서도 구매하기 시작했습니다. AMD는 올해 더 많은 인공지능 칩을 서버에 확장해 판매할 계획이다.

Google의 경쟁사인 Microsoft, Meta(둘 다 AMD 고객) 및 Amazon도 자체 AI 칩을 개발했습니다. 그러나 쉽지는 않을 것입니다. 올해 초 Nvidia는 H100의 후속 제품인 B200 및 B100 GPU를 출시하여 성능 향상을 약속했습니다. 이 칩은 2024년 후반에 배송을 시작할 것으로 예상됩니다.

AI 붐과 H100은 두 배의 도움을 주었습니다. 엔비디아의 수익 시장 가치를 2조 달러 이상으로 끌어 올려 월스트리트에서 가장 성공적인 회사 중 하나로 만들었습니다.

spot_img

최신 인텔리전스

spot_img