초당 5테라바이트 고대역폭 메모리 HBM3e 탑재…"내년 2분기 생산"
"시장 지배력 강화 기대"…손쉽게 생성형 AI 개발 가능한 플랫폼도 공개
美 엔비디아, 차세대 AI 칩 'GH200 그레이스 호퍼 슈퍼칩' 공개(종합2보)
AI 컴퓨팅 기술 분야 선두 주자인 미국 반도체 기업 엔비디아가 한 단계 진일보한 차세대 AI 칩을 공개했다.

엔비디아는 8일(현지시간) 미국 로스앤젤레스에서 열린 컴퓨터 그래픽스 콘퍼런스 시그래프에서 차세대 AI 칩 'GH200 그레이스 호퍼 슈퍼칩'을 선보였다.

이 '슈퍼칩'은 현재 엔비디아의 최고급 AI 칩인 H100과 같은 그래픽처리장치(GPU)와 141기가바이트의 최첨단 메모리 및 72코어 암(ARM) 기반의 프로세서(CPU)를 결합했다.

이 칩에는 초당 5테라바이트(TB)의 엄청난 속도로 정보에 접근할 수 있는 고대역폭 메모리 HBM3e가 탑재됐다.

HBM은 여러 개의 D램을 수직으로 연결해 쌓아 기존 D램보다 데이터 처리 속도를 크게 끌어올린 메모리로, HBM3e는 4세대 제품이다.

젠슨 황 엔비디아 최고경영자(CEO)는 "이 프로세서는 이전 모델보다 훨씬 더 강력하다"며 "증가하는 AI 컴퓨팅 파워 수요를 충족시키기 위해 세계 데이터 센터의 규모를 확장하도록 설계됐다"고 설명했다.

엔비디아는 이 '슈퍼칩'이 내년 2분기 생산될 것이라고 밝혔다.

다만, 가격은 공개하지 않았다.

엔비디아는 이 칩이 더 많은 메모리 용량을 갖고 있어 AI 모델의 추론용으로 설계됐다며 이를 통해 더 큰 규모의 AI 모델도 하나의 시스템에 장착할 수 있다고 설명했다.

황 CEO는 "원하는 거의 모든 대규모 언어 모델을 여기에 넣으면 미친 듯이 추론할 수 있을 것"이라며 "(이렇게 되면) 대규모 언어 모델을 추론하는 데 드는 비용이 크게 떨어질 것"이라고 강조했다.

美 엔비디아, 차세대 AI 칩 'GH200 그레이스 호퍼 슈퍼칩' 공개(종합2보)
현재 엔비디아는 AI 칩 시장의 80% 이상을 점유하고 있으며 AMD와 인텔 등이 추격하고 있다.

엔비디아는 이 '슈퍼칩'를 통해 시장 지배력을 강화할 수 있을 것으로 분석되고 있다.

엔비디아는 이와 함께 손쉽게 생성형 AI를 개발할 수 있는 플랫폼 'AI 워크벤치'(NVIDIA AI Workbench)를 조만간 출시한다고 발표했다.

AI 워크벤치를 통해 그래픽처리장치(GPU)를 이용할 수 있으면 누구나 생성형 AI 크리에이터가 될 수 있다고 엔비디아는 설명했다.

여기에는 생성형 AI 개발을 위한 프로젝트 예시들이 구축돼 AI 개발을 쉽게 시작할 수 있고, 엔비디아의 DGX 클라우드는 물론 PC와 클라우드를 넘나들며 프로젝트를 수행할 수 있다.

DGX 클라우드는 엔비디아의 AI 슈퍼컴퓨팅 서비스로, 대부분의 기업을 AI 기업으로 전환할 수 있는 툴을 제공한다.

이 플랫폼은 올가을 출시될 예정이다.

엔비디아는 또 세계 최대 머신 러닝 플랫폼 허깅페이스(Hugging Face)에 DCX 클라우드를 접목해 전 세계 수백만 명의 개발자들이 생성형 AI 슈퍼컴퓨팅에 연결할 수 있도록 지원할 예정이다.

허깅 페이스는 이용자가 머신러닝 모델 및 데이터 세트를 공유할 수 있는 세계 최대 플랫폼이자 커뮤니티다.

아울러, 엔비디아는 생성형 AI 서비스 개발과 산업 디지털화를 가속할 수 있는 데이터센터용 프로세서 OVX 서버를 공개하고, 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로 등이 이 제품을 출시할 예정이라고 소개했다.

OVX 시스템은 서버당 최대 8개의 엔비디아 L40S GPU를 지원한다.

L40S는 엔비디아 A100 텐서 코어 GPU에 비해 최대 1.2배의 AI 추론 성능과 최대 1.7배의 학습 성능을 제공한다.

/연합뉴스