美 엔비디아, 차세대 AI 칩 'GH200 그레이스 호퍼 슈퍼칩' 공개(종합2보)
입력
수정
초당 5테라바이트 고대역폭 메모리 HBM3e 탑재…"내년 2분기 생산"
"시장 지배력 강화 기대"…손쉽게 생성형 AI 개발 가능한 플랫폼도 공개 AI 컴퓨팅 기술 분야 선두 주자인 미국 반도체 기업 엔비디아가 한 단계 진일보한 차세대 AI 칩을 공개했다. 엔비디아는 8일(현지시간) 미국 로스앤젤레스에서 열린 컴퓨터 그래픽스 콘퍼런스 시그래프에서 차세대 AI 칩 'GH200 그레이스 호퍼 슈퍼칩'을 선보였다.
이 '슈퍼칩'은 현재 엔비디아의 최고급 AI 칩인 H100과 같은 그래픽처리장치(GPU)와 141기가바이트의 최첨단 메모리 및 72코어 암(ARM) 기반의 프로세서(CPU)를 결합했다.
이 칩에는 초당 5테라바이트(TB)의 엄청난 속도로 정보에 접근할 수 있는 고대역폭 메모리 HBM3e가 탑재됐다. HBM은 여러 개의 D램을 수직으로 연결해 쌓아 기존 D램보다 데이터 처리 속도를 크게 끌어올린 메모리로, HBM3e는 4세대 제품이다.
젠슨 황 엔비디아 최고경영자(CEO)는 "이 프로세서는 이전 모델보다 훨씬 더 강력하다"며 "증가하는 AI 컴퓨팅 파워 수요를 충족시키기 위해 세계 데이터 센터의 규모를 확장하도록 설계됐다"고 설명했다.
엔비디아는 이 '슈퍼칩'이 내년 2분기 생산될 것이라고 밝혔다. 다만, 가격은 공개하지 않았다.
엔비디아는 이 칩이 더 많은 메모리 용량을 갖고 있어 AI 모델의 추론용으로 설계됐다며 이를 통해 더 큰 규모의 AI 모델도 하나의 시스템에 장착할 수 있다고 설명했다.
황 CEO는 "원하는 거의 모든 대규모 언어 모델을 여기에 넣으면 미친 듯이 추론할 수 있을 것"이라며 "(이렇게 되면) 대규모 언어 모델을 추론하는 데 드는 비용이 크게 떨어질 것"이라고 강조했다. 현재 엔비디아는 AI 칩 시장의 80% 이상을 점유하고 있으며 AMD와 인텔 등이 추격하고 있다.
엔비디아는 이 '슈퍼칩'를 통해 시장 지배력을 강화할 수 있을 것으로 분석되고 있다.
엔비디아는 이와 함께 손쉽게 생성형 AI를 개발할 수 있는 플랫폼 'AI 워크벤치'(NVIDIA AI Workbench)를 조만간 출시한다고 발표했다.
AI 워크벤치를 통해 그래픽처리장치(GPU)를 이용할 수 있으면 누구나 생성형 AI 크리에이터가 될 수 있다고 엔비디아는 설명했다.
여기에는 생성형 AI 개발을 위한 프로젝트 예시들이 구축돼 AI 개발을 쉽게 시작할 수 있고, 엔비디아의 DGX 클라우드는 물론 PC와 클라우드를 넘나들며 프로젝트를 수행할 수 있다.
DGX 클라우드는 엔비디아의 AI 슈퍼컴퓨팅 서비스로, 대부분의 기업을 AI 기업으로 전환할 수 있는 툴을 제공한다.
이 플랫폼은 올가을 출시될 예정이다.
엔비디아는 또 세계 최대 머신 러닝 플랫폼 허깅페이스(Hugging Face)에 DCX 클라우드를 접목해 전 세계 수백만 명의 개발자들이 생성형 AI 슈퍼컴퓨팅에 연결할 수 있도록 지원할 예정이다.
허깅 페이스는 이용자가 머신러닝 모델 및 데이터 세트를 공유할 수 있는 세계 최대 플랫폼이자 커뮤니티다.
아울러, 엔비디아는 생성형 AI 서비스 개발과 산업 디지털화를 가속할 수 있는 데이터센터용 프로세서 OVX 서버를 공개하고, 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로 등이 이 제품을 출시할 예정이라고 소개했다.
OVX 시스템은 서버당 최대 8개의 엔비디아 L40S GPU를 지원한다. L40S는 엔비디아 A100 텐서 코어 GPU에 비해 최대 1.2배의 AI 추론 성능과 최대 1.7배의 학습 성능을 제공한다.
/연합뉴스
"시장 지배력 강화 기대"…손쉽게 생성형 AI 개발 가능한 플랫폼도 공개 AI 컴퓨팅 기술 분야 선두 주자인 미국 반도체 기업 엔비디아가 한 단계 진일보한 차세대 AI 칩을 공개했다. 엔비디아는 8일(현지시간) 미국 로스앤젤레스에서 열린 컴퓨터 그래픽스 콘퍼런스 시그래프에서 차세대 AI 칩 'GH200 그레이스 호퍼 슈퍼칩'을 선보였다.
이 '슈퍼칩'은 현재 엔비디아의 최고급 AI 칩인 H100과 같은 그래픽처리장치(GPU)와 141기가바이트의 최첨단 메모리 및 72코어 암(ARM) 기반의 프로세서(CPU)를 결합했다.
이 칩에는 초당 5테라바이트(TB)의 엄청난 속도로 정보에 접근할 수 있는 고대역폭 메모리 HBM3e가 탑재됐다. HBM은 여러 개의 D램을 수직으로 연결해 쌓아 기존 D램보다 데이터 처리 속도를 크게 끌어올린 메모리로, HBM3e는 4세대 제품이다.
젠슨 황 엔비디아 최고경영자(CEO)는 "이 프로세서는 이전 모델보다 훨씬 더 강력하다"며 "증가하는 AI 컴퓨팅 파워 수요를 충족시키기 위해 세계 데이터 센터의 규모를 확장하도록 설계됐다"고 설명했다.
엔비디아는 이 '슈퍼칩'이 내년 2분기 생산될 것이라고 밝혔다. 다만, 가격은 공개하지 않았다.
엔비디아는 이 칩이 더 많은 메모리 용량을 갖고 있어 AI 모델의 추론용으로 설계됐다며 이를 통해 더 큰 규모의 AI 모델도 하나의 시스템에 장착할 수 있다고 설명했다.
황 CEO는 "원하는 거의 모든 대규모 언어 모델을 여기에 넣으면 미친 듯이 추론할 수 있을 것"이라며 "(이렇게 되면) 대규모 언어 모델을 추론하는 데 드는 비용이 크게 떨어질 것"이라고 강조했다. 현재 엔비디아는 AI 칩 시장의 80% 이상을 점유하고 있으며 AMD와 인텔 등이 추격하고 있다.
엔비디아는 이 '슈퍼칩'를 통해 시장 지배력을 강화할 수 있을 것으로 분석되고 있다.
엔비디아는 이와 함께 손쉽게 생성형 AI를 개발할 수 있는 플랫폼 'AI 워크벤치'(NVIDIA AI Workbench)를 조만간 출시한다고 발표했다.
AI 워크벤치를 통해 그래픽처리장치(GPU)를 이용할 수 있으면 누구나 생성형 AI 크리에이터가 될 수 있다고 엔비디아는 설명했다.
여기에는 생성형 AI 개발을 위한 프로젝트 예시들이 구축돼 AI 개발을 쉽게 시작할 수 있고, 엔비디아의 DGX 클라우드는 물론 PC와 클라우드를 넘나들며 프로젝트를 수행할 수 있다.
DGX 클라우드는 엔비디아의 AI 슈퍼컴퓨팅 서비스로, 대부분의 기업을 AI 기업으로 전환할 수 있는 툴을 제공한다.
이 플랫폼은 올가을 출시될 예정이다.
엔비디아는 또 세계 최대 머신 러닝 플랫폼 허깅페이스(Hugging Face)에 DCX 클라우드를 접목해 전 세계 수백만 명의 개발자들이 생성형 AI 슈퍼컴퓨팅에 연결할 수 있도록 지원할 예정이다.
허깅 페이스는 이용자가 머신러닝 모델 및 데이터 세트를 공유할 수 있는 세계 최대 플랫폼이자 커뮤니티다.
아울러, 엔비디아는 생성형 AI 서비스 개발과 산업 디지털화를 가속할 수 있는 데이터센터용 프로세서 OVX 서버를 공개하고, 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로 등이 이 제품을 출시할 예정이라고 소개했다.
OVX 시스템은 서버당 최대 8개의 엔비디아 L40S GPU를 지원한다. L40S는 엔비디아 A100 텐서 코어 GPU에 비해 최대 1.2배의 AI 추론 성능과 최대 1.7배의 학습 성능을 제공한다.
/연합뉴스