엔비디아 새 AI칩에 삼성·SK 'HBM 특수'
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
성능 2배 가속기 H200 공개
챗GPT 등 생성형 AI 훈련용
HBM 대거 장착한 패키징 제품
SK하이닉스 "HBM 완판 상황"
삼성 "내년 말 생산능력 2.5배"
챗GPT 등 생성형 AI 훈련용
HBM 대거 장착한 패키징 제품
SK하이닉스 "HBM 완판 상황"
삼성 "내년 말 생산능력 2.5배"
미국의 팹리스(반도체 설계전문 기업) 엔비디아가 최신 인공지능(AI) 가속기 ‘H200’을 공개했다. H200은 데이터 처리 속도와 용량 등 성능이 전작 대비 약 두 배 향상된 게 특징이다. 5세대 고대역폭메모리(HBM)가 대거 적용돼 삼성전자, SK하이닉스 등 메모리 반도체 기업들의 ‘HBM 특수’를 이끌어낼 것이란 전망이 나온다.
H200은 챗GPT 개발사 오픈AI의 최신 대규모언어모델(LLM)인 ‘GPT-4’ 훈련에 적용되는 등 전 세계 기업들이 구매 경쟁을 벌이는 ‘H100’의 업그레이드 버전이다. 현재 H100 칩 1개 가격은 2만5000~4만달러로 추정된다. LLM을 구동하는 데에는 수천 개의 칩이 필요한 것으로 알려져 있다. 엔비디아는 H200 가격을 공개하지 않았다. H200을 적용한 서버는 내년 2분기 본격적으로 출시될 전망이다.
엔비디아는 HBM3E를 통해 초당 데이터 처리 속도를 4.8테라바이트(TB), 메모리 용량은 141기가바이트(GB)로 끌어올렸다. 엔비디아 관계자는 “2세대 전 모델인 ‘A100’ 대비 거의 두 배 용량과 2.4배 더 많은 대역폭(bandwidth·데이터 처리량)을 제공한다”고 설명했다.
엔비디아의 H200 공개는 경쟁사 AMD에 맞불을 놓는 성격이 강하다. AMD는 지난 6월 최신 ‘MI300X’를 선보였다. 본격적인 출시는 다음달부터다. AMD는 MI300X 공개 당시 “엔비디아의 H100보다 메모리 밀도가 2.4배 높고 대역폭은 1.6배 크다”고 강조했다.
아마존웹서비스(AWS), 마이크로소프트, 구글 등 글로벌 AI 업체들이 서비스를 고도화하는 데 H200을 활용할 것으로 전망된다.
박명수 SK하이닉스 D램 마케팅 담당(부사장)은 지난달 실적 설명회에서 “HBM3와 HBM3E 모두 현 상황에서 ‘솔드아웃’된 상태”라며 “대부분의 고객사 및 파트너들과 2025년까지 기술 협업 및 생산능력을 논의하고 있다”고 설명했다.
김재준 삼성전자 메모리사업부 부사장도 지난달 “이미 주요 고객사와 내년 공급 물량에 관해 협의를 완료한 상황”이라고 말했다. 두 회사는 쏟아지는 주문에 대응하기 위해 내년 말까지 HBM 생산능력을 현재의 2~2.5배로 늘릴 계획이다.
황정수 기자/실리콘밸리=최진석 특파원 hjs@hankyung.com
‘품귀’ H100 업그레이드 버전
엔비디아는 13일(현지시간) 최신 AI 가속기 H200을 공개했다. AI 가속기는 대규모 데이터 학습·추론에 특화된 반도체다. 그래픽처리장치(GPU)를 기반으로 중앙처리장치(CPU), HBM 등을 패키징해 제조한다.H200은 챗GPT 개발사 오픈AI의 최신 대규모언어모델(LLM)인 ‘GPT-4’ 훈련에 적용되는 등 전 세계 기업들이 구매 경쟁을 벌이는 ‘H100’의 업그레이드 버전이다. 현재 H100 칩 1개 가격은 2만5000~4만달러로 추정된다. LLM을 구동하는 데에는 수천 개의 칩이 필요한 것으로 알려져 있다. 엔비디아는 H200 가격을 공개하지 않았다. H200을 적용한 서버는 내년 2분기 본격적으로 출시될 전망이다.
AMD와 경쟁 본격화
엔비디아가 H200을 공개하며 힘을 준 것은 ‘메모리 반도체’다. H200엔 5세대 HBM을 뜻하는 최신 ‘HBM3E’가 적용된다. HBM은 D램을 수직으로 적층해 데이터 처리용량과 속도를 극대화한 메모리 반도체다.엔비디아는 HBM3E를 통해 초당 데이터 처리 속도를 4.8테라바이트(TB), 메모리 용량은 141기가바이트(GB)로 끌어올렸다. 엔비디아 관계자는 “2세대 전 모델인 ‘A100’ 대비 거의 두 배 용량과 2.4배 더 많은 대역폭(bandwidth·데이터 처리량)을 제공한다”고 설명했다.
엔비디아의 H200 공개는 경쟁사 AMD에 맞불을 놓는 성격이 강하다. AMD는 지난 6월 최신 ‘MI300X’를 선보였다. 본격적인 출시는 다음달부터다. AMD는 MI300X 공개 당시 “엔비디아의 H100보다 메모리 밀도가 2.4배 높고 대역폭은 1.6배 크다”고 강조했다.
아마존웹서비스(AWS), 마이크로소프트, 구글 등 글로벌 AI 업체들이 서비스를 고도화하는 데 H200을 활용할 것으로 전망된다.
메모리 업황 개선 속도
고용량 AI 가속기 출시 경쟁이 벌어지면서 삼성전자, SK하이닉스 등 HBM을 제조하는 메모리 반도체 기업이 ‘특수’를 누릴 것으로 전망된다.박명수 SK하이닉스 D램 마케팅 담당(부사장)은 지난달 실적 설명회에서 “HBM3와 HBM3E 모두 현 상황에서 ‘솔드아웃’된 상태”라며 “대부분의 고객사 및 파트너들과 2025년까지 기술 협업 및 생산능력을 논의하고 있다”고 설명했다.
김재준 삼성전자 메모리사업부 부사장도 지난달 “이미 주요 고객사와 내년 공급 물량에 관해 협의를 완료한 상황”이라고 말했다. 두 회사는 쏟아지는 주문에 대응하기 위해 내년 말까지 HBM 생산능력을 현재의 2~2.5배로 늘릴 계획이다.
황정수 기자/실리콘밸리=최진석 특파원 hjs@hankyung.com