AI 반도체 시장 급성장…'차세대 메모리'로 공략
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
챗GPT 등 생성형 AI 시장 커져
대규모 연산 고성능 메모리 필요
삼성전자, 용량·연산 기능 높인
HBM-PIM·CXL D램 등 공개
SK하이닉스는 HBM3 양산
GPU 최강자 엔비디아에 납품
대규모 연산 고성능 메모리 필요
삼성전자, 용량·연산 기능 높인
HBM-PIM·CXL D램 등 공개
SK하이닉스는 HBM3 양산
GPU 최강자 엔비디아에 납품
삼성전자 등 메모리반도체 기업들이 HBM-PIM(지능형 반도체), CXL(컴퓨트 익스프레스 링크) D램 등 차세대 메모리 반도체 솔루션을 앞세워 인공지능(AI) 반도체 시장을 공략한다. 챗GPT 같은 생성형 AI 시장이 커지면서 중장기적으로 차세대 메모리 반도체에 대한 수요가 커질 것으로 전망되기 때문이다.
삼성전자 등 메모리반도체 기업도 AI 반도체의 대용량 데이터 처리를 돕는 차세대 메모리 반도체 개발·출시에 적극적이다. 최진혁 삼성전자 미주법인 메모리연구소장(부사장)은 지난달 29일 미국 캘리포니아주에서 열린 글로벌 AI 메모리 학회 ‘멤콘(MemCon) 2023’ 기조연설에서 삼성전자의 차세대 메모리 솔루션을 소개했다. 메모리에 연산 기능을 적용한 HBM-PIM, 연산 기능을 메모리 옆에 배치시킨 PNM(프로세싱 니어 메모리), 시스템 메모리 용량을 테라바이트(TB)급까지 확장할 수 있는 CXL D램 등이다.
삼성전자는 챗GPT 같은 대규모 생성형 AI 모델에 HBM-PIM 기술을 적용할 경우 기존 HBM이 장착된 GPU(그래픽처리장치) 가속기에 비해 AI 모델의 생성 성능이 3.4배가량 개선될 것으로 분석했다. CXL 기반 PNM 기술을 적용하면 기존 GPU 가속기 대비 D램 용량은 네 배 증가하고, AI 모델의 로딩 속도는 두 배 이상 빨라진다고 설명했다.
SK하이닉스는 현재 고대역폭 D램 제품 HBM3를 양산해 엔비디아에 납품하고 있다. 챗GPT는 대규모 데이터 학습에 엔비디아 A100 그래픽처리장치(GPU) 1만 개를 활용했다. 박 부회장은 “최근 화제가 된 AI 챗봇 ‘챗GPT’ 동작 고성능 컴퓨팅뿐 아니라 고속 고용량 메모리가 필요하다”며 “서비스에 우리 회사의 HBM이 아주 중요한 역할을 하고 있다”고 강조했다. 이어 “10년 이상 지속해서 HBM 기술을 개발해온 준비 과정 끝에 기술력을 바탕으로 지난해 경쟁사를 압도하는 점유율을 확보했다”며 “유수의 글로벌 AI 반도체 기업들이 먼저 찾아와 구매할 정도로 선도적 지위를 확보하고 있다”고 덧붙였다.
세계 3위 D램업체 마이크론 역시 지난달 열린 실적설명회에서 ‘차세대 제품 수요가 증가하고 고객사들의 반도체 재고가 줄고 있다’는 낙관론을 내놨다. 산제이 메로트라 마이크론 최고경영자(CEO)는 “데이터센터 매출은 바닥을 쳤고 3~5월엔 증가할 것”이라며 “데이터센터 고객들의 재고가 연말엔 상대적으로 건전한 수준에 도달할 것”이라고 말했다. 생성형 AI에 따른 메모리 반도체 호황은 2025년부터 본격화할 것으로 전망됐다. 마이크론 관계자는 “통상적인 AI 서버는 일반 서버와 비교해 8배의 D램과 3배의 낸드플래시 메모리가 필요하다”며 “반도체산업은 2025년에 시장 규모 면에서 기록적인 해가 될 것”이라고 예상했다.
황정수 기자 hjs@hankyung.com
○삼성전자 ‘CXL D램’ 주목
3일 시장조사업체 가트너에 따르면 지난해 AI 반도체 시장 규모는 전년보다 27.8% 증가한 444억달러로 집계됐다. 2026년엔 861억달러에 이를 것으로 전망된다. 대화형 챗봇인 챗GPT의 활성화에 따라 폭증하는 데이터를 처리하기 위한 반도체 수요가 커질 것으로 전망되기 때문이다.삼성전자 등 메모리반도체 기업도 AI 반도체의 대용량 데이터 처리를 돕는 차세대 메모리 반도체 개발·출시에 적극적이다. 최진혁 삼성전자 미주법인 메모리연구소장(부사장)은 지난달 29일 미국 캘리포니아주에서 열린 글로벌 AI 메모리 학회 ‘멤콘(MemCon) 2023’ 기조연설에서 삼성전자의 차세대 메모리 솔루션을 소개했다. 메모리에 연산 기능을 적용한 HBM-PIM, 연산 기능을 메모리 옆에 배치시킨 PNM(프로세싱 니어 메모리), 시스템 메모리 용량을 테라바이트(TB)급까지 확장할 수 있는 CXL D램 등이다.
삼성전자는 챗GPT 같은 대규모 생성형 AI 모델에 HBM-PIM 기술을 적용할 경우 기존 HBM이 장착된 GPU(그래픽처리장치) 가속기에 비해 AI 모델의 생성 성능이 3.4배가량 개선될 것으로 분석했다. CXL 기반 PNM 기술을 적용하면 기존 GPU 가속기 대비 D램 용량은 네 배 증가하고, AI 모델의 로딩 속도는 두 배 이상 빨라진다고 설명했다.
○HBM3 엔비디아에 납품
세계 2위 D램 업체인 SK하이닉스도 차세대 메모리 시장 공략에 나서고 있다. 박정호 SK하이닉스 부회장은 지난달 29일 경기 이천에서 열린 주주총회에서 “현재 서버 시장에서 고성능 고용량 메모리 채용이 증가하고 있다”고 말했다. SK하이닉스는 AI에 기반한 신규 서버용 메모리 수요 증가에 기대를 걸고 있다.SK하이닉스는 현재 고대역폭 D램 제품 HBM3를 양산해 엔비디아에 납품하고 있다. 챗GPT는 대규모 데이터 학습에 엔비디아 A100 그래픽처리장치(GPU) 1만 개를 활용했다. 박 부회장은 “최근 화제가 된 AI 챗봇 ‘챗GPT’ 동작 고성능 컴퓨팅뿐 아니라 고속 고용량 메모리가 필요하다”며 “서비스에 우리 회사의 HBM이 아주 중요한 역할을 하고 있다”고 강조했다. 이어 “10년 이상 지속해서 HBM 기술을 개발해온 준비 과정 끝에 기술력을 바탕으로 지난해 경쟁사를 압도하는 점유율을 확보했다”며 “유수의 글로벌 AI 반도체 기업들이 먼저 찾아와 구매할 정도로 선도적 지위를 확보하고 있다”고 덧붙였다.
○2025년부터 차세대 D램 시대 본격화
차세대 메모리 수요가 증가하면서 올 하반기부턴 반도체 수요가 살아날 것이란 기대도 있다. 박 부회장은 주주총회에서 “공급 측면에서 작년부터 이어진 메모리 업체 투자 축소에 따른 공급량 축소 효과가 가시화할 것으로 예상한다”며 “고객들의 재고도 소진되고 있어 점차 정상화할 것으로 기대한다”고 말했다. 곽노정 SK하이닉스 사장도 “서버에 들어가는 HBM, 차세대 규격 제품인 DDR5의 경우 수요가 굉장히 ‘타이트’하다”고 했다.세계 3위 D램업체 마이크론 역시 지난달 열린 실적설명회에서 ‘차세대 제품 수요가 증가하고 고객사들의 반도체 재고가 줄고 있다’는 낙관론을 내놨다. 산제이 메로트라 마이크론 최고경영자(CEO)는 “데이터센터 매출은 바닥을 쳤고 3~5월엔 증가할 것”이라며 “데이터센터 고객들의 재고가 연말엔 상대적으로 건전한 수준에 도달할 것”이라고 말했다. 생성형 AI에 따른 메모리 반도체 호황은 2025년부터 본격화할 것으로 전망됐다. 마이크론 관계자는 “통상적인 AI 서버는 일반 서버와 비교해 8배의 D램과 3배의 낸드플래시 메모리가 필요하다”며 “반도체산업은 2025년에 시장 규모 면에서 기록적인 해가 될 것”이라고 예상했다.
황정수 기자 hjs@hankyung.com