챗GPT용 고성능 메모리 장악한 K반도체
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
하이닉스, HBM3 D램 독점 공급
삼성전자도 AI 서버용 D램 납품
삼성전자도 AI 서버용 D램 납품
챗GPT 열풍이 삼성전자, SK하이닉스 등 국내 메모리반도체 기업에 신사업 창출 기회가 되고 있다. 챗GPT는 수많은 데이터를 초거대 인공지능(AI)을 통해 학습하고 질문에 자연스럽게 답하는데, 이를 위해 필수적인 고성능 D램 전부를 국내 기업이 생산하기 때문이다. 챗GPT 확산으로 고성능 D램 수요가 계속 커지면서 메모리반도체 업황에 긍정적인 영향을 줄 것이라는 전망이 나온다.
13일 반도체업계에 따르면 챗GPT의 AI 학습에 활용하는 엔비디아의 ‘A100’ 그래픽처리장치(GPU)에는 SK하이닉스의 3세대 HBM(고대역 메모리·대량의 데이터를 한 번에 보낼 수 있는 반도체) D램이 적용됐다. A100보다 최신 제품인 엔비디아의 ‘H100’ GPU에도 SK하이닉스의 4세대 HBM 제품이 들어갔다. 최근 엔비디아는 A100에 이어 H100 제품도 챗GPT 서버용으로 납품하기 시작했다.
GPU는 D램에 저장된 명령을 가져와 연산하는 식으로 데이터를 처리한다. AI는 대용량 데이터를 빠르게 처리해야 하기 때문에 HBM이 필수적이다.
삼성전자도 AI 서버용 D램 출시에 적극적이다. 데이터 저장뿐만 아니라 연산까지 가능한 ‘HBM-PIM(지능형 메모리)’ D램을 개발하며 시장 공략에 속도를 내고 있다. 지난해 10월에는 GPU 업체인 AMD가 개발한 AI 가속기에 HBM-PIM을 납품했다.
박재근 한양대 융합전자공학부 교수는 “챗GPT 같은 AI 서비스가 확산하면서 HBM D램 수요도 계속 증가할 것”이라고 전망했다.
황정수/정지은 기자 hjs@hankyung.com
13일 반도체업계에 따르면 챗GPT의 AI 학습에 활용하는 엔비디아의 ‘A100’ 그래픽처리장치(GPU)에는 SK하이닉스의 3세대 HBM(고대역 메모리·대량의 데이터를 한 번에 보낼 수 있는 반도체) D램이 적용됐다. A100보다 최신 제품인 엔비디아의 ‘H100’ GPU에도 SK하이닉스의 4세대 HBM 제품이 들어갔다. 최근 엔비디아는 A100에 이어 H100 제품도 챗GPT 서버용으로 납품하기 시작했다.
GPU는 D램에 저장된 명령을 가져와 연산하는 식으로 데이터를 처리한다. AI는 대용량 데이터를 빠르게 처리해야 하기 때문에 HBM이 필수적이다.
삼성전자도 AI 서버용 D램 출시에 적극적이다. 데이터 저장뿐만 아니라 연산까지 가능한 ‘HBM-PIM(지능형 메모리)’ D램을 개발하며 시장 공략에 속도를 내고 있다. 지난해 10월에는 GPU 업체인 AMD가 개발한 AI 가속기에 HBM-PIM을 납품했다.
박재근 한양대 융합전자공학부 교수는 “챗GPT 같은 AI 서비스가 확산하면서 HBM D램 수요도 계속 증가할 것”이라고 전망했다.
황정수/정지은 기자 hjs@hankyung.com