삼성전자 "맞춤형 HBM, 한 세대 앞서 양산할 것"
입력
수정
지면A3
코리아 인베스트먼트 위크요즘 인공지능(AI) 반도체 업계에선 ‘거품론’이 화두다. 투자은행(IB) 모건스탠리가 지난달 ‘고점을 준비한다’는 반도체 보고서를 낸 게 불을 질렀다. 최근엔 중국발(發) 메모리 공급 과잉 우려도 커지고 있다.
반도체 세션
AI 반도체 사이클은 계속된다
삼성, 내년 양산 HBM4부터 도입
업계 첫 고객이 원하는 기능 적용
더 빠른 'CXL D램' 신제품도 준비
퀄컴, 저전력 온디바이스 AI 공략
스마트 기기·로봇 특화 칩 개발
9일 열린 ‘코리아 인베스트먼트 위크(KIW) 2024’ 반도체 세션에 나선 배용철 삼성전자 메모리사업부 상품기획실장(부사장), 김상표 퀄컴 본사 부사장(한국사업총괄), 이성현 오픈엣지테크놀로지 대표는 AI 반도체 거품론에 대해 “기우”라고 했다. 클라우드·온디바이스 AI 투자가 늘면서 반도체산업은 계속 성장할 것이란 얘기다.
“메모리 성장은 계속된다”
이날 강연자들은 ‘클라우드 AI’ 시대의 반도체 성장 전략을 설명하는 데 주력했다. 클라우드 AI는 중앙 서버를 통해 구현되는 대규모 서비스다. 고대역폭메모리(HBM)가 들어가는 AI 가속기(데이터 학습·추론에 특화된 반도체 패키지)가 클라우드 AI의 필수품이다. 배 부사장은 “삼성전자는 클라우드 AI의 장기 성장을 보고 HBM 등 메모리 투자를 늘리고 있다”고 말했다.공격적인 제품 출시 전략도 공개했다. 메모리 반도체 기업들은 내년 양산 예정인 6세대 HBM(HBM4)부턴 파운드리(반도체 수탁생산) 기업의 도움을 받아야 한다. 칩의 두뇌 역할을 하는 ‘로직(버퍼) 다이’에 많은 기능을 넣고 전력 효율성을 높이기 위해서다.
삼성전자는 ‘게임체인저’가 될 것으로 전망되는 HBM4에 ‘맞춤형 HBM’이란 승부수를 둘 계획이다. 예컨대 HBM 컨트롤러처럼 고객사가 원하는 기능을 HBM4 로직 다이에 적용하는 것이다. 현실화하면 업계 최초가 된다. 경쟁사인 SK하이닉스는 "7세대 HBM인 HBM4E부터 맞춤형 HBM을 본격화하겠다"고 밝힌 바 있다.
2027년 256TB SSD 출시
컴퓨트익스프레스링크(CXL) 메모리도 향후 AI 서버 시대의 핵심 메모리가 될 것으로 전망됐다. CXL은 중앙처리장치(CPU)와 메모리 반도체 등 다양한 장치를 효율적으로 연결해 빠른 연산을 가능하게 하는 기술이다. 삼성전자는 지난 3월 CXL을 적용한 D램인 ‘CMM-D’와 관련해 서버 관련 세계적인 솔루션 업체 레드햇의 인증을 받았다. 메모리를 공유할 수 있는 묶음 박스 형태의 ‘CMM-B’ 개발도 진행 중이다. 삼성전자는 또 서버 시장 공략을 강화하기 위해 2027년 256테라바이트(TB) 기업용 솔리드스테이트드라이브(eSSD)도 내놓기로 했다.반도체 설계도인 설계자산(IP)을 개발하는 오픈엣지테크놀로지도 CXL에 적극 뛰어들었다. 이 대표는 “CXL을 활용하면 서버 내 CPU 옆에 D램을 많이 배치할 필요가 없어 물리적인 제약이 줄어든다”며 “CXL D램 컨트롤러 설계용 IP를 공급 중”이라고 했다.
온디바이스 AI 성장 이끄는 퀄컴
향후 AI 전성기를 이끌 서비스로는 스마트폰 등 기기가 자체적으로 실행하는 AI인 ‘온디바이스 AI’가 꼽혔다. 통신용 반도체 설계의 최강자 퀄컴이 온디바이스 AI 전용 칩 시장 공략에 적극적이다. 현재 PC, 스마트폰용 애플리케이션프로세서(AP)를 출시했고 앞으로 AI가 적용되는 로봇 등 다양한 기기에 특화한 칩도 내놓을 계획이다.온디바이스 AI는 기기에서 직접 AI를 구동하기 때문에 전력 소모를 줄이는 게 핵심 경쟁력이다.메모리·IP 기업들도 커지는 온디바이스 AI 시장을 뒷받침하기 위해 ‘저전력’ 제품 개발에 주력할 계획이다. 배 부사장은 “프로세서의 연산 기능까지 담당하는 메모리 기술인 프로세싱인메모리(PIM)를 저전력더블데이트레이트(LPDDR)5X 등 모바일용 D램에 접목할 것”이라고 했다.
황정수/김채연 기자 hjs@hankyung.com