삼성 "AI 반도체 공략"…차세대 솔루션 대거 공개
입력
수정
지면A12
삼성전자가 HBM-PIM(지능형 반도체), CXL(컴퓨트 익스프레스 링크) D램 등 차세대 메모리 반도체 솔루션을 앞세워 인공지능(AI) 반도체 시장을 공략한다.
최진혁 삼성전자 미주법인 메모리연구소장(부사장)은 29일 미국 캘리포니아주에서 열린 글로벌 AI 메모리 학회 ‘멤콘(MemCon) 2023’ 기조연설을 통해 삼성전자의 차세대 메모리 솔루션을 대거 소개했다. 메모리에 연산 기능을 적용한 HBM-PIM, 연산 기능을 메모리 옆에 배치시킨 PNM(프로세싱 니어 메모리), 시스템 메모리 용량을 테라바이트(TB)급까지 확장할 수 있는 CXL D램 등이다.삼성전자는 챗GPT 같은 대규모 생성형 AI 모델에 HBM-PIM 기술을 적용할 경우 기존 HBM이 장착된 GPU(그래픽처리장치) 가속기에 비해 AI 모델의 생성 성능이 3.4배가량 개선될 것으로 분석했다. CXL 기반 PNM 기술을 적용하면 기존 GPU 가속기 대비 D램 용량은 네 배 증가하고 AI 모델의 로딩 속도는 두 배 이상 빨라진다고 설명했다.
배성수 기자 baebae@hankyung.com
최진혁 삼성전자 미주법인 메모리연구소장(부사장)은 29일 미국 캘리포니아주에서 열린 글로벌 AI 메모리 학회 ‘멤콘(MemCon) 2023’ 기조연설을 통해 삼성전자의 차세대 메모리 솔루션을 대거 소개했다. 메모리에 연산 기능을 적용한 HBM-PIM, 연산 기능을 메모리 옆에 배치시킨 PNM(프로세싱 니어 메모리), 시스템 메모리 용량을 테라바이트(TB)급까지 확장할 수 있는 CXL D램 등이다.삼성전자는 챗GPT 같은 대규모 생성형 AI 모델에 HBM-PIM 기술을 적용할 경우 기존 HBM이 장착된 GPU(그래픽처리장치) 가속기에 비해 AI 모델의 생성 성능이 3.4배가량 개선될 것으로 분석했다. CXL 기반 PNM 기술을 적용하면 기존 GPU 가속기 대비 D램 용량은 네 배 증가하고 AI 모델의 로딩 속도는 두 배 이상 빨라진다고 설명했다.
배성수 기자 baebae@hankyung.com