엔비디아 'H100' 뭐길래…대당 6000만원까지 치솟았다
입력
수정
챗GPT가 등장한 후 생성AI 기술 경쟁이 뜨거워지면서 엔비디아의 슈퍼컴퓨터용 그래픽 처리장치(GPU) 모듈인 H100 가격도 급등하고 있다. 마이크로소프트(MS), 구글, 아마존, 메타, 테슬라 최고경영자(CEO) 일론 머스크 등 빅테크들이 경쟁에 뛰어든 가운데 다양한 테크기업들이 관련 기술 개발에 나서고 있어 당분간 GPU 공급부족으로 인한 가격 상승세가 이어질 전망이다.20일 관련 업계와 외신 등에 따르면 CNBC는 이베이에서 판매되는 H100 가격이 지난해 3만6000달러(4700만원)에서 최근 4만56000달러(6000만원)까지 치솟았다고 최근 보도했다. 올해 초 챗GPT 등장 후 가격이 27.7% 급등한 것이다.챗GPT와 유사한 LLM을 개발하려는 기업이 급증하면서 H100 수요가 급증했다. 현재 엔비디아에선 늘어난 수요를 감당하지 못하는 상황인 것으로 알려졌다.
H100은 엔비디아가 작년 10월 출시한 호퍼 아키텍쳐 기반의 최신 GPU 시스템이다. 최대 256개를 연결해 엑사스케일 작업을 가속화한 것이 특징이다. 전용 트랜스포머 엔진으로 조 단위 매개변수를 가진 대형언어모델(LLM)을 처리하는 역할을 한다.최근 슈퍼컴퓨터 구성에 사용한 GPU는 대부분 암페어 아키텍처 기반의 A100 시스템이다. A100 모듈 가격은 대당 1만달러(1300만원) 수준이다. 오픈AI가 챗AI 개발에 활용한 슈퍼컴퓨터도 이 GPU 탑재돼 있다. 오픈AI는 GPT-4에 A100 1만개를 활용한 바 있다.H100은 A100의 뒤를 잇는 엔비디아의 최신 플래그십 AI 칩이다. 전문가들은 AI 시스템을 실행하려면 강력한 성능을 갖춘 컴퓨터가 수일 또는 수 주 동안 텍스트와 이미지 그리고 예측 등을 생성할 수 있도록 테라바이트 이상의 데이터를 처리해야 하는데 이에 H100이 가장 기술력이 집약됐다고 보고 있다. 앞으로 당분간 H100에 대한 수요가 늘면서 가격 상승세가 이어질 수 있다는 전망이 나오는 이유다.
엔비디아가 올해 초 월 3만7000달러(약 4800만원)에 임대 서비스를 진행하겠다고 밝힌 데이터센터용 DGX는 A100을 탑재했다. H100을 탑재한 DGX 서비스 가격은 이보다 4배 이상 비쌀 것이라는 관측이 나온다.
최진석 기자 iskra@hankyung.com
H100은 엔비디아가 작년 10월 출시한 호퍼 아키텍쳐 기반의 최신 GPU 시스템이다. 최대 256개를 연결해 엑사스케일 작업을 가속화한 것이 특징이다. 전용 트랜스포머 엔진으로 조 단위 매개변수를 가진 대형언어모델(LLM)을 처리하는 역할을 한다.최근 슈퍼컴퓨터 구성에 사용한 GPU는 대부분 암페어 아키텍처 기반의 A100 시스템이다. A100 모듈 가격은 대당 1만달러(1300만원) 수준이다. 오픈AI가 챗AI 개발에 활용한 슈퍼컴퓨터도 이 GPU 탑재돼 있다. 오픈AI는 GPT-4에 A100 1만개를 활용한 바 있다.H100은 A100의 뒤를 잇는 엔비디아의 최신 플래그십 AI 칩이다. 전문가들은 AI 시스템을 실행하려면 강력한 성능을 갖춘 컴퓨터가 수일 또는 수 주 동안 텍스트와 이미지 그리고 예측 등을 생성할 수 있도록 테라바이트 이상의 데이터를 처리해야 하는데 이에 H100이 가장 기술력이 집약됐다고 보고 있다. 앞으로 당분간 H100에 대한 수요가 늘면서 가격 상승세가 이어질 수 있다는 전망이 나오는 이유다.
엔비디아가 올해 초 월 3만7000달러(약 4800만원)에 임대 서비스를 진행하겠다고 밝힌 데이터센터용 DGX는 A100을 탑재했다. H100을 탑재한 DGX 서비스 가격은 이보다 4배 이상 비쌀 것이라는 관측이 나온다.
최진석 기자 iskra@hankyung.com