[사설] 우리도 할 수 있다는 걸 보여준 LG '엑사원 딥'

LG그룹이 국내 최초로 선보인 추론형 인공지능(AI) 모델 ‘엑사원 딥’의 성능이 중국 딥시크를 넘어선 것으로 나타났다. 엑사원 최고 성능 모델인 32B는 2025학년도 대학수학능력시험 수학 영역에서 94.5점을 받아 89.9점을 얻은 딥시크 ‘R1’을 앞질렀다. 2024년 미국 수학올림피아드에서도 비슷한 결과가 나왔다.

한국이 AI 후진국으로 전락하는 게 아니냐는 세간의 우려를 불식하는 반가운 소식이다. 스스로 정보를 탐색하고 조합할 수 있어 ‘AI 비서’ 구현에 꼭 필요한 추론형 AI 분야에서 성과가 나왔다는 점도 고무적이다.

딥시크는 미국 빅테크의 코를 납작하게 만든 중국 스타트업이다. AI 시장을 주도하려면 조 단위 예산과 수천 명의 엔지니어 군단, 대규모 반도체 인프라 등을 두루 갖춰야 한다는 고정관념을 깨트렸다. 이 회사가 R1 훈련을 위해 쓴 비용은 560만달러(약 81억3000만원)로 추정된다. 이는 메타가 ‘라마’ 개발에 투입한 비용의 10% 이하다.

엑사원 딥은 가성비(가격 대비 성능) 면에서 딥시크에 전혀 밀리지 않는다. LG AI연구원은 지난해 말 전작인 3.5 버전을 개발하는 데 70억원을 썼다고 밝혔다. 시장에서는 후속 모델인 딥 시리즈 개발에도 비슷한 비용이 들었을 것으로 보고 있다. 그렇다고 인력을 많이 투입한 것도 아니다. LG AI연구원에서 일하는 엑사원 엔지니어는 수십 명 수준이다. 인프라 비용까지 따지면 엑사원의 압승이다. 딥시크 R1을 구동하려면 2만5000달러짜리 엔비디아 가속기 ‘H100’이 16개 필요하다. 반면 엑사원 딥 32B가 요구하는 H100은 단 한 개뿐이다. AI가 연산을 위해 고려하는 매개변수의 숫자를 딥시크 R1의 20분의 1 이하 수준으로 줄인 효과다.

LG그룹은 다른 기업들이 자유롭게 쓸 수 있도록 엑사원 딥을 오픈소스로 공개했다. 많은 국내 기업이 엑사원을 참고해 AI 모델을 개발하고, 제품과 제조공정 혁신에도 적극적으로 활용했으면 하는 바람이다. ‘한·미·중 AI 삼국지’는 이제부터 시작이다.