토종 스타트업 생성형 AI 모델, 글로벌 2위 '도약'
입력
수정
인공지능(AI) 스타트업 업스테이지는 자사가 개발한 생성형 AI 모델이 글로벌 AI 플랫폼 허깅페이스에서 운영하는 공개형 거대언어모델(LLM) 리더보드에서 2위를 차지했다고 19일 발표했다. 개발을 진행한 지 두 달 만의 성과다.
허깅페이스 리더보드는 LLM의 성능을 비교해준다. AI 모델의 추론 및 능력, 언어 이해 종합 능력, AI가 거짓된 정보를 표시하는 ‘환각 현상’ 방지 등 4가지 지표의 평균 점수가 기준이다. AI가 학습할 수 있는 총량을 뜻하는 파라미터(매개변수)가 1000억 개 이하인 AI 모델이 이곳에서 경쟁을 펼친다.업스테이지는 메타가 이날 공개한 매개변수 700억 개 상당의 ‘라마2’에 이어 평균 64.7점으로 종합 2위를 차지했다. 줄곧 선두를 맡아온 마이크로소프트(MS)나 스태빌리티 AI의 모델, 아랍에미리트(UAE) 기술혁신연구소의 팰컨 등에 비해 성능 점수는 평균 10% 이상 높았다. 특히 환각 현상 방지 지표에서는 56.5점을 기록해 52.8점의 라마2를 제치기도 했다.
리더보드 경쟁에 나선 소규모 LLM은 시장에 잘 알려진 AI 모델과는 매개변수 격차가 크다. GPT-4의 매개변수는 5000억 개로 추정된다. 대신 유명 모델보다 가격이 싸고 설치가 쉽다는 특징이 있다. 특히 가벼운 규모로 인해 기업 내부 서버에 설치할 수 있어서 데이터 학습에 대한 정보 유출을 우려하는 기업들 관심이 큰 영역이다.
업스테이지는 해당 AI 모델에 한국어 데이터를 추가 학습시켜 산업 현장에 적용한다는 계획이다. 김성훈 업스테이지 대표는 “입증된 업스테이지 기술력을 바탕으로 전 세계 모든 기업이 편리하게 AI를 사용할 수 있도록 노력할 것”이라고 말했다.
이시은 기자 see@hankyung.com
허깅페이스 리더보드는 LLM의 성능을 비교해준다. AI 모델의 추론 및 능력, 언어 이해 종합 능력, AI가 거짓된 정보를 표시하는 ‘환각 현상’ 방지 등 4가지 지표의 평균 점수가 기준이다. AI가 학습할 수 있는 총량을 뜻하는 파라미터(매개변수)가 1000억 개 이하인 AI 모델이 이곳에서 경쟁을 펼친다.업스테이지는 메타가 이날 공개한 매개변수 700억 개 상당의 ‘라마2’에 이어 평균 64.7점으로 종합 2위를 차지했다. 줄곧 선두를 맡아온 마이크로소프트(MS)나 스태빌리티 AI의 모델, 아랍에미리트(UAE) 기술혁신연구소의 팰컨 등에 비해 성능 점수는 평균 10% 이상 높았다. 특히 환각 현상 방지 지표에서는 56.5점을 기록해 52.8점의 라마2를 제치기도 했다.
리더보드 경쟁에 나선 소규모 LLM은 시장에 잘 알려진 AI 모델과는 매개변수 격차가 크다. GPT-4의 매개변수는 5000억 개로 추정된다. 대신 유명 모델보다 가격이 싸고 설치가 쉽다는 특징이 있다. 특히 가벼운 규모로 인해 기업 내부 서버에 설치할 수 있어서 데이터 학습에 대한 정보 유출을 우려하는 기업들 관심이 큰 영역이다.
업스테이지는 해당 AI 모델에 한국어 데이터를 추가 학습시켜 산업 현장에 적용한다는 계획이다. 김성훈 업스테이지 대표는 “입증된 업스테이지 기술력을 바탕으로 전 세계 모든 기업이 편리하게 AI를 사용할 수 있도록 노력할 것”이라고 말했다.
이시은 기자 see@hankyung.com