구글, 경량 AI '젬마' 공짜로 푼다
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
제미나이로 만든 가성비 모델
메타 주도 오픈소스 시장 겨냥
메타 주도 오픈소스 시장 겨냥
구글이 인공지능(AI) 경량 대규모언어모델(LLM)을 누구나 자유롭게 활용할 수 있는 오픈소스로 공개했다. 마이크로소프트와 다투고 있는 폐쇄형 AI 시장뿐 아니라 오픈소스 AI 시장에서도 주도권을 쥐겠다는 포석으로 풀이된다.
구글은 22일 오픈소스 AI 모델 ‘젬마’를 공개했다. 젬마는 구글이 지난해 12월 공개한 초거대 AI인 ‘제미나이’로 만든 초경량 모델이다. 파라미터(매개변수) 수가 20억 개인 ‘젬마 2B’와 70억 개인 ‘젬마 7B’로 나뉜다. 이 모델들은 무료로 풀린다. 이용자는 젬마를 자유롭게 미세 조정해 AI 연구개발(R&D)에 쓸 수 있다. 상업적 사용도 가능하다.
젬마는 경쟁 오픈소스 모델보다 나은 성능을 보여줬다는 게 구글의 설명이다. 젬마 7B의 대규모 다중작업 언어 이해(MMLU) 점수는 64.3점이었다. 메타가 개발한 ‘라마2 13B’ 모델의 점수(54.8점)를 웃돌았다. 더 적은 파라미터 수를 갖고 낸 결과다. 일반적으로 AI 모델은 파라미터 수와 성능이 비례한다.
구글은 ‘투트랙’ 전략으로 AI 시장을 공략한다. 폐쇄형 모델 시장에서는 제미나이를 앞세워 오픈AI와 마이크로소프트의 GPT 시리즈에 대응하고 있다. 젬마는 오픈소스 AI 시장에서 메타의 라마 시리즈와 경쟁하게 된다. 라마는 경량 모델로 구축이 쉽다는 장점을 내세워 기업 및 기관의 AI R&D 시장을 공략하고 있다. 메타가 지난여름 공개한 라마2는 파라미터 수에 따라 70억·130억·700억 개 등 세 가지 버전이 있다.
황동진 기자 radhwang@hankyung.com
구글은 22일 오픈소스 AI 모델 ‘젬마’를 공개했다. 젬마는 구글이 지난해 12월 공개한 초거대 AI인 ‘제미나이’로 만든 초경량 모델이다. 파라미터(매개변수) 수가 20억 개인 ‘젬마 2B’와 70억 개인 ‘젬마 7B’로 나뉜다. 이 모델들은 무료로 풀린다. 이용자는 젬마를 자유롭게 미세 조정해 AI 연구개발(R&D)에 쓸 수 있다. 상업적 사용도 가능하다.
젬마는 경쟁 오픈소스 모델보다 나은 성능을 보여줬다는 게 구글의 설명이다. 젬마 7B의 대규모 다중작업 언어 이해(MMLU) 점수는 64.3점이었다. 메타가 개발한 ‘라마2 13B’ 모델의 점수(54.8점)를 웃돌았다. 더 적은 파라미터 수를 갖고 낸 결과다. 일반적으로 AI 모델은 파라미터 수와 성능이 비례한다.
구글은 ‘투트랙’ 전략으로 AI 시장을 공략한다. 폐쇄형 모델 시장에서는 제미나이를 앞세워 오픈AI와 마이크로소프트의 GPT 시리즈에 대응하고 있다. 젬마는 오픈소스 AI 시장에서 메타의 라마 시리즈와 경쟁하게 된다. 라마는 경량 모델로 구축이 쉽다는 장점을 내세워 기업 및 기관의 AI R&D 시장을 공략하고 있다. 메타가 지난여름 공개한 라마2는 파라미터 수에 따라 70억·130억·700억 개 등 세 가지 버전이 있다.
황동진 기자 radhwang@hankyung.com