사진=REUTERS
사진=REUTERS
페이스북 모회사 메타가 최신 인공지능(AI) 모델을 출시했다. 이전 모델들과 마찬가지로 오픈AI·구글 등 경쟁사들과 다른 오픈소스 모델이다. 높은 성능과 무료라는 점을 앞세워 AI 시장 판도를 뒤집겠다는 의도로 해석된다.

메타는 23일(현지시간) 새로운 버전의 대규모언어모델(LLM) ‘라마3.1’을 출시했다고 발표했다. 최신 버전의 라마는 지난 4월 출시된 ‘라마 3’ 이후 3달만이다. 메타는 “이번 모델은 이전 버전보다 더 많은 데이터로 학습돼 성능이 크게 향상됐다”며 “더 크고 강력한 AI 모델을 활용하려는 기업 등에 도움이 될 것”이라고 밝혔다.

라마3.1은 이전 모델과 비교해 성능이 대폭 향상됐다. 지원 가능 언어에 8개의 언어가 추가됐다. 이용자가 사람의 외모 등을 설명하면 실제 사진처럼 보이는 이미지를 생성하는 기능도 생겼다. 메타는 라마3.1이 AI 모델 평가 테스트인 ‘대규모 다중작업 언어 이해(MMLU)’에서 오픈AI의 ‘GPT-4o’, 앤스로픽의 ‘클로드3.5 소네트’를 능가했다고 강조했다.

이번 모델은 3가지 종류로 출시됐다. 가장 큰 버전은 라마 3.1 405B로, 파라미터(매개변수)가 4050억개에 달한다. GPT-3의 1750억개를 크게 능가하는 수준이다. 파라미터가 700억개인 중형 모델 ‘라마3.1 70B’와 소형 모델인 ‘라마3.1 8B’도 출시됐다.

메타는 최신 AI 모델도 오픈소스라는 점을 강조했다. 마크 저커버그 메타 최고경영자(CEO)는 “오늘날 몇몇 테크기업들은 폐쇄형 모델을 개발하고 있지만 오픈소스가 그 격차를 빠르게 좁혀가고 있다”며 “내년부터는 향후 출시될 라마 모델이 업계에서 가장 진보한 모델이 될 것”이라고 말했다. 이어 “이미 개방성, 수정 가능성, 비용 효율성 측면에서는 라마가 선두를 달리고 있다”고 덧붙였다. 폐쇄형 모델을 고집하고 있는 오픈AI, 구글, 앤스로픽 등 핵심 경쟁사들을 의식한 발언으로 풀이된다.

최신형 라마가 3달 만에 성능을 끌어올릴 수 있었던 배경엔 메타와 엔비디아 간 전략적 제휴가 있다. 메타는 이번 라마3.1 학습에 엔비디아의 최신 그래픽처리장치(GPU) ‘H100’ 1만6000개를 활용했다고 밝혔다. 메타는 올해 초 AI 연구·개발을 위해 연말까지 H100 35만개를 구입하겠다고 밝혔다. 3월에는 저커버그 CEO와 젠슨 황 엔비디아 CEO가 외투를 바꿔입는 사진을 올리며 친분을 과시하기도 했다.

저커버그 CEO는 AI에 대한 투자를 확대하겠다는 의지도 드러냈다. 그는 이날 블룸버그통신과의 인터뷰에서 “많은 기업이 지금 AI에 과잉 투자하고 있다”면서도 “뒤처지면 향후 10~15년간 가장 중요한 기술에 대한 입지를 잃는 것이기 때문에 투자하는 모든 회사가 합리적인 결정을 내리고 있다고 생각한다”고 말했다.

실리콘밸리=송영찬 특파원 0full@hankyung.com