메타 AI책임자 "LLM, 인간의 추론·계획 능력에 도달 못할 것"

AI 수석 과학자 얀 르쾽 "논리에 대한 이해, 매우 제한적"
페이스북 모회사 메타의 인공지능(AI) 책임자가 챗GPT와 같은 생성형 AI 제품을 구동하는 거대언어모델(LLM)이 인간 지능에는 이르지 못할 것이라는 견해를 밝혔다. 메타의 AI 수석 과학자인 얀 르쾽은 23일자 파이낸셜타임스(FT) 인터뷰에서 LLM은 결코 인간처럼 추론하고 계획하는 능력을 달성하지 못할 것이라며 이같이 말했다.

이에 따라 기계 장치들에서 "초지능"(superintelligence)을 만들어 내기 위한 급진적인 방식의 대안에 집중하고 있다고 전했다.

르쾽은 AI 기술을 개척한 공로를 인정받아 2019년 컴퓨터 과학 분야의 노벨상으로 불리는 튜링상을 공동 수상했으며, 마크 저커버그 메타 최고경영자(CEO)의 핵심 고문 중 한 명으로 알려졌다. 그는 LLM에 대해 "논리에 대한 이해가 매우 제한적"이라며 "물리적 세계를 이해 못 하고 지속적인 기억력이 없으며, 용어에 관한 합리적 정의를 추론할 수도, 계층적으로(hierarchically) 계획할 수도 없다"고 전했다.

그는 고급 LLM에 의존해 인간 수준의 지능을 만드는 것에 반대한다며, 이러한 모델들은 올바른 학습 데이터가 제공돼야 정확하게 응답할 수 있어 본질적으로 안전하지 않다고 설명했다.

대신, 인간 수준의 지능을 갖춘 기계들을 구동할 완전히 새로운 세대의 AI 시스템 개발에 힘쓰고 있다며, 이런 비전을 달성하는 데는 10년이 걸릴 수 있다고 말했다. 그의 이번 발언은 메타와 경쟁사들이 더욱 발전된 LLM을 추진하는 가운데 나왔다.

오픈AI의 샘 올트먼 CEO와 같은 인물들은 범용인공지능(AGI·사람과 유사한 수준 또는 그 이상의 지능을 갖춘 AI)을 만드는데 LLM들이 중요한 단계를 제공할 것으로 믿고 있다.

그러나 르쾽은 LLM의 진화는 피상적이고 제한적이라며, AI가 사람처럼 유기적으로 결론을 내리는 것이 아니라 인간 엔지니어들이 해당 정보에 대해 교육하기 위해 개입할 때만 모델을 학습한다고 말했다. 대부분의 사람에게는 확실히 추론으로 보이나 대체로 많은 학습 데이터에서 축적된 지식을 활용하는 것이라면서, 한계에도 불구하고 LLM은 매우 유용하다고 덧붙였다.

르쾽은 메타의 자체 AI 연구소로 2013년에 설립된 '페어'(FAIR·Fundamental AI Research)에서 약 500명으로 이뤄진 팀을 이끌고 있다.

메타는 마이크로소프트(MS)가 지원하는 오픈AI, 구글을 포함하는 경쟁사들을 따라잡기 위해 자체 LLM 개발에 수십억 달러를 쏟아붓고 있다.

/연합뉴스