"터미네이터 만들 AI 발견"…이 편지가 오픈AI 쿠데타 발단
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
올트먼 해임 부른 'Q스타'
인간보다 똑똑한 AI인 'AGI' 단초
연구진들 "인류에 위협적" 서한
안전 중시한 이사회 멤버 움직여
'AI 천재' 수츠케버도 위험 경고
'급진파' 올트먼 축출로 이어져
인간보다 똑똑한 AI인 'AGI' 단초
연구진들 "인류에 위협적" 서한
안전 중시한 이사회 멤버 움직여
'AI 천재' 수츠케버도 위험 경고
'급진파' 올트먼 축출로 이어져
샘 올트먼 최고경영자(CEO)의 복귀로 오픈AI 사태가 일단락된 가운데, 범용인공지능(AGI)과 관련한 일부 연구진의 편지가 올트먼 해임 사태를 불러일으켰다는 주장이 나왔다. 빅테크에 맞서 인공지능(AI) 개발 속도전에 나선 올트먼과 가드레일(안전성)을 중시하는 이사회가 갈등을 빚던 중 연구진이 ‘강력한 AI’와 관련한 알고리즘을 발견한 것이 갈등의 불씨가 됐다는 설명이다.
로이터는 22일(현지시간) 소식통의 말을 인용해 “오픈AI의 몇몇 연구진이 이사회에 인류를 위협할 수 있는 강력한 AI ‘Q*’(Q스타)를 발견한 것에 대해 경고하는 편지를 보냈다”며 “이것이 올트먼 해임의 기폭제 역할을 했다”고 보도했다. 이 회사의 미라 무라티 최고기술책임자(CTO)도 최근 직원들에게 “Q스타로 불리는 획기적인 AI에 대한 편지가 이사회의 조치를 촉발했다”고 말한 것으로 알려졌다. Q스타는 오픈AI에서 AI 기술을 고도화하는 과정에 나온 것으로 AGI 탐색의 돌파구가 될 수 있다는 평가를 받은 것으로 알려졌다.
오픈AI에선 AGI를 ‘인간보다 똑똑한 AI 시스템’으로 정의한다. 익명을 요구한 관계자는 로이터와의 인터뷰에서 “Q스타로 불리는 새 모델은 방대한 컴퓨팅 자원을 바탕으로 특정 수학적 문제를 해결할 수 있었다”고 말했다. 업계에선 AI의 능력치를 난해한 수학 문제를 풀어내는 능력을 통해 가늠해보는 것으로 알려졌다.
올트먼 해임에 앞장섰던 일리야 수츠케버 수석과학자는 ‘AI 천재’로 불린다. 이런 그가 AI가 인류를 위협할 수 있다고 강조하는 점도 AGI에 대한 전문가들의 우려를 짐작해볼 수 있는 대목이다. 수츠케버는 2012년 AI ‘알렉스넷’으로 이미지 인식 대회에서 우승하면서 주목받았다. 이후 구글에서 바둑 AI ‘알파고’ 개발을 주도하는 등 AI 개발사에 여러 획을 그은 인물이다. 수츠케버는 평소 AI가 인류에게 위협이 될 수 있다는 의견을 밝혀왔다.
그의 스승인 제프리 힌턴 캐나다 토론토대 교수의 영향도 있다. ‘딥러닝의 아버지’로 불리는 힌턴 교수는 지난 5월 구글을 그만두며 “AI 발전으로 인한 위험성이 증가하고 있다”고 경고했다. 그는 당시 영국 BBC와의 인터뷰에서 “곧 AI가 인간의 지능을 넘어설 수도 있다”며 “AI로 인한 위험 중엔 악몽 같은 시나리오도 있다”고 말했다.
수츠케버와 힌턴이 경고 메시지를 지속해서 보내는 것은 AI의 ‘복제력’ 때문이다. 모든 복사본이 개별적으로 학습하면서 지식을 공유하는 만큼 인간이 결과물이 어떻게 도출되는지를 일일이 파악할 수 없다는 설명이다. 업계 관계자는 “AI를 운영하는 대규모언어모델(LLM)의 학습과 추론 과정은 매우 복잡해 현재도 작동 원리를 100% 파악하지 못하고 있다”며 “이런 상황이 지속될 경우 AI가 인류의 기대에 어긋나는 결과를 도출할 수 있으며, 이것이 세계 각국에서 안전한 AI를 위한 규제 마련에 나서는 이유”라고 설명했다.
실리콘밸리=최진석 특파원 iskra@hankyung.com
오픈AI에선 AGI를 ‘인간보다 똑똑한 AI 시스템’으로 정의한다. 익명을 요구한 관계자는 로이터와의 인터뷰에서 “Q스타로 불리는 새 모델은 방대한 컴퓨팅 자원을 바탕으로 특정 수학적 문제를 해결할 수 있었다”고 말했다. 업계에선 AI의 능력치를 난해한 수학 문제를 풀어내는 능력을 통해 가늠해보는 것으로 알려졌다.
올트먼 해임에 앞장섰던 일리야 수츠케버 수석과학자는 ‘AI 천재’로 불린다. 이런 그가 AI가 인류를 위협할 수 있다고 강조하는 점도 AGI에 대한 전문가들의 우려를 짐작해볼 수 있는 대목이다. 수츠케버는 2012년 AI ‘알렉스넷’으로 이미지 인식 대회에서 우승하면서 주목받았다. 이후 구글에서 바둑 AI ‘알파고’ 개발을 주도하는 등 AI 개발사에 여러 획을 그은 인물이다. 수츠케버는 평소 AI가 인류에게 위협이 될 수 있다는 의견을 밝혀왔다.
그의 스승인 제프리 힌턴 캐나다 토론토대 교수의 영향도 있다. ‘딥러닝의 아버지’로 불리는 힌턴 교수는 지난 5월 구글을 그만두며 “AI 발전으로 인한 위험성이 증가하고 있다”고 경고했다. 그는 당시 영국 BBC와의 인터뷰에서 “곧 AI가 인간의 지능을 넘어설 수도 있다”며 “AI로 인한 위험 중엔 악몽 같은 시나리오도 있다”고 말했다.
수츠케버와 힌턴이 경고 메시지를 지속해서 보내는 것은 AI의 ‘복제력’ 때문이다. 모든 복사본이 개별적으로 학습하면서 지식을 공유하는 만큼 인간이 결과물이 어떻게 도출되는지를 일일이 파악할 수 없다는 설명이다. 업계 관계자는 “AI를 운영하는 대규모언어모델(LLM)의 학습과 추론 과정은 매우 복잡해 현재도 작동 원리를 100% 파악하지 못하고 있다”며 “이런 상황이 지속될 경우 AI가 인류의 기대에 어긋나는 결과를 도출할 수 있으며, 이것이 세계 각국에서 안전한 AI를 위한 규제 마련에 나서는 이유”라고 설명했다.
실리콘밸리=최진석 특파원 iskra@hankyung.com