'오픈AI 쿠데타' 이후 반년…잇단 퇴사로 내부 분열 지속 드러나
입력
수정
샘 올트먼의 리더십과 AI 안전 둘러싸고 논쟁 지속 챗GPT 개발사인 오픈AI에서 주요 인사가 잇따라 퇴사하면서 '쿠데타' 이후 아직도 내부가 분열된 상태임이 드러나고 있다. 파이낸셜타임스(FT)는 오픈AI 최고경영자(CEO)인 샘 올트먼을 내쫓으려는 시도가 무산되고 6개월이 지났지만 인공지능(AI)을 빨리 상용화하려는 이들과 안전을 강조하는 이들 사이에 대립이 계속되고 있다고 30일(현지시간) 보도했다.
올트먼이 제품 상용화에 초점을 맞춰서 돌진하는 것을 보고 반대편에선 적절히 제어할 수 없는 초지능이 만들어질 것이란 두려움을 품고 있다.
FT는 최근 고위급 인사가 연이어 회사를 떠나면서 이런 갈등이 다시 외부에 공개됐다고 짚었다. 대표적인 사례는 오픈AI 공동 창립자인 일리야 수츠케버의 사임이다.
FT는 수츠케버가 '오픈AI가 올트먼 등 현재 지도부 아래에서 안전하고 유익한 인공범용지능(AGI)을 개발할 것으로 확신한다'는 입장을 밝혔지만 쿠데타를 촉발한 회사 내부의 긴장이 해소되지 않은 것으로 보인다고 말했다.
수츠케버는 오픈AI 이사를 지낸 헬렌 토너 조지타운대 보안·신흥기술센터 연구원과 함께 작년 11월 올트먼 해임을 주도했다. 올트먼은 며칠 후 복귀했지만 토너와 수츠케버는 이사회에서 빠졌다.
수츠케버와 함께 슈퍼얼라이먼트 팀을 이끌어온 임원 얀 레이케도 최근 회사를 떠났다.
이 팀은 초지능 AI를 제어해서 인간에게 유용하고 해롭지 않은 방식으로 행동하도록 만드는 방안을 연구하는 안전팀이다. 레이케는 안전이 뒤로 밀려나면서 회사 윗선과의 차이가 더는 참을 수 없는 수준에 이르렀다고 털어놨다.
그는 경쟁사인 앤스로픽에 합류했다.
오픈AI의 AI 정책 연구원인 그레천 크루거는 이달에 퇴사하면서 엑스(X·옛 트위터)에 회사의 의사결정 절차 등과 관련해 여러 우려 사항을 공개하기도 했다.
토너는 이번주 팟캐스트 '테드 AI 쇼'에 출연해 올트먼 해임을 시도한 배경에 관해 처음으로 털어놨다.
그는 "올트먼은 수년간 정보를 숨기고, 회사에서 일어나는 일을 왜곡하고 어떤 경우에는 노골적으로 거짓말을 함으로써 이사회가 실제 일을 하는 것을 정말 어렵게 만들었다"고 말했다.
오픈AI는 레이케가 떠난 뒤 생성형 AI 관련 기술 개발 과정에 안전 및 윤리 문제를 점검하기 위해 '새로운 안전·보안위원회'(safety and security)를 구성했다고 밝혔다.
하지만 토너와 또 다른 오픈AI 전 이사 타샤 매콜리는 부정적인 입장을 밝혔다.
이들은 최근 영국 이코노미스트지 기고문에서 "외부 감시 없이 이런 식으로 자체적으로 규제해봐야 결국 시행되지 않을 것이다"라며 "특히 막대한 이익이 눈앞에 있다면 더욱 그렇다"고 말했다.
오픈AI 한 관계자는 FT에 최대 후원자인 마이크로소프트가 지난해 올트먼 축출 소동 이후 제품 상용화를 우선시하라고 압력을 가했다고 전했다.
오픈AI의 글로벌 부문 부사장인 안나 마칸주는 최근 퇴사가 잇따르자 정책 입안자들이 오픈AI가 안전에 관해 진지한지 알아보려고 연락을 해왔다고 말했다. 그는 "안전은 오픈AI 전반의 여러 팀의 책임이다"라며 "미래에 AI가 훨씬 더 변혁적일 가능성이 크며, 규제 방법을 두고 의견 차이가 많을 것"이라고 덧붙였다.
/연합뉴스
올트먼이 제품 상용화에 초점을 맞춰서 돌진하는 것을 보고 반대편에선 적절히 제어할 수 없는 초지능이 만들어질 것이란 두려움을 품고 있다.
FT는 최근 고위급 인사가 연이어 회사를 떠나면서 이런 갈등이 다시 외부에 공개됐다고 짚었다. 대표적인 사례는 오픈AI 공동 창립자인 일리야 수츠케버의 사임이다.
FT는 수츠케버가 '오픈AI가 올트먼 등 현재 지도부 아래에서 안전하고 유익한 인공범용지능(AGI)을 개발할 것으로 확신한다'는 입장을 밝혔지만 쿠데타를 촉발한 회사 내부의 긴장이 해소되지 않은 것으로 보인다고 말했다.
수츠케버는 오픈AI 이사를 지낸 헬렌 토너 조지타운대 보안·신흥기술센터 연구원과 함께 작년 11월 올트먼 해임을 주도했다. 올트먼은 며칠 후 복귀했지만 토너와 수츠케버는 이사회에서 빠졌다.
수츠케버와 함께 슈퍼얼라이먼트 팀을 이끌어온 임원 얀 레이케도 최근 회사를 떠났다.
이 팀은 초지능 AI를 제어해서 인간에게 유용하고 해롭지 않은 방식으로 행동하도록 만드는 방안을 연구하는 안전팀이다. 레이케는 안전이 뒤로 밀려나면서 회사 윗선과의 차이가 더는 참을 수 없는 수준에 이르렀다고 털어놨다.
그는 경쟁사인 앤스로픽에 합류했다.
오픈AI의 AI 정책 연구원인 그레천 크루거는 이달에 퇴사하면서 엑스(X·옛 트위터)에 회사의 의사결정 절차 등과 관련해 여러 우려 사항을 공개하기도 했다.
토너는 이번주 팟캐스트 '테드 AI 쇼'에 출연해 올트먼 해임을 시도한 배경에 관해 처음으로 털어놨다.
그는 "올트먼은 수년간 정보를 숨기고, 회사에서 일어나는 일을 왜곡하고 어떤 경우에는 노골적으로 거짓말을 함으로써 이사회가 실제 일을 하는 것을 정말 어렵게 만들었다"고 말했다.
오픈AI는 레이케가 떠난 뒤 생성형 AI 관련 기술 개발 과정에 안전 및 윤리 문제를 점검하기 위해 '새로운 안전·보안위원회'(safety and security)를 구성했다고 밝혔다.
하지만 토너와 또 다른 오픈AI 전 이사 타샤 매콜리는 부정적인 입장을 밝혔다.
이들은 최근 영국 이코노미스트지 기고문에서 "외부 감시 없이 이런 식으로 자체적으로 규제해봐야 결국 시행되지 않을 것이다"라며 "특히 막대한 이익이 눈앞에 있다면 더욱 그렇다"고 말했다.
오픈AI 한 관계자는 FT에 최대 후원자인 마이크로소프트가 지난해 올트먼 축출 소동 이후 제품 상용화를 우선시하라고 압력을 가했다고 전했다.
오픈AI의 글로벌 부문 부사장인 안나 마칸주는 최근 퇴사가 잇따르자 정책 입안자들이 오픈AI가 안전에 관해 진지한지 알아보려고 연락을 해왔다고 말했다. 그는 "안전은 오픈AI 전반의 여러 팀의 책임이다"라며 "미래에 AI가 훨씬 더 변혁적일 가능성이 크며, 규제 방법을 두고 의견 차이가 많을 것"이라고 덧붙였다.
/연합뉴스