오픈AI 안전성 우려 제기..."안전한 AI위해 정부 개입 필요"

일리야 수츠케바 이어 안전 책임자 잰 레이케도 떠나
"안전 문화와 프로세스가 제품에 밀려" 비판
전 오픈AI 이사 "올트먼 스타트업펀드 참여 숨겨"
사진=AFP
오픈AI의 안전 관리에 대한 우려이 제기되고 있다. 인공지능(AI)의 안전성을 책임지던 조직을 해체하고 비영리단체 성격을 줄이면서 상업단체로 전환한데 따른 것이다.

29일(현지시간) 블룸버그에 따르면, 오픈AI에서 AI의 개발에서 안전성과 윤리성 등을 검토하던 슈퍼얼라인먼트팀이 해체되면서 일리야 수츠케바와 이 팀의 공동책임자였던 젠 레이커도 오픈AI를 떠났다.레이케는 경쟁사인 앤스로픽에 합류한다고 자신의 X에 게시한 글에서 밝혔다. 그는 “안전 문화와 프로세스가 제품의 뒷자리를 차지했다”며 오픈AI를 비판했다.

앤스로픽에서 레이케의 작업은 그가 오픈AI에서 작업한 것과 유사한 주제, 즉 초인적 AI 모델을 제어하는 것과 관련된 안전 문제에 초점을 맞출 것이라고 그는 말했다. 아직 이 같은 AI 모델은 존재하지 않지만 오픈AI와 앤스로픽 등의 기업에서는 향후 구축할 경우 어떻게 제어할 수 있는지 연구를 진행하고 있다. 전 오픈AI 직원들로 구성된 앤스로픽은 AI의 안전성에 더욱 중점을 둔 회사로 알려져있다.

안전 관련 팀을 해체한 오픈AI는 전 날 최고경영자(CEO)인 샘 올트먼을 포함해 이사회 멤버가 이끄는 안전위원회를 구성한다고 발표했다.이에 대해 DA데이빗슨의 분석가 길 루리아는 오픈AI가 "잘 정의되지 않은 비영리단체에서 상업적 단체로의 전환을 완료했다는 의미"라고 평가했다. 즉 제품 개발을 간소화하는데 도움이 될 것이라는 지적이다.

오픈AI는 슈퍼얼라인먼트 팀을 만든지 1년도 안된 이달초 이 팀을 해산했으며 일부 팀 구성원은 다른 그룹으로 재배치됐다고 CNBC가 보도했었다.

이에 앞서 전 오픈AI 이사회 회원인 헬렌 토너는 ‘더 TED AI쇼’라는 팟캐스트에서 자신을 포함한 이사회가 작년 11월 샘 올트먼을 해고한 사건에 대한 배경을 설명했다. 블룸버그가 29일 보도한 이 팟캐스트에 따르면, 토너는 샘 올트먼이 이사회에 챗GPT의 출시에 대해 알리지 않았으며 AI의 안전성 확보에 대한 리더십에도 문제가 있었다고 비판했다. 토너는 올트먼이 오픈AI의 스타트업 펀드에 참여한 사실을 공개하지 않았고 이사들과의 상호작용에서 일관되게 솔직하지 않았다고 지적했다.

샘 올트먼이 이사회에서 갑작스럽게 해고된 후 며칠간 직원들도 동반 사임하겠다고 위협했고 올트먼은 복직됐으며 토너와 다른 이사들이 이사회를 떠났다.

지난 주말 ‘이코노미스트’지는 토너와 또 다른 전 이사인 타샤 맥컬리를 인용하면서 오픈AI는 스스로 규제할 수 없으며 강력한 AI가 안전하게 개발되도록 정부가 개입해야 한다고 말했다.

김정아 객원기자 kja@hankyung.com