오픈AI 안전성 우려 제기..."안전한 AI위해 정부 개입 필요"
입력
수정
일리야 수츠케바 이어 안전 책임자 잰 레이케도 떠나오픈AI의 안전 관리에 대한 우려이 제기되고 있다. 인공지능(AI)의 안전성을 책임지던 조직을 해체하고 비영리단체 성격을 줄이면서 상업단체로 전환한데 따른 것이다.
"안전 문화와 프로세스가 제품에 밀려" 비판
전 오픈AI 이사 "올트먼 스타트업펀드 참여 숨겨"
29일(현지시간) 블룸버그에 따르면, 오픈AI에서 AI의 개발에서 안전성과 윤리성 등을 검토하던 슈퍼얼라인먼트팀이 해체되면서 일리야 수츠케바와 이 팀의 공동책임자였던 젠 레이커도 오픈AI를 떠났다.레이케는 경쟁사인 앤스로픽에 합류한다고 자신의 X에 게시한 글에서 밝혔다. 그는 “안전 문화와 프로세스가 제품의 뒷자리를 차지했다”며 오픈AI를 비판했다.
앤스로픽에서 레이케의 작업은 그가 오픈AI에서 작업한 것과 유사한 주제, 즉 초인적 AI 모델을 제어하는 것과 관련된 안전 문제에 초점을 맞출 것이라고 그는 말했다. 아직 이 같은 AI 모델은 존재하지 않지만 오픈AI와 앤스로픽 등의 기업에서는 향후 구축할 경우 어떻게 제어할 수 있는지 연구를 진행하고 있다. 전 오픈AI 직원들로 구성된 앤스로픽은 AI의 안전성에 더욱 중점을 둔 회사로 알려져있다.
안전 관련 팀을 해체한 오픈AI는 전 날 최고경영자(CEO)인 샘 올트먼을 포함해 이사회 멤버가 이끄는 안전위원회를 구성한다고 발표했다.이에 대해 DA데이빗슨의 분석가 길 루리아는 오픈AI가 "잘 정의되지 않은 비영리단체에서 상업적 단체로의 전환을 완료했다는 의미"라고 평가했다. 즉 제품 개발을 간소화하는데 도움이 될 것이라는 지적이다.
오픈AI는 슈퍼얼라인먼트 팀을 만든지 1년도 안된 이달초 이 팀을 해산했으며 일부 팀 구성원은 다른 그룹으로 재배치됐다고 CNBC가 보도했었다.
이에 앞서 전 오픈AI 이사회 회원인 헬렌 토너는 ‘더 TED AI쇼’라는 팟캐스트에서 자신을 포함한 이사회가 작년 11월 샘 올트먼을 해고한 사건에 대한 배경을 설명했다. 블룸버그가 29일 보도한 이 팟캐스트에 따르면, 토너는 샘 올트먼이 이사회에 챗GPT의 출시에 대해 알리지 않았으며 AI의 안전성 확보에 대한 리더십에도 문제가 있었다고 비판했다. 토너는 올트먼이 오픈AI의 스타트업 펀드에 참여한 사실을 공개하지 않았고 이사들과의 상호작용에서 일관되게 솔직하지 않았다고 지적했다.
샘 올트먼이 이사회에서 갑작스럽게 해고된 후 며칠간 직원들도 동반 사임하겠다고 위협했고 올트먼은 복직됐으며 토너와 다른 이사들이 이사회를 떠났다.
지난 주말 ‘이코노미스트’지는 토너와 또 다른 전 이사인 타샤 맥컬리를 인용하면서 오픈AI는 스스로 규제할 수 없으며 강력한 AI가 안전하게 개발되도록 정부가 개입해야 한다고 말했다.
김정아 객원기자 kja@hankyung.com