샘 올트먼 오픈AI 최고경영자(CEO). / 사진=AFP
샘 올트먼 오픈AI 최고경영자(CEO). / 사진=AFP
생성형 인공지능(AI) ‘챗GPT’ 개발사 오픈AI가 법적으로 보장된 직원들의 내부고발을 막았다는 의혹이 제기됐다. 안전 테스트를 통과하지 못했음에도 챗GPT 최신 버전 출시를 강행했다는 보도가 나온 지 하루 만이다. AI 윤리 문제를 지적하는 직원들을 입막음하려는 테크 업체들의 시도가 이어지며 AI 규제 필요성에도 불이 붙을 전망이다.

"오픈AI, 내부고발 때 사전 동의 얻도록 강요했다"

사진=REUTERS
사진=REUTERS
13일(현지시간) 미국 워싱턴포스트(WP) 보도에 따르면 오픈AI의 내부 고발자들은 최근 미국 증권거래위원회(SEC)에 “오픈AI가 직원들에게 연방 정부의 내부 고발자 보호에 대한 권리를 포기하도록 요구하는 계약서에 서명하도록 했다”는 내용의 서한을 보냈다. 7장 분량의 이 서한에는 오픈AI는 자사 직원이 연방 당국에 정보를 공개하기 위해서는 회사의 사전 동의를 얻도록 요구했다는 내용이 담겼다.

미국에서 내부 고발을 금지시키는 건 연방법 위반이다. 미국에서는 1989년 내부 고발자 보호법(WPA)이 처음 제정된 이후 민·관 구분 없이 내부 고발자들이 법적으로 보호된다. 기업이나 정부 기관이 내부 고발을 막는 행위도 금지하고 있다. WP에 따르면 한 내부 고발자는 “AI 기업이 감시와 반대로부터 스스로를 보호한다면 안전하고 공익에 부합하는 기술을 개발할 수는 없을 것”이라고 말했다.

오픈AI의 안전에 대한 우려가 제기된 건 이번이 처음이 아니다. WP는 전날 오픈AI가 최신 생성형 AI 모델 ‘챗GPT 4-o’가 자체 보안 테스트를 통과하지 못했는데도 5월 출시를 강행했다고 보도했다. 이 보도에 따르면 챗GPT는 자체 테스트에서 사용자들에게 생물무기 제조법이나 사이버 공격 방법 등을 알려주기도 했다. 지난 4일엔 지난해 사내 메신저를 해킹당해 AI 기술 설계도에 대한 세부 정보를 해킹당했지만 수사 기관에 알리지 않았다는 폭로도 나왔다.

오픈AI에서 안전 논란이 두드러지는 이유는 공익기업을 표방했던 오픈AI의 최근 변화에 있다. 오픈AI는 2015년 비영리 회사로 출범했지만 2019년 영리 법인 자회사를 설립했다. 영리 법인 설립 때부터 지난해까지 총 130억달러(약 17조9000억원)를 투자한 마이크로소프트(MS)는 오픈AI의 순수익에 대한 지분의 49%를 갖고 있기도 하다. 이 가운데 오픈AI는 최근 AI의 장기적인 위험에 대해 연구하는 내부 안전팀을 사실상 해체한 것으로 알려졌다.

AI 업체 규제 논란 재점화

사진=REUTERS
사진=REUTERS
AI의 위험성에 대한 경고는 이어지고 있다. 지난달 오픈AI와 구글 딥마인드의 전현직 직원 13명은 ‘경고할 권리’라는 이름의 웹사이트에 성명을 올리고 “AI의 위험성은 기존 불평등을 심화하는 것에서부터 조작과 잘못된 정보, 잠재적으로 인간의 멸종을 초래하는 자율적인 AI 시스템의 통제 상실까지 다양하다”고 밝혔다. 이어 “AI 기업은 이윤 추구를 목표로 해 제대로 된 감독을 하지 못하고 기업 내부의 규제 시스템만으로는 문제를 해결할 수 없다”고 덧붙였다.

내부 고발자 입막음 논란에 오픈AI는 즉각 반박하고 나섰다. 한나 왕 오픈AI 대변인은 “우리 내부 고발자 정책은 임직원들의 폭로 권리를 보호한다”며 “직원들은 행정명령에 언급된 종류의 위험을 가장 먼저 탐지하고 경고할 수 있는 위치에 있다”고 밝혔다.

AI 업체들을 타깃으로 한 규제를 강화해야 한다는 목소리도 힘을 얻을 전망이다. AI가 인류 전반에 끼칠 수 있는 영향이 상당히 큰데도 불구하고 기술이 빠르게 발전하며 현행법으로는 규제하기 어려운 ‘회색 지대’가 크기 때문이다. 크리스 베이커 변호사는 WP에 “규제 당국이 내부 고발자들에 의존할 수밖에 없는 상황에서 테크 업체들은 소송 비용이 정보 유출로 인한 비용보다 적다고 느낄 것”이라고 말했다.

실리콘밸리=송영찬 특파원 0full@hankyung.com