사진 : 오픈AI
사진 : 오픈AI
챗GPT 개발사 오픈AI가 인공지능(AI) 기술의 부작용과 위험을 방지하기 위한 전담팀을 꾸렸다. 이와 함께 회사 경영진이 안전하다고 판단하더라고 이사회가 AI 모델 출시를 보류할 수 있도록 의사결정 시스템도 재정비했다.

오픈AI는 18일(현지시간) 가이드라인을 통해 사내 AI 기술을 모니터링하고 위험 요소가 발견될 시 이를 회사에 경고하는 ‘대비팀’을 꾸렸다고 밝혔다. 이 팀은 MIT의 AI 교수인 알렉산더 마드리가 이끈다. 잠재적인 사이버 보안 문제를 포함해 4가지 범주에 걸쳐 AI 시스템이 어떻게 작동하는지 파악할 예정이다. 화학, 핵, 생물학, 해킹 등을 중심으로 모든 위험을 줄이는 게 목적이다. 오픈AI는 “수천억 달러의 경제적 피해를 초래하거나 많은 개인에게 심각한 피해, 사망을 초래할 수 있는 모든 위험성을 모니터링할 것”이라고 설명했다.

대비팀은 오픈AI의 AI 안전 관련 3개 조직 중 가장 최근에 추가됐다. 이 회사는 대비팀 외에 최신 대규모언어모델(LLM) GPT-4와 같은 현재 제품의 안전을 검토하는 ‘안전 시스템팀’, 미래에 나타날 수 있는 가상의 AI 시스템에 초점을 맞춘 ‘초연결팀’이 있다.

AI 기술의 성급한 상업화를 차단하기 위한 안전장치도 마련했다. 오픈AI 경영진은 대비팀의 보고서를 바탕으로 새로운 AI 모델 출시 여부를 결정하게 된다. 경영진이 안전하다고 판단한다 해도 이사회가 이를 거부할 수 있도록 했다.

실리콘밸리=최진석 특파원 iskra@hankyung.com