미국 정부가 챗GPT 같은 생성형 인공지능(AI)에 대한 규제를 사전 검토하기 시작했다. 유해한 정보를 퍼뜨리거나 사람을 차별하는 등의 부작용에 대한 우려가 커지는 상황에서 이를 사전에 막기 위한 규제가 필요한지 검토하는 첫 단계다.

미국 상무부는 11일(현지시간) 새로운 AI 모델이 출시되기 전 잠재적인 위험성을 갖고 있는지를 확인하기 위한 인증 절차를 거쳐야 하는지를 포함해 이른바 책임 조치에 대한 의견을 공식적으로 요청했다.

상무부 산하 국가통신정보국(NTIA)를 이끄는 앨런 데이비슨 국장은 "AI가 책임감 있게 사용되고 있는지 확인하기 위해 가드레일을 설치해야 한다"고 말했다. NTIA는 법적 규제를 제정하거나 시행하는 곳이 아니며 기술정책에 대해 대통령에게 조언하는 역할을 하는 기관이다. NTIA는 "식품과 자동차가 적절한 안전 보증 후 시장에 출시되는 것처럼 AI 시스템도 대중, 정부, 기업에 보증을 제공해야 한다"고 규제의 필요성을 강조했다.

생성형 AI를 개발하고 있는 테크업체는 이같은 움직임에 지지를 표했다. 챗GPT를 개발한 오픈AI의 최대 투자자인 마이크로소프트는 성명을 내고 "생성형 AI에 대한 피드백을 광범위하게 받아들이고, 문제를 신중하게 고려하고, 신속하게 행동하기 위해 이런 유형의 공공정책을 환영해야 한다"고 밝혔다.

미 의회에서는 생성형 AI의 잠재적 위험에 대한 우려의 목소리가 높았다. 리처드 블루멘탈 민주당 상원의원은 "AI가 할 수 있는 폭발적인 선과 악에 대해 매우 활발한 대화가 진행되고 있다"며 "의회에 있어 매우 복잡하면서도 매우 중요한 일이며 엄청나게 긴급한 문제다"라고 밝혔다.

에릭 슈미트 전 구글 최고경영자(CEO)는 미국의 기술적 우위를 지키면서도 민주적 가치를 따르는 개발과 혁신을 이어가야 한다는 입장이다. 미 의회에서 AI의 국가안보 영향에 대한 위원회 의장을 지냈던 슈미트는 지난달 미 하원 청문회에서 "미국의 과학자와 기업들이 이 미래 기술을 개발하게 하면 우리가 원하는 것에 가까운 것을 얻게 될 것"이라면서도 "다만 잘못 이용될 수 있는 가장자리에서 일할 수도 있다"고 말했다.

조 바이든 대통령은 지난주 백악관에서 이 주제에 대해서 과학자 자문위원회와 이 주제를 논의했다. 이 자리에서 생성형 AI가 위험하냐는 질문에 바이든 대통령은 "아직은 두고봐야 하지만 그럴 수도 있다"고 밝혔다. 자문그룹에 포함된 마이크로소프트와 구글의 대표자들은 문제를 일으킬 수 있는 특정 질문에 답하지 않도록 챗봇을 프로그래밍 하고 있다고 밝혔다.

생성형 AI 기술을 주도하고 있는 오픈AI도 최근 블로그를 통해 "강력한 AI 시스템은 엄격한 안전성 평가를 받아야 한다"며 "필요한 규제를 취할 수 있도록 정부와 적극 협력하고 있다"고 밝혔다.

실리콘밸리=서기열 특파원 philos@hankyung.com