인공지능(AI)의 부작용에 대한 우려가 커지는 가운데 미국 정부가 챗GPT와 같은 생성형 AI 관련 규제를 마련하기 위해 시동을 걸었다. 유럽과 중국에 이어 AI의 안전한 개발을 위한 규제가 세계로 확산하는 국면이다.

미국 상무부 산하 국가통신정보청(NTIA)은 11일(현지시간) 새로운 AI 모델이 출시되기 전 잠재적 위험성을 내포하고 있는지 확인하는 인증 절차를 포함한 일련의 책임 조치를 도입하는 것에 대해 향후 60일 동안 공개 의견 수렴 절차를 진행한다고 밝혔다. 미국 정부 차원에서 AI 규제를 검토하는 것은 이번이 처음이다.

NTIA는 “식품과 자동차가 안전 보증 후 시장에 출시되는 것처럼 AI 시스템도 대중과 정부, 기업에 안전성을 입증할 필요가 있다”고 규제 필요성을 강조했다. NTIA를 이끄는 앨런 데이비슨 차관보는 “AI가 책임감 있게 사용될 수 있도록 가드레일을 설치해야 한다”고 말했다.

조 바이든 대통령은 지난주 백악관에서 과학자 자문위원회와 만난 자리에서 “생성형 AI가 위험한지는 두고봐야겠지만 그럴 수도 있다”며 “기술기업은 제품을 공개하기 전에 제품이 안전한지 확인해야 할 책임이 있다”고 말해 규제를 예고했다.

생성형 AI 기술을 주도하고 있는 오픈AI도 최근 블로그를 통해 “강력한 AI 시스템은 엄격한 안전성 평가를 받아야 한다”며 “필요한 규제를 취할 수 있도록 정부와 적극 협력하고 있다”고 규제 필요성에 공감을 나타냈다.

AI 규제는 세계적으로 확산하고 있다. 이날 니시무라 야스토시 일본 경제산업상은 “다음달 19일 히로시마에서 열리는 주요 7개국(G7) 정상회담에서 생성형 AI의 저작권 침해 등에 관한 규정을 논의할 것”이라고 밝혔다. 선진국을 중심으로 생성형 AI의 관리와 운용 등을 포함한 규정을 마련하는 방안을 논의할 계획이다.

중국 정부는 이날 자국의 생성형 AI가 사회주의의 핵심 가치를 반영해야 한다는 ‘생성형 AI 서비스 관리 방안’ 초안을 내놨다.

지난달 말에는 서방 국가 가운데 이탈리아가 처음으로 챗GPT 사용을 금지했다. AI 학습을 위해 개인정보를 수집하고 저장해 개인정보 보호 정책에 위배된다는 이유에서다.

이와 관련해 아일랜드, 영국, 독일, 프랑스, 캐나다 등도 관련 조사에 들어갔다.

실리콘밸리=서기열 특파원 philos@hankyung.com