'AI 행동강령' 만든 G7…"기업이 부작용 책임져라" 압박

'히로시마 AI 프로세스' 합의…기술규제 '가이드라인' 역할

AI 생성물에 워터마크 도입 등
오용 막을 11개 항목으로 구성
"기업들이 가짜뉴스 대비해야"

韓도 디지털 권리장전 세우고
내달 영국 'AI 정상회의' 참석
인공지능(AI) 위험성 논란에 세계 각국이 발 빠르게 대응하고 있다. 가짜뉴스, 딥페이크 등의 부작용을 막기 위한 규제 움직임이 빨라지는 모양새다. 캐나다, 프랑스, 독일, 이탈리아, 일본, 영국, 미국으로 구성된 주요 7개국(G7)과 유럽연합(EU)이 AI 기술의 위험과 잠재적 오용 가능성을 완화하기 위해 기업에 대한 국제 행동 강령을 내놓기로 했다. 이 강령이 전 세계 주요 국가에서 AI 기술을 규제하는 법안 마련의 기준점 역할을 할 것으로 전망된다. 한국 정부도 디지털 권리장전을 기반으로 새로운 디지털 시대 질서 정립에 기여한다는 계획을 내놓았다.

G7 “기업이 안전한 AI 만들어야”

30일 일본 정부는 지난 5월 일본 히로시마에서 연 G7 정상회의를 계기로 추진해온 ‘히로시마 AI 프로세스’에 따라 첨단 AI 개발 조직에 대한 국제 지침 및 행동강령이 합의됐다고 밝혔다. 로이터에 따르면 11개 항목으로 구성된 강령은 기업이 AI 수명주기 전반에 걸쳐 위험을 식별, 평가 및 완화하기 위해 적절한 조처를 해야 한다고 적시했다. 기업이 AI 시스템의 기능, 제한 사항, 사용 및 오용에 관한 공개 보고서를 게시하고 강력한 보안 통제에 투자해야 한다는 내용도 담겼다.

G7 정상은 이날 성명문을 통해 “생성형 AI인 챗GPT 등 첨단 AI의 기회와 변혁 가능성을 강조하며 이와 함께 위험을 관리해 법의 지배와 민주주의 가치를 포함한 공유된 원칙을 지킬 필요성을 인식한다”고 선언했다.

11개 항목은 △AI 제품 배포 전후 내·외부 테스트를 통한 보안 취약점 확인 △안전·보안 평가 보고서 공개 △개인정보보호 및 위험관리 정책 공개 △물리·정보 보안 조치 구현 △워터마크 등으로 AI 생성 콘텐츠 식별 △AI 안전성 연구 투자 △세계적 과제 해결을 위한 AI 시스템 개발 우선순위 지정 △테스트 및 콘텐츠 인증에 대한 국제표준 채택 △지식재산(IP)·개인정보 보호를 위해 시스템으로 유입되는 데이터 제어 등이다.이번 행동 강령은 구속력은 없지만, 주요 국가가 AI를 관리하는 기준점 역할은 할 수 있다는 게 전문가들의 설명이다. 베라 요우로바 EU 집행위원회 가치·투명성 담당 부집행위원장은 이달 초 일본 교토에서 열린 인터넷 거버넌스 포럼에서 “행동 강령이 안전을 보장하는 강력한 기반이며 규제가 마련될 때까지 가교 구실을 할 것”이라고 말했다.

한국 정부도 ‘디지털 권리장전’ 확산

‘AI의 위험성’을 두고 주요 국가 간엔 온도 차가 있다. 미국 빅테크 기업에 시장을 장악당한 EU는 강력한 AI 법을 통한 신기술 규제에 앞장서 왔다. 반면 미국과 일본 등은 경제 성장을 촉진하기 위해 상대적으로 간섭을 최소화하는 접근 방식을 취했다.

하지만 작년 11월 오픈AI의 챗GPT를 시작으로 올해 생성 AI 서비스가 우후죽순 등장하면서 위험성 우려가 커지기 시작했다. 특히 올해 5월 미국 국방부 청사에서 폭발이 일어난 가짜 사진이 주가를 출렁이게 하면서 ‘안전한 AI’에 대한 논의가 급물살을 탔다.한국 정부도 지난달 마련한 ‘디지털 권리장전’을 기반으로 AI의 신뢰성과 안전성을 확보한다는 계획이다. 과학기술정보통신부는 이날 디지털 권리장전의 후속 조치를 논의하기 위한 관계부처 회의를 열었다. 기획재정부, 교육부 등 24개 부처가 참여한 이날 회의에선 범정부 차원의 디지털 심화 대응 정책 추진 계획을 마련하기로 했다. 유엔 차원의 디지털 국제 규범 ‘글로벌 디지털 협약(GDC)’에 디지털 권리장전 내용을 반영하고 다음달 1~2일 영국에서 열리는 AI 안전 정상회의에 참석해 주요국과 디지털 규범·질서에 관한 협력도 강화할 방침이다.

실리콘밸리=최진석 특파원/이승우 기자 iskra@hankyung.com