"AI 오용 막자"… G7 '국제 행동 강령' 내놓는다
입력
수정
"기업, AI 기술 사후 관리에도 집중 투자해야"G7이 생성형 인공지능(AI) 기술의 위험과 잠재적 오용 가능성을 완화하기 위해 기업에 대한 국제 행동 강령을 내놓는다. 이 강령이 전 세계 주요 국가에서 AI 기술을 규제하는 법안 마련의 기준점 역할을 할 것으로 전망된다.
29일(현지시간) 로이터는 입수한 문건을 근거로 G7이 첨단 AI 시스템을 개발하는 기업에 대한 행동강령에 30일 합의할 예정이라고 보도했다. 11개 항목으로 구성된 강령은 기업이 AI 수명주기 전반에 걸쳐 위험을 식별, 평가 및 완화하기 위한 적절한 조처를 해야 한다고 적시했다. 그뿐만 아니라 기업은 AI 시스템의 기능, 제한 사항, 사용 및 오용에 대한 공개 보고서를 게시하고 강력한 보안 통제에 투자할 것을 요구했다.로이터가 확인한 G7 문서에 따르면 “11개 항목은 전 세계적으로 안전하고 신뢰할 수 있는 AI를 장려하는 것을 목표로 한다”며 “가장 발전된 기반 모델 및 생성 AI 시스템을 포함해 가장 발전된 AI 시스템을 개발하는 조직의 행동에 대한 자발적인 지침을 제공할 것”이라고 설명했다.
캐나다, 프랑스, 독일, 이탈리아, 일본, 영국, 미국과 유럽연합(EU)으로 구성된 G7 경제 지도자들은 앞서 지난 5월 일본에서 열린 G7 정상회의에서 AI 공동 규제안인 ‘히로시마 AI 프로세스’ 논의를 시작했다. 그동안 EU는 강력한 AI 법을 통한 신기술 규제에 앞장섰고, 일본과 미국 등은 경제 성장을 촉진하기 위해 상대적으로 간섭을 최소화하는 접근 방식을 취하는 등 입장차를 보여왔다.
블룸버그에 따르면 11개 항목은 △AI 제품 배포 전후 레드팀을 포함한 내·외부 테스트로 보안취약점 확인 △안전·보안 평가보고서 공개 △개인정보보호 및 위험관리 정책 공개, 물리·정보 보안 조치 구현 △워터마크 등으로 AI 생성 콘텐츠 식별 △AI 안전성 연구 투자 △세계적 과제 해결을 위한 AI 시스템 개발 우선순위 지정 △테스트 및 콘텐츠 인증에 대한 국제표준 채택 △IP(지적재산)·개인정보 보호를 위해 시스템으로 유입되는 데이터 제어 등으로 구성됐다.이번에 합의된 내용은 자발적인 행동 강령으로 구속력은 없다. 생성형 AI와 관련한 개인정보보호 문제와 보안 위험 속에서 주요 국가가 AI를 관리하는 기준점이 될 것이라고 로이터는 설명했다. 베라 요우로바 EU 집행위원회 가치·투명성 담당 부집행위원장은 이달 초 일본 교토에서 열린 인터넷 거버넌스 포럼에서 “행동 강령이 안전을 보장하는 강력한 기반이며 규제가 마련될 때까지 가교 역할을 할 것”이라고 말했다.
실리콘밸리=최진석 특파원 iskra@hankyung.com