금융 AI 가이드라인 나왔다…윤리원칙 등 '3중 장치' 마련

금융위원회는 8일 제1차 디지털 금융협의회 데이터분과회의를 열고 ‘금융분야 AI 가이드라인’을 발표했다. 가이드라인에는 △AI 윤리 원칙 마련 △AI 조직 구성 △위험관리 정책 수립이라는 3중 안전장치에 대한 내용이 담겼다.

먼저 AI 금융거래 및 대고객서비스를 적용한 모든 금융업권은 AI 윤리 원칙을 마련해야 한다고 명시했다. 회사별로 가치와 AI 활용 상황 등을 고려해 AI 서비스 개발·운영 원칙과 기준을 수립해야 한다. 또 AI의 잠재적 위험을 평가·관리할 구성원의 역할·책임·권한을 서비스 전 단계(기획-설계-운영-모니터링)에 구체적으로 정의하도록 했다. AI의 의사결정이 개인의 금융거래 계약에 중대한 영향을 주는 경우 내부 통제 및 승인 절차를 마련하고 별도 책임자도 지정해야 한다.

정소람 기자 ram@hankyung.com