'딥페이크'(Deepfake) 등 인공지능(AI) 기술을 악용한 금융권 공격이 실제 일어날 수 있다는 우려가 제기됐다.

금융보안원은 26일 내놓은 '2020년 사이버보안 이슈 전망' 보고서에서 "국내 금융권이 비대면 실명확인을 위해 화상통화를 활용하거나 목소리, 얼굴 등을 이용한 바이오 인증을 금융거래에 접목하고 있어 딥페이크 공격 발생 위험이 증가하고 있다"고 지적했다.

보고서는 AI를 악용한 보안 위협을 악성 메일 공격 지능화, 유출·위변조 등 바이오 정보 위험 증대, 인터넷 프로토콜(IP) 주소 추적이 어려운 '다크웹'(dark web) 위협 등과 함께 사이버 보안 이슈로 꼽았다.

딥페이크는 '딥러닝(deep learning)'과 '페이크(fake)'를 합성한 말로 인공지능을 기반으로 실제처럼 조작한 음성, 영상 등을 통칭한다.

실제로 올해 영국의 한 에너지 회사 직원은 AI 기술을 통해 상사의 지시인 것처럼 조작된 음성 메시지에 속아 헝가리 회사에 20만 유로(약 2억5천만원)를 송금한 사례가 있었다고 보고서는 설명했다.

보안원이 함께 펴낸 '2020년 디지털 금융 이슈 전망' 보고서에서는 금융권의 클라우드 전환 바람, 오픈뱅킹 본격화, 빅테크(거대 정보통신기술 기업)의 금융권 본격 진출, 금융 플랫폼 전쟁, AI형 금융서비스 본격화, 금융혁신 본격화 등이 주요 이슈로 꼽혔다.

금융보안원 "AI 악용한 '딥페이크' 금융권 공격 위험 증가"
/연합뉴스