개인정보보호위원회는 인공지능(AI) 기업이 자율적으로 프라이버시 리스크를 관리할 수 있도록 ‘안전한 AI·데이터 활용을 위한 AI 프라이버시 리스크 관리 모델’을 공개했다고 19일 발표했다.

모델에는 AI 생애주기에 걸친 프라이버시 리스크 관리의 방향과 원칙, 리스크 유형, 경감 방안 등을 담았다.

AI 시대에는 과거와 같은 방식의 개인정보 유출·노출 등은 물론 딥페이크로 인한 인격권 침해 등 새로운 리스크가 생겨난다는 게 개인정보위의 설명이다.

개인정보위는 작년 12월부터 AI 프라이버시 민관 정책협의회를 중심으로 리스크 관리 모델을 마련했다. 국내외 학계와 정부, 연구기관 등에서 논의되고 있는 AI 데이터 처리 특성, 프라이버시 리스크 유형, 리스크 경감방안 및 관리체계, 기업 사례 등을 집대성했다.

개인정보위는 추후 기술 발전, 법령 제·개정, 글로벌 동향 등을 고려해 리스크 관리 모델을 업데이트할 계획이다. 소규모 조직과 스타트업 등 기업 유형과 미세조정, 검색증강생성(RAG) 같은 AI 개발 유형 등 세부 대상에 특화한 안내자료도 구체화하기로 했다.

이번 리스크 관리 모델 논의를 이끈 박상철 서울대 교수(민·관 정책협의회 리스크 평가 분과장)는 “전 세계적으로 빠르게 발전하는 AI 기술과 기존 개인정보보호 규제 간에 간극과 긴장이 발생하고 있어 대응이 필요한 시점”이라며 “각계 전문가와 함께 세계적인 AI 거버넌스의 흐름과 실증 연구 결과에 부합하는 유연하고 체계적인 프라이버시 리스크 관리체계를 제시했다는 점에서 의미가 있다”라고 말했다.

고학수 개인정보위 위원장은 “개인정보, 비개인정보가 총체적으로 활용되고 기술 발전이 지속되는 AI 영역은 불확실성이 높기 때문에 일률적 규제보다는 합리적·비례적 관리를 통해 리스크를 총체적으로 최소화하는 것이 필요하다”며 “AI 기업 등이 프라이버시 리스크를 이해하고 체계적으로 관리하는 데 도움이 되길 바란다”라고 말했다.

이승우 기자 leeswoo@hankyung.com