[기고] AI 추천 서비스 자율규제에 거는 기대
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
부작용 최소화 유연성 돋보여
이용자 선택권 보장 주목할 만
황용석 < 건국대 미디어커뮤니케이션학과 교수 >
이용자 선택권 보장 주목할 만
황용석 < 건국대 미디어커뮤니케이션학과 교수 >
인공지능(AI) 기술은 보이지 않지만 우리 생활 깊숙이 침투해 있다. 온라인 동영상 서비스나 소셜미디어 같은 디지털미디어에서 AI는 핵심 기술로 자리 잡았다. 과거 사람이 하던 콘텐츠 분류나 편집 등을 소프트웨어 기술이 대신 하고 있는 것이다. AI 추천 서비스는 경제적 효율성과 이용자의 만족감을 높이지만, 그로 인한 부작용도 없지 않다. 포털이 제공하는 뉴스의 편향성 논란이 끊이지 않고 있으며, 미국의 재범 예측 프로그램같이 사회적 차별을 야기하는 추천 결과가 나타나기도 한다.
미디어는 정보 제공과 의견 형성이라는 중요한 사회적 기능을 수행한다. 그렇기에 높은 수준의 사회적 책임과 전문직 윤리를 요구받아 왔다. 그러나 데이터를 통해 학습하고 자동으로 추천 알고리즘을 형성하는 AI 기술은 사회에 미칠 영향을 판단하는 윤리적 장치가 없다. 학습하는 데이터가 편향돼 있으면 AI의 결정도 편향적으로 나오는 등 수많은 편향 요인에 취약하다.
AI가 인간과 공존하기 위해서는 인간의 윤리나 도덕적 기준을 내면화하는 노력이 필요하다. 그 출발점은 AI 기술 개발과 운영에서 인간의 권리를 보호하기 위한 윤리 기준을 적용하는 것이다. 이미 전 세계적으로 정부, 국제기구, 기업 차원에서 다양한 인공지능 윤리 및 가이드라인이 발표됐다. 유럽연합은 ‘인공지능 법안’을 지난 4월 공표하기까지 했다.
그런 가운데 방송통신위원회가 ‘인공지능 기반 미디어 추천 서비스 이용자 보호 기본원칙’을 발표했다. 기본원칙은 디지털미디어 영역의 AI 추천 서비스를 대상으로 하고 있어 보다 구체적이고, 미디어산업과 밀접한 실천 방향을 제시했다는 게 특징이다. 또 이용자 보호 정책에서 본질적인 사안인 ‘이용자를 위한 정보 공개’ ‘이용자의 선택권 보장’을 동시에 규정한 윤리 기준은 국제적으로도 앞선 조치라는 점에서 의미가 크다.
AI는 스스로 학습하고 변화하는 동적인 논리 체계로, 작동 원리를 규명하기 어려워 블랙박스라고 불린다. 그래서 이용자 피해가 발생했을 때 제3자가 원인을 추적하는 것이 매우 어렵다. 이 기술을 개발하고 적용하는 사업자의 자발적이고 선제적인 노력이 필요한 이유다. 특히, 디지털미디어는 서비스 운영의 자율성이 중요하기에, 방통위가 매우 유연한 정책 수단으로 기업 자율규제의 규범을 제시했다는 점은 높이 평가할 만하다.
이번에 발표된 기본원칙에는 윤리적 기준이 되는 핵심 원칙과 미디어 기업 스스로 실천하기 위한 실행 원칙이 담겨 있다. 핵심 원칙으로 투명성, 공정성, 책무성이 제시됐는데, 이들 세 개념이 의미하는 바는 AI 추천 서비스에 관한 정확하고 투명한 정보를 이용자에게 제공하고 이용자의 선택성을 넓히며, 편향 등 부작용을 최소화하고 문제 발생 시 적극적인 해결 노력을 강조하는 것이다.
방통위의 기본 원칙은 AI 기술 환경에서 이용자 보호의 중요성을 확인했다는 점과 정부가 규범을 제시하고 사업자가 자율적으로 실천하는 공동규제 모델을 채택했다는 점에서 의의가 있다. 디지털미디어 기업으로서는 기본 원칙을 부담으로 인식할 수도 있다. 그러나 이런 실천이 이용자의 권리 보호라는 공익적 결과와 기업의 잠재적 위험 감소라는 가치 경영의 자산으로 되돌아올 것이다. 자율규제는 입법 보충성의 효과가 있어 불필요한 법적 규제를 두지 않아도 되는 장점도 있다. 이번 기본 원칙 마련이 우리 기업들의 자율적인 이용자 보호 활동에 새로운 전기가 되기를 기대해 본다.
미디어는 정보 제공과 의견 형성이라는 중요한 사회적 기능을 수행한다. 그렇기에 높은 수준의 사회적 책임과 전문직 윤리를 요구받아 왔다. 그러나 데이터를 통해 학습하고 자동으로 추천 알고리즘을 형성하는 AI 기술은 사회에 미칠 영향을 판단하는 윤리적 장치가 없다. 학습하는 데이터가 편향돼 있으면 AI의 결정도 편향적으로 나오는 등 수많은 편향 요인에 취약하다.
AI가 인간과 공존하기 위해서는 인간의 윤리나 도덕적 기준을 내면화하는 노력이 필요하다. 그 출발점은 AI 기술 개발과 운영에서 인간의 권리를 보호하기 위한 윤리 기준을 적용하는 것이다. 이미 전 세계적으로 정부, 국제기구, 기업 차원에서 다양한 인공지능 윤리 및 가이드라인이 발표됐다. 유럽연합은 ‘인공지능 법안’을 지난 4월 공표하기까지 했다.
그런 가운데 방송통신위원회가 ‘인공지능 기반 미디어 추천 서비스 이용자 보호 기본원칙’을 발표했다. 기본원칙은 디지털미디어 영역의 AI 추천 서비스를 대상으로 하고 있어 보다 구체적이고, 미디어산업과 밀접한 실천 방향을 제시했다는 게 특징이다. 또 이용자 보호 정책에서 본질적인 사안인 ‘이용자를 위한 정보 공개’ ‘이용자의 선택권 보장’을 동시에 규정한 윤리 기준은 국제적으로도 앞선 조치라는 점에서 의미가 크다.
AI는 스스로 학습하고 변화하는 동적인 논리 체계로, 작동 원리를 규명하기 어려워 블랙박스라고 불린다. 그래서 이용자 피해가 발생했을 때 제3자가 원인을 추적하는 것이 매우 어렵다. 이 기술을 개발하고 적용하는 사업자의 자발적이고 선제적인 노력이 필요한 이유다. 특히, 디지털미디어는 서비스 운영의 자율성이 중요하기에, 방통위가 매우 유연한 정책 수단으로 기업 자율규제의 규범을 제시했다는 점은 높이 평가할 만하다.
이번에 발표된 기본원칙에는 윤리적 기준이 되는 핵심 원칙과 미디어 기업 스스로 실천하기 위한 실행 원칙이 담겨 있다. 핵심 원칙으로 투명성, 공정성, 책무성이 제시됐는데, 이들 세 개념이 의미하는 바는 AI 추천 서비스에 관한 정확하고 투명한 정보를 이용자에게 제공하고 이용자의 선택성을 넓히며, 편향 등 부작용을 최소화하고 문제 발생 시 적극적인 해결 노력을 강조하는 것이다.
방통위의 기본 원칙은 AI 기술 환경에서 이용자 보호의 중요성을 확인했다는 점과 정부가 규범을 제시하고 사업자가 자율적으로 실천하는 공동규제 모델을 채택했다는 점에서 의의가 있다. 디지털미디어 기업으로서는 기본 원칙을 부담으로 인식할 수도 있다. 그러나 이런 실천이 이용자의 권리 보호라는 공익적 결과와 기업의 잠재적 위험 감소라는 가치 경영의 자산으로 되돌아올 것이다. 자율규제는 입법 보충성의 효과가 있어 불필요한 법적 규제를 두지 않아도 되는 장점도 있다. 이번 기본 원칙 마련이 우리 기업들의 자율적인 이용자 보호 활동에 새로운 전기가 되기를 기대해 본다.