"AI가 감시하는 세상 막아야" vs "규제로 산업경쟁력 망칠 것"
입력
수정
국가 인공지능 윤리기준 공청회인공지능(AI)이 급속도로 발전하면서 윤리기준 적용 여부를 놓고 전문가들 사이에서 의견이 엇갈리고 있다. AI 윤리기준이 AI로 발생할 수 있는 문제를 사전에 예방하기 위한다는 주장이 이어지고 있지만, 자칫 산업 발전을 위축시킬 수 있다는 반박 목소리에도 힘이 실리고 있다.
이미 규제 많은데 AI 발전 저해 우려 제기
가이드라인 모호성으로 구체성 필요성도
예방책 차원서 필요하다는 주장도 나와
7일 서울 서초구 더케이호텔에서 과학기술정보통신부와 4차산업혁명위원회의 공동 주최로 열린 국가 AI 윤리기준(안)에 관한 공청회에서는 이번 윤리 기준안을 놓고 전문가들 사이에 공방이 벌어졌다.이날 발표를 맡은 문정욱 정보통신정책연구원 센터장은 "과기부와 정보통신정책연구원은 '인공지능 국가전략'에 따른 '사람 중심의 인공지능' 구현을 위해 글로벌 기준과 정합성을 갖춘 국가 인공지능 윤리기준을 마련하고자 한다"고 밝혔다.
문 센터장은 "인공지능 기술의 급속한 발전으로 산업 전 분야에 인공지능이 활용·확산되면서 기술의 오남용, 알고리즘에 의한 차별, 프라이버시 침해 등 인공지능 윤리 이슈가 새롭게 대두되고 있다"며 "이번 기준안의 목표는 법이나 지침이 아닌 자율 규범이고, 새롭게 제기되는 인공지능 윤리 이슈를 논의, 발전시키는 플랫폼의 기능"이라고 설명했다.
규제로 이어질까 우려
하지만 일부 전문가들은 이번 인공지능 윤리 기준이 규제로 이어질 지 모른다는 우려를 제기했다. 서정연 서강대 컴퓨터공학과 교수는 "우리나라는 프라이버시 침해에 있어서 이미 법적인 규제가 너무 잘 되어있는 나라다"며 "(AI에 대한)과도한 불안감이 조성돼 규제로 이어진다면, AI 발전에 도움이 안 될 수 있다"고 주장했다.양천수 영남대 법학전문대학원 교수는 "법적 문제를 다룰 때는 혁신 저해 가능성을 염두해야 한다"며 "법에서는 공적인 영역과 사적 영역을 나누고는 하는데, 국가 영역에서 사용될 때는 좀 더 투명성을 강조하고 민간 영역에서는 개발자의 지식재산과 관련된 부분이 있는만큼 자율적인 가이드라인을 형성해야 한다"고 지적했다.또 가이드라인이 모호하다는 비판도 나왔다. 나연묵 단국대 컴퓨터공학과 교수는 이번 윤리안에 대해 "주체나 단어상 애매한 부분이 있다"며 "안전성과 안정성이 혼용되는 부분과 참여주체를 명확하게 해야 할 필요가 있다"고 꼬집었다. 윤명 소비자시민모임 사무총장도 "기술이 어떻게 흘러갔으면 좋을지 바램을 담은 선언적 의미"라면서 "하지만 모호한 표현들이 있어서 실제 이 가이드라인이 기술개발에 적용될 수 있는 내용으로 구체화돼야 한다"고 전했다.
균형 찾는 것이 중요
반면 일각에서는 AI로 인해 발생할 수 있는 문제들을 사전 예방 차원에서 접근해야 한다는 지적도 나왔다. 이는 규제를 하는 것이 아니라 올바른 방향으로 산업을 키우기 위해서라는 설명이다.변순용 서울교대 윤리교육학과 교수는 "왜 사람들이 인공지능이 필요하다는 의견들이 나오는 것일까를 생각해볼 필요 있다"며 "군사 분야, 의료 등 여러 분야에서 인공지능이 도입되고 있고 인공지능이 제기하는 여러 이슈들이 등장하고 있는데 사후 약방론 보다는 사전에 막으면 좋다고 생각한다"고 강조했다.오혜연 카이스트 전산학부 교수는 "결국 중요한 것은 균형을 찾는 것"이라면서 "전세계적으로 인공지능에 대한 윤리에 대한 연구는 잘 이뤄지지 않은 가운데, 한국도 이에 대한 연구가 보다 많이 이뤄져야할 것"이라고 말했다.
신현보 한경닷컴 기자 greaterfool@hankyung.com