[안현실 칼럼] 챗봇 '이루다' 때문에 AI 때려잡자고?
입력
수정
지면A39
"배가 산으로 가는 '이루다' 논란“안전하고 윤리적이고 책임감 있는 인공지능(AI)을 만들려면 엔지니어가 기술적 능력과 윤리적인 감수성을 가져야 한다. AI의 부작용을 모두 막는 것은 불가능하다. AI의 부작용을 최소화하면서 이점을 극대화하는 방향으로 가야 한다.”
AI 규제법 만들자는 선동 판쳐
정치·시민단체 편향이 더 문제"
안현실 < AI경제연구소장·논설위원 경영과학박사 >
한국에 AI의 씨를 뿌린 개척자 김진형 KAIST 명예교수 겸 중앙대 석좌교수의 주장이다. 백번 공감이 간다. 윤리적 감수성을 키우려면 ‘교육’과 함께 ‘다양성’과 ‘다름’에 대한 올바른 인식을 갖게 하는 게 기본일 것이다.사고는 언제 어디에서든 일어난다. 문제는 그 사회의 반응이다. 지난해 12월 23일 출시된 스캐터랩의 대화형 AI 챗봇 ‘이루다’ 서비스가 좋은 사례다. 논란이 생기자 기업은 서비스를 급히 중단할 수밖에 없는 상황이 전개됐고, 개인정보보호위원회는 바로 조사에 착수했다. 이 장면을 어떻게 봐야 하는가?
물론 여러가지 의문이 제기될 수 있다. “개발자가 의도한 것인가, 실수인가?” “스타트업이잖아” “돈을 벌기 위한 노이즈 마케팅?”에서부터, “처음부터 완전한 게 어디 있나?” “개인정보는 제대로 보호했을까?” “부작용이 빤히 보이는데 바로 서비스한 건 잘못이야” “AI가 아니라 사람이 문제지” “모범답안만 말하는 AI라면 무슨 재미?” “세상엔 별사람 다 있다. 취향 따라 원하는 챗봇 선택하면 안 되나?” ”아직 기술적으론 한계가 있다는 얘기지”까지….
이러다 보면 진지한 논의가 도출될 수 있다. “기계학습(ML)이 강력한 도구가 됐지만, 재미있으면서 윤리적으로 논란의 소지가 전혀 없는 ‘AI 대화형 시스템’이 가능하긴 한가?” “딥러닝으로 이 문제를 해결할 수 없는가?” “AI로 인한 딥페이크 문제를 AI가 잡아내는 것처럼 편향성을 자동 측정하는 돌파구가 열릴 거야” “학습 모듈이 다 공개된 마당에 실험 자체를 막을 수는 없어. AI와 친구처럼 살아야 하는 세상에 맞는 교육을 서둘러야 해” “‘신뢰할 수 있는 AI’에 대한 사회적 합의가 시급해” “AI 개발자의 다양성을 확보하면 리스크를 줄일 수 있지 않을까?” 등.적어도 ‘혁신’을 하겠다는 사회라면 이런 논의를 해야 정상일 것이다. 개인도 기업도 AI 사회를 향해 저만치 달려가고 있는데, 정부만 전혀 안 맞는 수준과 체제 아닌지 강한 의문이 생긴다.
데이터 3법이 통과돼 다행이라지만, 개인정보보호위원회만 무소불위 조직이 된 형국이다. 귀에 걸면 귀걸이 코에 걸면 코걸이 식의 회색지대가 많아 앞으로 기업을 때려잡는 일에 공정거래위원회와 쌍벽을 이룰 것으로 보인다. 여기에 어떤 기술도 지키기 어려운 AI 윤리기준을 내놓은 과학기술정보통신부와 방송통신위원회도 여차하면 칼을 빼들 태세다.
이루다 서비스 논란이 생기자마자 일부 시민단체들이 공포 분위기를 조성하며 군불을 때기 시작했다. 이들은 “‘개발’에만 치중한 AI산업, ‘이루다’는 예정된 참사”로 규정했다. 그러면서 주장했다. “이루다 논란은 기업을 위한 데이터 3법이 자초한 문제다” “AI 제품과 학습 데이터의 편향성은 윤리가 아니라 법률 규범의 문제다.” 전자는 가명정보에 면제된 열람권, 삭제권 등을 보장하는 쪽으로 법 개정을 해야 한다는, 다시 말해 반쪽짜리에 불과한 데이터 3법을 원점으로 되돌리란 요구다. 후자는 교육·자율로는 안 되니 아예 AI 제품을 규제하는 법을 제정하란 주장이다.일부 시민단체는 유럽연합(EU) 사례를 인용하고 있지만, AI 경쟁력에서 밀리는 EU가 미국을 견제하기 위해 이런저런 규제를 도입하고 있다는 것은 국제사회가 잘 아는 사실이다. 더구나 미국은 개별 사안은 그 자체로 다룰 뿐, 전체주의 방식의 규제를 동원하지 않는다. 정부와 여당 뒤에서 막강한 영향력을 행사하는 시민단체들이 AI의 편향성을 들먹이고 있지만, 자신들의 편향성이 더 심각한 문제 아닌가?
ahs@hankyung.com