'뉴스편집 의혹' 휘말린 네이버·카카오…이재웅 "AI도 차별존재"
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
최근 국내 양 포털인 카카오와 네이버가 포털 뉴스 편집 통제 의혹에 휘말린 가운데, 포털사이트 다음을 창업한 이재웅 전 쏘카 대표(사진)가 "책임있는 인공지능(AI)가 필요하다"고 강조했다.
이 전 대표는 21일 페이스북을 통해 트위터의 AI가 인종편향 문제를 산 것과 관련 의견을 제시했다. 트위터 AI는 2장의 이어진 인물사진을 올릴 때 그중 한 인물을 썸네일(축소판)로 보여주는데, 흑인과 백인의 사진을 동시에 올리면 백인 사진을 썸네일로 채택한다는 의혹을 받는다.
트위터는 의혹이 제기된 이후 "출시 전 편향 테스트를 진행했지만 인조이나 젠더 관련 편향은 찾지 못했다"며 "이는 명백한 문제다. 우리는 더 분석을 하고, 앞으로 우리 작업을 오픈 소스로 공개해 다른 사람들이 리뷰하고 따라 할 수 있도록 하겠다"고 밝혔다.
이 전 대표는 이를 두고 "트위터 측의 대응은 실수나 버그가 아니라 의도하지 않은 결과여서 이제부터 새로운 학습과 알고리즘을 보완해 해결해야 한다는 것인데 이는 잘한 것"이라며 "우리는 AI 서비스 출시 때 편향이나 차별에 대해 테스트를 제대로 하고 있을 지가 의문"이라고 평했다.
이어 "AI가 AI 뉴스 편집, AI 면접, AI 평가 등에 들어간다고 해서 편향이나 차별이 자동적으로 존재하지 않는 것은 아니다"며 "의도적으론 물론이고 의도하지 않아도 알고리즘 설계자의 편향 때문에 혹은 학습데이터의 편향 때문에 차별과 편향이 존재하게 되는 경우가 많다"고 설명했다.
그러면서 "트위터처럼 오픈 소스는 못하더라도 AI시스템에 대한 독립적인 감사를 받아 편향이나 차별이 존재하지 않는다는 것을 인증받을 필요가 있다"며 "책임있는 AI가 구축되지 않으면 AI에 의해 약자가 차별을 받고도 알지도 못하고 구제받지도 못하는 세상이 올 수 있다"고 덧붙였다.
이 전 대표는 이 같은 입장은 앞선 지난 8일 윤여찬 더불어민주당 의원이 카카오의 '뉴스 편집'에 대해 항의하자 카카오와 네이버 측이 "뉴스 배치는 AI가 하므로 사람이 개입할 수 없다"며 인위적인 편집 가능성을 일축한 것을 두고 '잘못된 일'이라고 비판한 것과 맥락을 같이 한다.
AI가 내놓은 결과물이 '편향적이다'는 지적이 나왔다면, AI가 왜 이같은 판단을 내렸는지, 이를 들여다보고 분석한 결과 없이 'AI시스템이니까 중립적'이라고 답하는 것은 잘못됐다는 것이 이 전 대표의 주장이다.
이 전 대표는 "AI라고 해서 가치중립적으로 판단하지 않기에, AI시스템이 차별하지 않는지 정치적으로 중립적인지 판단하기 위한 감사 시스템이 필요하다"며 "부인할 수 없는 사실은 인공지능은 우리가 설계한 대로 혹은 우리의 현상을 반영해서 판단할 가능성이 높기 때문"이라고 설명했다.
배성수 한경닷컴 기자 baebae@hankyung.com
이 전 대표는 21일 페이스북을 통해 트위터의 AI가 인종편향 문제를 산 것과 관련 의견을 제시했다. 트위터 AI는 2장의 이어진 인물사진을 올릴 때 그중 한 인물을 썸네일(축소판)로 보여주는데, 흑인과 백인의 사진을 동시에 올리면 백인 사진을 썸네일로 채택한다는 의혹을 받는다.
트위터는 의혹이 제기된 이후 "출시 전 편향 테스트를 진행했지만 인조이나 젠더 관련 편향은 찾지 못했다"며 "이는 명백한 문제다. 우리는 더 분석을 하고, 앞으로 우리 작업을 오픈 소스로 공개해 다른 사람들이 리뷰하고 따라 할 수 있도록 하겠다"고 밝혔다.
이 전 대표는 이를 두고 "트위터 측의 대응은 실수나 버그가 아니라 의도하지 않은 결과여서 이제부터 새로운 학습과 알고리즘을 보완해 해결해야 한다는 것인데 이는 잘한 것"이라며 "우리는 AI 서비스 출시 때 편향이나 차별에 대해 테스트를 제대로 하고 있을 지가 의문"이라고 평했다.
이어 "AI가 AI 뉴스 편집, AI 면접, AI 평가 등에 들어간다고 해서 편향이나 차별이 자동적으로 존재하지 않는 것은 아니다"며 "의도적으론 물론이고 의도하지 않아도 알고리즘 설계자의 편향 때문에 혹은 학습데이터의 편향 때문에 차별과 편향이 존재하게 되는 경우가 많다"고 설명했다.
그러면서 "트위터처럼 오픈 소스는 못하더라도 AI시스템에 대한 독립적인 감사를 받아 편향이나 차별이 존재하지 않는다는 것을 인증받을 필요가 있다"며 "책임있는 AI가 구축되지 않으면 AI에 의해 약자가 차별을 받고도 알지도 못하고 구제받지도 못하는 세상이 올 수 있다"고 덧붙였다.
이 전 대표는 이 같은 입장은 앞선 지난 8일 윤여찬 더불어민주당 의원이 카카오의 '뉴스 편집'에 대해 항의하자 카카오와 네이버 측이 "뉴스 배치는 AI가 하므로 사람이 개입할 수 없다"며 인위적인 편집 가능성을 일축한 것을 두고 '잘못된 일'이라고 비판한 것과 맥락을 같이 한다.
AI가 내놓은 결과물이 '편향적이다'는 지적이 나왔다면, AI가 왜 이같은 판단을 내렸는지, 이를 들여다보고 분석한 결과 없이 'AI시스템이니까 중립적'이라고 답하는 것은 잘못됐다는 것이 이 전 대표의 주장이다.
이 전 대표는 "AI라고 해서 가치중립적으로 판단하지 않기에, AI시스템이 차별하지 않는지 정치적으로 중립적인지 판단하기 위한 감사 시스템이 필요하다"며 "부인할 수 없는 사실은 인공지능은 우리가 설계한 대로 혹은 우리의 현상을 반영해서 판단할 가능성이 높기 때문"이라고 설명했다.
배성수 한경닷컴 기자 baebae@hankyung.com