"이루다는 성장통…AI 혁신·윤리 둘 다 지켜야" [신현보의 데담]
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
[신현보의 데담]
문정욱 정보통신정책연구원 지능정보사회정책센터장
'이루다' AI 윤리 환기 계기…산업 위축은 경계
변화에 유연하게 AI 윤리기준 발전시켜야
AI 윤리기준 올해 한 단계 이상 업그레이드 계획
혁신과 견제 간 균형점 찾아야…英 CDEI 롤모델
문정욱 정보통신정책연구원 지능정보사회정책센터장
'이루다' AI 윤리 환기 계기…산업 위축은 경계
변화에 유연하게 AI 윤리기준 발전시켜야
AI 윤리기준 올해 한 단계 이상 업그레이드 계획
혁신과 견제 간 균형점 찾아야…英 CDEI 롤모델
문정욱 정보통신정책연구원(KISDI) 지능정보사회정책센터 센터장은 최근 데이터 편향 및 관리 소홀 문제로 논란이 된 '이루다 사건' 등 인공지능(AI)에 대한 사회적 불신을 보고 기시감이 든다고 했다. 원자력, 유전공학기술 등 사회적 파급효과가 큰 신기술이 등장할 때마다 늘 논란은 있었다는 말이다.
문 센터장은 22일 한경닷컴과의 전화 인터뷰에서 "이루다 사건은 일종의 성장통이라고 생각한다"며 "AI 윤리에 대한 주의를 환기하는 기회로 삼는 한편 기업과 산업을 위축시키는 분위기는 지양해야한다"고 밝혔다.
그에 따르면 윤리란 사람마다 생각하는 범위도 다르고 사회가 변화하면 그 개념도 바뀐다. 특히 AI 등 지능정보기술의 파급효과는 예전 산업혁명, 정보화시대 양상 보다 훨씬 더 복잡하고 다양하게 전개될 것으로 예상돼 다양한 계층의 의견 교환과 수렴을 통해 방향성을 계속 수정해나갈 필요가 있다고 했다.
그는 "기술에 대한 효용 판단, 리터러시에 따라 수용성이 천차만별"이라며 "AI 윤리 기준은 한번 발표하고 끝이 아니다. 더 나은 안을 찾기 위해 유연하게 논의를 확장시켜야 한다"고 강조했다. AI, 사람 중심이어야…
이런 차원에서 그는 지난해 AI 윤리기준이 0단계 수준이었다면, 올해는 1단계 혹은 2단계 수준까지 끌어올릴 계획이라고 밝혔다. 문 센터장은 "AI를 만드는 사람들 뿐 아니라 이를 사용하게 될 사람까지 참고할 수 있는 자가점검 리스트를 만들 계획"이라며 "또한 사회적 체화를 위해 AI 윤리교육 프로그램을 개발하는 방안도 검토 중"이라고 말했다.
올해 계획 중인 AI 윤리기준 업그레이드는 AI 윤리 의식을 확산시키기 위해서다. 문 센터장은 이루다의 개발업체인 스캐터랩에 대해 "만약 국가 AI 윤리기준안에 대해 인지하고 살펴봤다면, 어느 정도 방지할 수 있는 일이지 않았을까 한다"며 아쉬움을 전했다. 그러면서 그는 조사 결과가 아직 나오지 않았기 때문에 섣불리 단언할 수는 없다면서도 "AI 윤리기준 10대 핵심요건 중 다양성 존중, 프라이버시 보호, 데이터 관리 등 요건은 충족하지 않은 것으로 보인다"고 진단했다.
문 센터장은 향후 AI 윤리 논란을 방지하기 위해서는 "기술과 인간이 조화를 이루면서 발전하는 방향을 찾아야 한다"며 "AI 윤리 기준안도 '사람 중심의 인공지능'을 강조하고 있다"고 말했다.
또한 기업이 편향 없는 데이터를 수집하는 일 자체가 쉽지 않다는 점을 거론하며 이를 위한 사회적 논의도 필요한 상황이라고 주장했다. 인간 사회에 편향성이 있는만큼 데이터에도 편향성이 발생하는 한계가 있다는 지적이다.
문 센터장은 "정부에서 추진하는 디지털 뉴딜 사업 중 디지털댐 사업 일환으로 AI에 활용될 수 있는 다양한 영역의 데이터를 확보하는 방안을 효과적·효율적으로 추진해야 한다"며 "이는 특히 원천 데이터가 많지 않은 스타트업들에게는 더더욱 필요한 작업"이라고 말했다.
그러면서 그는 지난해 AI 윤리기준을 만들었던 과정을 설명했다. 정부, 기업, 협회, 학계, 시민단체 등 다양한 이해관계자들이 대거 투입돼 근 1년 간 AI 윤리기준을 만들었다. 당시 문 센터장은 ▲AI 기준에 대한 필요성 ▲여러 단계와 논의 과정을 통한 신뢰성과 타당성 확보 ▲불확실한 미래에 대응한 자율 규범 체계 등에 대해서는 대체로 의견을 같이 했다고 회상했다.
반면 같은 직군 안에서도 저마다 이해관계에 따라서 상충되는 의견이 많았다고 했다. 학계에서도 전공에 따라 규제를 해야 한다는 입장과 기술성장 초기에 있는 산업 생태계를 저해할 수 있다며 우려하는 입장으로 나뉘기도 했다. 기업 내에서도 어떤 곳은 이미 너무 과도하다는 입장을 전하는가 하면, 필드에서 개발자 등이 참조하려면 더 구체적 가이드가 있어야하는 것 아니냐는 의견도 있었다고 했다. 시민 사회 우려도 제각각이었다.
문 센터장은 "새로운 기술이 많은 편의를 제공하고 다양한 사회 문제를 해결할 것이라고 기대하지만 AI 편향, 자율 살상 문기 개발, 프라이버시 침해, 양극화 심화 등 간과하기 어려운 요소들도 분명 존재한다"며 "이러한 우려로 인해 사회적 수용이 더뎌 산업 발전이 늦어질 우려도 있는만큼 적절한 대응을 준비해야 한다"고 설명했다.
문 센터장은 일자리를 예로 들었다. 일각에서는 기술 발전으로 일자리가 줄어들 것이라고 우려하지만, 반대로 새로운 일자리가 생겨날 것이라는 시각도 있다. 이에 대해 그는 "정답은 알 수 없지만, 저숙련 일자리는 감소하고 고숙련 일자리는 증가할 가능성이 높다"며 "이를 제대로 대비 못할 경우 국가간 경쟁에서 도태될 수 있기 때문에 현재 개인 상황 따라서 기술 재교육, 직무전환 교육, 신규 취업 교육 등 맞춤형 전략이 필요하다"고 말했다.
이어 그는 "정부 주도만으로 할 수 있는 일은 아니고, 기업 수요, 시민 사회 의견 등을 모두 종합해 맞춤형 전략을 강구해야 한다"며 "어느 한쪽의 주장 만으로는 향후 AI로 인한 사회경제적 문제를 해결할 수 없을 것"이라고 설명했다.
신현보 한경닷컴 기자 greaterfool@hankyung.com
문 센터장은 22일 한경닷컴과의 전화 인터뷰에서 "이루다 사건은 일종의 성장통이라고 생각한다"며 "AI 윤리에 대한 주의를 환기하는 기회로 삼는 한편 기업과 산업을 위축시키는 분위기는 지양해야한다"고 밝혔다.
그에 따르면 윤리란 사람마다 생각하는 범위도 다르고 사회가 변화하면 그 개념도 바뀐다. 특히 AI 등 지능정보기술의 파급효과는 예전 산업혁명, 정보화시대 양상 보다 훨씬 더 복잡하고 다양하게 전개될 것으로 예상돼 다양한 계층의 의견 교환과 수렴을 통해 방향성을 계속 수정해나갈 필요가 있다고 했다.
그는 "기술에 대한 효용 판단, 리터러시에 따라 수용성이 천차만별"이라며 "AI 윤리 기준은 한번 발표하고 끝이 아니다. 더 나은 안을 찾기 위해 유연하게 논의를 확장시켜야 한다"고 강조했다.
AI, 사람 중심이어야…
편향성 없는 데이터 확보 논의 필요
이런 차원에서 그는 지난해 AI 윤리기준이 0단계 수준이었다면, 올해는 1단계 혹은 2단계 수준까지 끌어올릴 계획이라고 밝혔다. 문 센터장은 "AI를 만드는 사람들 뿐 아니라 이를 사용하게 될 사람까지 참고할 수 있는 자가점검 리스트를 만들 계획"이라며 "또한 사회적 체화를 위해 AI 윤리교육 프로그램을 개발하는 방안도 검토 중"이라고 말했다.올해 계획 중인 AI 윤리기준 업그레이드는 AI 윤리 의식을 확산시키기 위해서다. 문 센터장은 이루다의 개발업체인 스캐터랩에 대해 "만약 국가 AI 윤리기준안에 대해 인지하고 살펴봤다면, 어느 정도 방지할 수 있는 일이지 않았을까 한다"며 아쉬움을 전했다. 그러면서 그는 조사 결과가 아직 나오지 않았기 때문에 섣불리 단언할 수는 없다면서도 "AI 윤리기준 10대 핵심요건 중 다양성 존중, 프라이버시 보호, 데이터 관리 등 요건은 충족하지 않은 것으로 보인다"고 진단했다.
문 센터장은 향후 AI 윤리 논란을 방지하기 위해서는 "기술과 인간이 조화를 이루면서 발전하는 방향을 찾아야 한다"며 "AI 윤리 기준안도 '사람 중심의 인공지능'을 강조하고 있다"고 말했다.
또한 기업이 편향 없는 데이터를 수집하는 일 자체가 쉽지 않다는 점을 거론하며 이를 위한 사회적 논의도 필요한 상황이라고 주장했다. 인간 사회에 편향성이 있는만큼 데이터에도 편향성이 발생하는 한계가 있다는 지적이다.
문 센터장은 "정부에서 추진하는 디지털 뉴딜 사업 중 디지털댐 사업 일환으로 AI에 활용될 수 있는 다양한 영역의 데이터를 확보하는 방안을 효과적·효율적으로 추진해야 한다"며 "이는 특히 원천 데이터가 많지 않은 스타트업들에게는 더더욱 필요한 작업"이라고 말했다.
혁신과 견제 간 균형 중요
그는 "결국 방향성은 균형점을 찾는 일"이라고 거듭 강조하며 영국의 '데이터윤리혁신센터'(CDEI)를 벤치마킹 대상으로 언급했다. CDEI는 다양한 이해관계자들의 의견을 수렴, 데이터 관련 기술의 사회 내 효용을 극대화하기 위해 정부와 기업 등에게 독립 자문기구 역할을 하고 있다. 문 센터장은 "CDEI처럼 혁신과 역기능 방지를 함께 추구해야 한다"고 말했다.그러면서 그는 지난해 AI 윤리기준을 만들었던 과정을 설명했다. 정부, 기업, 협회, 학계, 시민단체 등 다양한 이해관계자들이 대거 투입돼 근 1년 간 AI 윤리기준을 만들었다. 당시 문 센터장은 ▲AI 기준에 대한 필요성 ▲여러 단계와 논의 과정을 통한 신뢰성과 타당성 확보 ▲불확실한 미래에 대응한 자율 규범 체계 등에 대해서는 대체로 의견을 같이 했다고 회상했다.
반면 같은 직군 안에서도 저마다 이해관계에 따라서 상충되는 의견이 많았다고 했다. 학계에서도 전공에 따라 규제를 해야 한다는 입장과 기술성장 초기에 있는 산업 생태계를 저해할 수 있다며 우려하는 입장으로 나뉘기도 했다. 기업 내에서도 어떤 곳은 이미 너무 과도하다는 입장을 전하는가 하면, 필드에서 개발자 등이 참조하려면 더 구체적 가이드가 있어야하는 것 아니냐는 의견도 있었다고 했다. 시민 사회 우려도 제각각이었다.
문 센터장은 "새로운 기술이 많은 편의를 제공하고 다양한 사회 문제를 해결할 것이라고 기대하지만 AI 편향, 자율 살상 문기 개발, 프라이버시 침해, 양극화 심화 등 간과하기 어려운 요소들도 분명 존재한다"며 "이러한 우려로 인해 사회적 수용이 더뎌 산업 발전이 늦어질 우려도 있는만큼 적절한 대응을 준비해야 한다"고 설명했다.
문 센터장은 일자리를 예로 들었다. 일각에서는 기술 발전으로 일자리가 줄어들 것이라고 우려하지만, 반대로 새로운 일자리가 생겨날 것이라는 시각도 있다. 이에 대해 그는 "정답은 알 수 없지만, 저숙련 일자리는 감소하고 고숙련 일자리는 증가할 가능성이 높다"며 "이를 제대로 대비 못할 경우 국가간 경쟁에서 도태될 수 있기 때문에 현재 개인 상황 따라서 기술 재교육, 직무전환 교육, 신규 취업 교육 등 맞춤형 전략이 필요하다"고 말했다.
이어 그는 "정부 주도만으로 할 수 있는 일은 아니고, 기업 수요, 시민 사회 의견 등을 모두 종합해 맞춤형 전략을 강구해야 한다"며 "어느 한쪽의 주장 만으로는 향후 AI로 인한 사회경제적 문제를 해결할 수 없을 것"이라고 설명했다.
신현보 한경닷컴 기자 greaterfool@hankyung.com