'양날의 칼' AI 윤리와 규제 사이…"시동 꺼진 '타다'를 보라" [여기는 논설실]
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
인공지능(AI)이 윤리기준을 벗어나면 AI 탓인가? AI 개발자·기업 탓인가? 변화를 따라가지 못하는 제도 탓인가? AI 윤리기준이 정치적으로 악용되거나 AI 규제로 돌변해 AI 혁신에 오히려 걸림돌이 되지 않을까?
과학기술정보통신부가 AI 시대 바람직한 AI 개발·활용 방향을 제시하기 위한 ‘국가 AI 윤리기준’을 내놨다. 이른바 ‘인간성(Humanity)’을 구현하기 위해 AI의 개발 및 활용 과정에서 지켜야 한다는 3대 기본원칙과 10대 핵심요건이다. 3대 기본원칙은 ❶ 인간의 존엄성 원칙, ❷ 사회의 공공선 원칙, ❸ 기술의 합목적성 원칙이다. 이어 3대 기본원칙을 실천하고 이행할 수 있도록 AI 개발과 활용 전 과정에서 충족되어야 할 10대 핵심요건으로 ⓵ 인권 보장, ⓶ 프라이버시 보호, ⓷ 다양성 존중, ⓸ 침해금지, ⓹ 공공성, ⓺ 연대성, ⓻ 데이터 관리, ⓼ 책임성, ⓽ 안전성, ⓾ 투명성이 제시됐다.
윤리적 AI를 실현하기 위해 정부·공공기관, 기업, 이용자 등 모든 사회구성원이 함께 지켜야 할 주요 원칙과 핵심요건을 제시했다는 게 정부 설명이다. 정부는 AI·윤리학·법학 등 학계·기업·시민단체를 아우르는 주요 전문가들이 자문과 의견수렴 과정에 참여했다고 밝혔다. 하지만 각론으로 들어가면 적지않은 논란을 예고한다.
정부는 ① 모든 사회 구성원이 ② 모든 분야에서 ③ 자율적으로 준수하며 ④ 지속 발전하는 윤리기준을 지향했다고 하지만, ‘자율’과 ‘법적 규제’간 경계가 모호해진다면 얘기는 완전히 달라진다. 생명윤리와 바이오 혁신처럼 AI 윤리와 AI 혁신 간 긴장과 논쟁이 촉발될 공산이 크다. 국익 중시 분위기에서 AI 윤리기준에 대한 국제 공조의 실효성도 변수다. 이런 관점에 서면 결코 간과해선 안 될 몇 가지 이슈가 나온다.
AI에서 가장 앞서간다는 미국이 대표적인 경우다. 미국이 AI 윤리를 논의하기 위해 ‘글로벌 AI 파트너십(GPAI)’에 전격 참여한 이유를 상기할 필요가 있다. 미국이 당초 이 모임에 참여하기를 꺼린 이유는 글로벌 AI 윤리 논의가 어떤 형태로든 미국이 주도하는 AI 혁신에 걸림돌이 될 것을 우려했기 때문이다.
그러던 미국에 새로운 목적이 생겼다. 무섭게 따라오는 중국 AI에 대한 견제다. 이는 캐나다 프랑스 등이 인권, 포용, 다양성, 혁신, 경제성장 등을 원칙으로 책임감 있는 AI 채택과 사용 지침을 위한 글로벌 조직 결성을 제안하면서 내심 AI를 오용·남용할 가능성이 높은 중국 모델의 확산을 우려한 점과 맞아떨어졌다. 하지만 미국은 동시에 GPAI가 미국 기업에 규제로 작용할 수도 있는 어떤 기준을 제정하거나 정책을 결정하는 기구가 돼선 안 된다는 점도 분명히 했다.
미국이 GPAI에 참여한 것은 단순히 AI 윤리문제 때문이 아니다. 이는 EU도 마찬가지다. 중국 견제는 물론이고 글로벌 시장에서 AI를 선도하는 구글 등 미국 거대 기술기업을 통제하려는 측면이 있다는 점을 부인하기 어렵다. AI를 주도하는 미국을 어떻게든 윤리란 틀 안으로 끌어들인 다음, 여차하면 미국 기업들의 일방적 AI 주도에 제동을 걸겠다는 의도가 있다고 보는 게 맞을 것이다.
이런 맥락에서 보면 우리 정부가 단순히 글로벌 추세에 발 맞추어 지난해 발표된 ‘AI 국가전략(’19.12)’ 주요 과제로 ‘국가 AI 윤리기준’ 마련한다는 것은 너무 순진한 발상이란 생각을 떨치기 어렵다. 한국은 무슨 동기와 목적으로 AI 윤리기준을 마련하는 것인지 숙고해봐야 한다.
다른 것은 그렇다고 치더라도 ③에 혁신주체들이 얼마나 공감할지 의문이다. 정부는 구속력 있는 ’법‘이나 ’지침‘이 아닌 도덕적 규범이자 자율규범으로, 기업 자율성을 존중하고 인공지능 기술발전을 장려하며 기술과 사회변화에 유연하게 대처할 수 있는 윤리 담론을 형성한다지만, 지금의 한국 사회에서 이 말을 곧이 곧대로 믿을 사람이 얼마나 될지 궁금하다. 정부가 “앞으로 ‘국가 AI 윤리기준’이 새롭게 제기되는 AI 윤리이슈에 대한 토론과 숙의의 토대가 되고 현장에 정착할 수 있도록 윤리기준의 사회 확산을 위한 주체별 체크리스트 개발 등 실천방안도 마련해나가겠다”고 하자, 당장 산업 및 연구현장에서는 “또 체크리스트냐”는 냉소적인 반응이 나온다.
해서는 안 되는 것 말곤 허용하는 네거티브 방식의 법과 규제 문화에서는 자율이란 이름으로 윤리가 작동할 광범위한 공간이 존재한다. 반면 하라는 것만 해야 하는 포지티브 방식의 법과 규제 문화에서는 자율이란 이름의 윤리가 작동할 공간이 극히 좁거나 말이 자율이지 타율적 규제와 다름없는 것으로 받아들여진다. 똑 같은 AI 윤리기준이라고 하더라도 어떤 나라에서는 AI 혁신과 공진화를 하면서 혁신을 촉진하는 쪽으로 나아가는데, 어떤 나라에서는 AI 혁신과 AI 윤리 중 양자택일로 가면서 혁신을 방해하는 쪽으로 역행하는 일이 얼마든지 일어날 수 있다는 뜻이다.
한국은 어느 쪽으로 갈까? 타다는 AI기업이고 타다 서비스는 AI 서비스란 호소에도 불구하고 우리 사회에서 어떻게 결말이 났는지 되돌아보면 여러가지 우려를 갖게 한다. 정부가 제시한 AI 윤리기준에 따르면 타다는 3대 기본원칙, 즉 ❶ 인간의 존엄성 원칙, ❷ 사회의 공공선 원칙, ❸ 기술의 합목적성 원칙에서부터 태클이 들어왔을 게 뻔하다. 3대 기본원칙을 실천하고 이행할 수 있도록 AI 개발과 활용 전 과정에서 충족되어야 할 10대 핵심요건 중 ⓺ 연대성이란 벽을 넘기도 어려웠을 것이다. 이런 일이 앞으로도 일어나지 않는다는 법이 없다. 자율이란 이름의 윤리기준이 언제든 타율적 강제 규제로 돌변할 수 있다는 얘기다.
정치에 속지 않으려면 미래의 노동에 관한 미국 MIT 태스크포스가 지난 2년 간 연구한 기술과 일자리 보고서, ‘The Work of the Future: Building Better Jobs in an Age of Intelligent Machines’의 몇가지 결론을 기억해 두는 게 좋을 것같다.
MIT 보고서는 AI 등 기술변화는 기존 일자리를 대체하면서 동시에 새로운 일자리를 창출한다고 말한다. 그러나 우리가 보는 정치는 새로운 일자리를 창출하지 못하는 무능함을 숨긴채 피도 눈물도 없는 AI가 일자리를 모두 빼앗아간다고 선동한다. AI로 새로운 일자리를 창출하려면 AI 투자와 확산이 전 산업 분야에서 일어나야 한다. 하지만 후진적 정치는 이 과정에서 사회적 저항이 촉발되면 바로 그 쪽으로 달려가 AI 윤리기준과 흡사한 논리로 표를 구걸한다.
보고서는 또 AI 투자를 하는데도 생산성 증가, 임금 증가로 이어지지 않는다면 변화를 거부하는 익숙한 문화와 제도, 정책 탓일 가능성이 높다고 말한다, 하지만 이런 경우에도 AI가 모든 문제의 근원인양 몰고가는 게 후진적 정치의 특징이다.
MIT보고서는 AI와 공존할 수 있는 일자리의 질을 높이는 게 중요하고 이를 위해서는 노동시장의 혁신이 필요하다고 말한다. 새로운 기회 창출과 경제적 이동성이 생기려면 새로운 교육과 훈련도 필요하다. 하지만 후진적 정치일수록 당장 표를 얻는데 도움이 안 되거나 시간이 오래 걸리는 과제를 기피하는 경향이 강하다.
문재인 정부가 ‘AI 국가전략(’19.12)’ 에 이어 ‘국가 AI 윤리기준’을 마련한 것으로 AI 정책을 완성했다고 여긴다면 큰 착각이다. 한국이 AI에 대한 미래지향적 철학이 없다면 AI 윤리기준이 AI 개발·활용에 도움이 되기는커녕 AI 혁신에 가장 큰 적(敵)이 될지 모른다.
안현실 논설·전문위원 ahs@hankyung.com
과학기술정보통신부가 AI 시대 바람직한 AI 개발·활용 방향을 제시하기 위한 ‘국가 AI 윤리기준’을 내놨다. 이른바 ‘인간성(Humanity)’을 구현하기 위해 AI의 개발 및 활용 과정에서 지켜야 한다는 3대 기본원칙과 10대 핵심요건이다. 3대 기본원칙은 ❶ 인간의 존엄성 원칙, ❷ 사회의 공공선 원칙, ❸ 기술의 합목적성 원칙이다. 이어 3대 기본원칙을 실천하고 이행할 수 있도록 AI 개발과 활용 전 과정에서 충족되어야 할 10대 핵심요건으로 ⓵ 인권 보장, ⓶ 프라이버시 보호, ⓷ 다양성 존중, ⓸ 침해금지, ⓹ 공공성, ⓺ 연대성, ⓻ 데이터 관리, ⓼ 책임성, ⓽ 안전성, ⓾ 투명성이 제시됐다.
윤리적 AI를 실현하기 위해 정부·공공기관, 기업, 이용자 등 모든 사회구성원이 함께 지켜야 할 주요 원칙과 핵심요건을 제시했다는 게 정부 설명이다. 정부는 AI·윤리학·법학 등 학계·기업·시민단체를 아우르는 주요 전문가들이 자문과 의견수렴 과정에 참여했다고 밝혔다. 하지만 각론으로 들어가면 적지않은 논란을 예고한다.
정부는 ① 모든 사회 구성원이 ② 모든 분야에서 ③ 자율적으로 준수하며 ④ 지속 발전하는 윤리기준을 지향했다고 하지만, ‘자율’과 ‘법적 규제’간 경계가 모호해진다면 얘기는 완전히 달라진다. 생명윤리와 바이오 혁신처럼 AI 윤리와 AI 혁신 간 긴장과 논쟁이 촉발될 공산이 크다. 국익 중시 분위기에서 AI 윤리기준에 대한 국제 공조의 실효성도 변수다. 이런 관점에 서면 결코 간과해선 안 될 몇 가지 이슈가 나온다.
◆ AI 윤리기준에 접근하는 국가 간 미묘한 차이점
먼저, 국가마다 AI 윤리에 대한 접근 동기가 다르다는 점이다. 정부 말대로 AI 기술의 발전·확산과 함께 AI 기술의 윤리적 개발·활용 역시 세계 각국과 주요 국제기구의 관심 대상이 되어 온 것은 사실이다. 지난해 한국도 참여한 경제협력개발기구(OECD)의 AI 권고안(‘19.5)을 비롯해 유럽연합(EU), 기업, 연구기관 등 여러 주체로부터 다양한 인공지능 윤리 원칙이 발표된 바 있다. 하지만 그 배경과 의도에서는 미묘한 차이점이 있다.AI에서 가장 앞서간다는 미국이 대표적인 경우다. 미국이 AI 윤리를 논의하기 위해 ‘글로벌 AI 파트너십(GPAI)’에 전격 참여한 이유를 상기할 필요가 있다. 미국이 당초 이 모임에 참여하기를 꺼린 이유는 글로벌 AI 윤리 논의가 어떤 형태로든 미국이 주도하는 AI 혁신에 걸림돌이 될 것을 우려했기 때문이다.
그러던 미국에 새로운 목적이 생겼다. 무섭게 따라오는 중국 AI에 대한 견제다. 이는 캐나다 프랑스 등이 인권, 포용, 다양성, 혁신, 경제성장 등을 원칙으로 책임감 있는 AI 채택과 사용 지침을 위한 글로벌 조직 결성을 제안하면서 내심 AI를 오용·남용할 가능성이 높은 중국 모델의 확산을 우려한 점과 맞아떨어졌다. 하지만 미국은 동시에 GPAI가 미국 기업에 규제로 작용할 수도 있는 어떤 기준을 제정하거나 정책을 결정하는 기구가 돼선 안 된다는 점도 분명히 했다.
미국이 GPAI에 참여한 것은 단순히 AI 윤리문제 때문이 아니다. 이는 EU도 마찬가지다. 중국 견제는 물론이고 글로벌 시장에서 AI를 선도하는 구글 등 미국 거대 기술기업을 통제하려는 측면이 있다는 점을 부인하기 어렵다. AI를 주도하는 미국을 어떻게든 윤리란 틀 안으로 끌어들인 다음, 여차하면 미국 기업들의 일방적 AI 주도에 제동을 걸겠다는 의도가 있다고 보는 게 맞을 것이다.
이런 맥락에서 보면 우리 정부가 단순히 글로벌 추세에 발 맞추어 지난해 발표된 ‘AI 국가전략(’19.12)’ 주요 과제로 ‘국가 AI 윤리기준’ 마련한다는 것은 너무 순진한 발상이란 생각을 떨치기 어렵다. 한국은 무슨 동기와 목적으로 AI 윤리기준을 마련하는 것인지 숙고해봐야 한다.
◆ 똑같은 윤리기준도 규제 문화 따라 천양지차
다음으로, 윤리와 규제 사이의 적정한 거리의 문제다. 똑 같은 AI 윤리라고 해도 자율이 존중되는 사회와 타율이 일상화된 사회에서 갖는 의미가 같을 수 없다. 정부는 이번 AI 윤리기준이 ①인공지능 개발에서 활용에 이르는 전 단계에서 정부·공공기관, 기업, 이용자 등 모든 사회 구성원이 참조하는 기준 ②특정 분야에 제한되지 않는 범용성을 가진 일반원칙으로, 이후 각 영역별 세부 규범이 유연하게 발전해나갈 수 있는 기반 조성 ③구속력 있는 ’법‘이나 ’지침‘이 아닌 도덕적 규범이자 자율규범으로, 기업 자율성을 존중하고 인공지능 기술발전을 장려하며 기술과 사회변화에 유연하게 대처할 수 있는 윤리 담론 형성 ④사회경제, 기술 변화에 따라 새롭게 제기되는 인공지능 윤리 이슈를 논의하고 구체적으로 발전시킬 수 있는 플랫폼으로서의 기능 등 지향점을 갖고 있다고 의미를 부여했다.다른 것은 그렇다고 치더라도 ③에 혁신주체들이 얼마나 공감할지 의문이다. 정부는 구속력 있는 ’법‘이나 ’지침‘이 아닌 도덕적 규범이자 자율규범으로, 기업 자율성을 존중하고 인공지능 기술발전을 장려하며 기술과 사회변화에 유연하게 대처할 수 있는 윤리 담론을 형성한다지만, 지금의 한국 사회에서 이 말을 곧이 곧대로 믿을 사람이 얼마나 될지 궁금하다. 정부가 “앞으로 ‘국가 AI 윤리기준’이 새롭게 제기되는 AI 윤리이슈에 대한 토론과 숙의의 토대가 되고 현장에 정착할 수 있도록 윤리기준의 사회 확산을 위한 주체별 체크리스트 개발 등 실천방안도 마련해나가겠다”고 하자, 당장 산업 및 연구현장에서는 “또 체크리스트냐”는 냉소적인 반응이 나온다.
해서는 안 되는 것 말곤 허용하는 네거티브 방식의 법과 규제 문화에서는 자율이란 이름으로 윤리가 작동할 광범위한 공간이 존재한다. 반면 하라는 것만 해야 하는 포지티브 방식의 법과 규제 문화에서는 자율이란 이름의 윤리가 작동할 공간이 극히 좁거나 말이 자율이지 타율적 규제와 다름없는 것으로 받아들여진다. 똑 같은 AI 윤리기준이라고 하더라도 어떤 나라에서는 AI 혁신과 공진화를 하면서 혁신을 촉진하는 쪽으로 나아가는데, 어떤 나라에서는 AI 혁신과 AI 윤리 중 양자택일로 가면서 혁신을 방해하는 쪽으로 역행하는 일이 얼마든지 일어날 수 있다는 뜻이다.
한국은 어느 쪽으로 갈까? 타다는 AI기업이고 타다 서비스는 AI 서비스란 호소에도 불구하고 우리 사회에서 어떻게 결말이 났는지 되돌아보면 여러가지 우려를 갖게 한다. 정부가 제시한 AI 윤리기준에 따르면 타다는 3대 기본원칙, 즉 ❶ 인간의 존엄성 원칙, ❷ 사회의 공공선 원칙, ❸ 기술의 합목적성 원칙에서부터 태클이 들어왔을 게 뻔하다. 3대 기본원칙을 실천하고 이행할 수 있도록 AI 개발과 활용 전 과정에서 충족되어야 할 10대 핵심요건 중 ⓺ 연대성이란 벽을 넘기도 어려웠을 것이다. 이런 일이 앞으로도 일어나지 않는다는 법이 없다. 자율이란 이름의 윤리기준이 언제든 타율적 강제 규제로 돌변할 수 있다는 얘기다.
◆ AI 윤리기준의 정치적 악용은 AI 혁신에 독(毒)
마지막으로, 정치나 제도의 후진성으로 인한 잘못이 AI 탓으로 돌려지는 경우다. AI와 일자리, AI와 생산성, AI와 임금 등과 관련하여 각종 논란이 발생하면 정치가 미래지향적으로 나아가기는커녕 AI 윤리기준으로 무능함을 가리면서 AI를 공격할 가능성을 배제할 수 없다.정치에 속지 않으려면 미래의 노동에 관한 미국 MIT 태스크포스가 지난 2년 간 연구한 기술과 일자리 보고서, ‘The Work of the Future: Building Better Jobs in an Age of Intelligent Machines’의 몇가지 결론을 기억해 두는 게 좋을 것같다.
MIT 보고서는 AI 등 기술변화는 기존 일자리를 대체하면서 동시에 새로운 일자리를 창출한다고 말한다. 그러나 우리가 보는 정치는 새로운 일자리를 창출하지 못하는 무능함을 숨긴채 피도 눈물도 없는 AI가 일자리를 모두 빼앗아간다고 선동한다. AI로 새로운 일자리를 창출하려면 AI 투자와 확산이 전 산업 분야에서 일어나야 한다. 하지만 후진적 정치는 이 과정에서 사회적 저항이 촉발되면 바로 그 쪽으로 달려가 AI 윤리기준과 흡사한 논리로 표를 구걸한다.
보고서는 또 AI 투자를 하는데도 생산성 증가, 임금 증가로 이어지지 않는다면 변화를 거부하는 익숙한 문화와 제도, 정책 탓일 가능성이 높다고 말한다, 하지만 이런 경우에도 AI가 모든 문제의 근원인양 몰고가는 게 후진적 정치의 특징이다.
MIT보고서는 AI와 공존할 수 있는 일자리의 질을 높이는 게 중요하고 이를 위해서는 노동시장의 혁신이 필요하다고 말한다. 새로운 기회 창출과 경제적 이동성이 생기려면 새로운 교육과 훈련도 필요하다. 하지만 후진적 정치일수록 당장 표를 얻는데 도움이 안 되거나 시간이 오래 걸리는 과제를 기피하는 경향이 강하다.
문재인 정부가 ‘AI 국가전략(’19.12)’ 에 이어 ‘국가 AI 윤리기준’을 마련한 것으로 AI 정책을 완성했다고 여긴다면 큰 착각이다. 한국이 AI에 대한 미래지향적 철학이 없다면 AI 윤리기준이 AI 개발·활용에 도움이 되기는커녕 AI 혁신에 가장 큰 적(敵)이 될지 모른다.
안현실 논설·전문위원 ahs@hankyung.com