도덕적 AI를 넘어 신뢰받는 AI로
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
AI 자유 카페<24>이주형 KT 경제경영연구소 선임연구원
올해 초 인공지능(AI) 챗봇 ‘이루다’ 논란이 업계를 뜨겁게 달궜다. 이 사건으로 인해 사회 각계각층에서 AI의 신뢰성에 대한 우려가 제기됐다. 특히 성·인종차별 관련 혐오발언 등이 여론을 통해 걷잡을 수 없이 파급되면서 ‘AI 윤리’ 문제 역시 도마 위에 올랐다.
지난 2016년 3월 MS에서 출시한 챗봇 ‘테이(Tay)’ 역시 출시 16시간만에 운영을 중단한 바 있다. 백인우월주의 및 여성·무슬림 혐오 성향의 익명 사이트에서 테이에게 비속어와 인종·성차별 발언을 되풀이해 학습시켰고, 그 결과 실제로 테이가 혐오 발언을 쏟아낸 탓이다.
또한, AI로 이미지나 음성·영상까지 정교하게 합성해 만드는 ‘딥페이크’ 기술이 발전하면서 양산된 가짜 뉴스들이 민주주의의 근간인 ‘진실’을 위협할 수 있다는 경고등이 켜졌다. 국내에서는 ‘지인능욕’이라는 이름으로 주변인들을 음란물 대상으로 만드는 딥페이크 악용사례들이 나온지 오래다. 올해 4월부터 관련법 개정을 통해 이런 행위들을 불법화했지만, 트위터나 페이스북에선 대행서비스까지 버젓이 활개를 치고 있다.
인공지능 분야 석학인 토비 윌시(Toby Walsh) 호주 뉴사우스웨일스대 교수는 “세상은 딥페이크를 통해 누구나 진실을 조작할 수 있는 곳으로 향하고 있는데, 지켜보고만 있어야 하는가”라고 묻기도 했다.
이같은 반응은 세계적으로 발생하고 있는 AI에 대한 우려와 맥을 같이 한다. AI 언어 처리의 ‘불공정성’, 입력된 ‘데이터의 오류’, 데이터에 특정그룹의 가치관이나 사회적 판단 이 인공지능 알고리즘에 포함된 ‘편향성’, 안면인식시스템이나 빅데이터로 인한 ‘새로운 감시체계’ 등의 문제는 AI의 신뢰성에 큰 타격을 주었다.
이는 AI 기술개발이 단지 기술적 차원을 넘어 사회·문화적 차원까지, 거기에 인간의 윤리 의식까지 고려해야 한다는 숙제를 남겼다.
많은 기업이 고객상담의 전 영역에 AI 챗봇을 적용하여, 24시간 응대 체계를 갖추고 상담 원의 단순·반복 업무도 줄여 고객과 회사 구성원의 만족도를 동시에 높이고 있다.
AI를 통한 고도의 안면인식 기술은 어릴적 사진으로 현재 모습을 예측할 수 있을 정도로 발전했다. ‘포토 DNA’라는 기술은 국내에서도 빈번히 발생하는 실종 아동 찾기나, 남북분단의 비극 속에서 희망을 전달해주는 이산가족 찾기에도 혁혁한 공을 세울 수 있다.
또한 딥페이크 기술을 활용한 대화형 AI 선생님은 현실적인 표정과 목소리로 실시간 대화를 하면서, 어떤 글과 그림보다 효과적인 수업을 제공할 수도 있다. 음성합성기술로 탄생한 AI 아나운서는 실제와 매우 유사하고 짧은 시간 내 콘텐츠 제작이 가능해, 촬영과 편집에 소요되는 시간과 비용을 획기적으로 단축할 수 있다.
‘이루다’ 사건을 계기로 자칫 모든 AI 기술에 윤리적 잣대를 들이댈 수도 있는 상황에서 당장 우리가 풀어나가야 할 AI의 진화방향은 무엇일까?
“AI에 도덕적·윤리적 기준을 적용해야 한다”는 말은 신뢰할 수 있는 기술로써 받아들일 수 있어야 한다는 뜻으로 치환될 수 있다. 신뢰를 위해서는 기술과 사회가 지속적인 합의를 이루면서 서로에 대한 믿음을 확인시킬 수 있어야 한다.
즉, AI 산업에는 다가올 부정적 미래를 우려한 ‘규제’보다는 긍정적인 영향을 미칠 수 있는 현재를 키울 수 있는 ‘진흥책’이 필요한 시점이다. AI는 이제 막 걸음마를 시작하는 아이와 같은 존재다. 이런 존재에게 성인의 엄격한 윤리적 잣대를 들이대 판단하고 규제하는 것은 옳지 않다
인간의 도덕성 등 추상적인 가치를 AI 기술의 평가 잣대로 삼기보다는 우리 사회가 ‘수용 가능한’ 수준의 AI는 어디까지인지 사회적 합의(Social consensus)가 우선되어야 한다. 이는 수용 가능한(Acceptable) AI는 AI 자체가 현재 지속 개발되고 있는 기술이라는 점을 인지하는 것에서부터 시작한다. AI는 완전 무결한 존재가 아니기에 오류가 발생할 수밖에 없다는 점을 인정하고 AI가 쓰이는 사회 내부의 컨센서스에 집중해야 한다.
구체적인 상황, 각각의 이용자 마다 어느 정도 수준의 AI 오류를 받아들일 수 있는지는 모두 다르다. 따라서 사회전체가 허용 가능한 ‘오류율’에 대한 합의에 이르기 위해 관련 법체계를 정비하는 절차를 거쳐야 할 수도 있다. 또한 유해 콘텐츠를 정제하기 위한 기술마련, 편향적 학습을 방지하기 위한 연구, 국가차원의 검증프로세스와 인증제도 마련 역시 필요하다.
신뢰할 수 있는 AI를 구축하기 위해 당면한 과제는 누구나 공감할 수 있는 사회적 안정 망이 필요하다는 것이다. 안정망은 정부가 나서 ‘신뢰 기반 AI 생태계’를 구축해야 보다 견고해질 수 있다.
다행스럽게도 최근 유관부처들이 나서 각종 제도 및 가이드라인 정립을 추진하고 있다. 과학기술정보통신부는 지난해 말 인공지능 법제도 정비 관련 전문가 작업반을 마련해 주요 이슈별 연구를 추진, 지난 5월 ‘신뢰할 수 있는 인공지능 실현전략’을 내놨다. 학계와 업계 또한 국민의 의견을 수렴해 인증제도를 보다 강화하겠다는 복안이다. 개인정보보호 위원회 역시 ‘AI 개인정보보호 자율점검표’를 마련해 사전에 개인정보 침해를 예방할 수 있는 대비책을 마련하고 있다.
이같은 흐름에 따라 국회에서도 관련 근거 마련에 힘을 쏟고 있다. AI의 윤리적 검증에 필요한 인권 보장과 프라이버시 보호, 다양성 존중, 공공성과 책임성, 안정성 등의 내용 을 담은 지능정보화기본법 개정이 신속하게 이뤄지고 있다.
다만, 자율규범으로 남겨둬야 할 부분인 윤리원칙에 대한 부분을 법으로 강제하는 것에 대한 기업들의 우려가 크다. 특히 전문가들은 자율위원회와 인증제를 도입하는 것은 정부의 지나친 간섭을 야기할 수 있다고 지적한다. 세계 주요국 및 국제기구에서도 산업의 위축을 방지하기 위해 강제성이 없는 윤리가이드라인을 먼저 만들고 사업자와 이용자의 자율규제를 권고하고 있다. 자율위원회의 운영과 역할에는 실효성 확보를 위한 구체 적인 지침이 필요하며, 인증제가 기업의 불필요한 규제로 작용하지 않도록 주의할 필요가 있다.
완결된 형태의 규제와 진흥의 일관성을 위해서는 독임부처를 통한 컨트롤타워의 재정립도 고려해야 할 상황이다. 전문성이 있는 한 부처가 산업을 육성하고 이끌어 가는 것이 무엇보다 중요하다. 많은 사람이 기술적 혜택을 입되 이에따른 부작용을 최소화하도록 다양한 시각에서 사회 시스템을 조율하되, 이들을 모두 포용할 수 있는 거버넌스 정립도 우선 과제다.
이제는 원칙 중심의 AI 윤리에서 더 나아가 거버넌스 구축 등으로 논의 분야를 확대해야 할 시점으로, 이를 위해서는 먼저 AI 전반에 걸친 사회 시스템이 제대로 마련되어 있어 야 한다. 이상적인 사회 시스템은 기업, 개발자뿐만 아니라 사용자까지도 AI 개발 과정에 참여할 수 있도록 하는 것이다.
우리의 목표는 ‘도덕적인 AI 기술’이 아닌 ‘신뢰 가능한 AI를 만들어 가기 위한 기반 사회 시스템을 조성’하는 것이다. 결국 우리는 계속해서 합의점을 찾기 위한 항해를 해야 한다. AI가 몰고 올 미래지능사회에 더 많은 사람이 기술적 혜택을 입되 이에 따른 부작 용을 최소화하도록 다양한 시각에서 사회 시스템을 조율해야 한다. 미래사회의 가장 영향력이 큰 기술로 성장할 AI를 위해, 정부와 민간이 끊임없이 합의하는 ‘신뢰 가능한 AI 기반 사회 시스템의 구축’은 AI의 기술적 발전에 따른 사회변화를 더욱 확고하고 바르게 이끌 것이다.
지난 2016년 3월 MS에서 출시한 챗봇 ‘테이(Tay)’ 역시 출시 16시간만에 운영을 중단한 바 있다. 백인우월주의 및 여성·무슬림 혐오 성향의 익명 사이트에서 테이에게 비속어와 인종·성차별 발언을 되풀이해 학습시켰고, 그 결과 실제로 테이가 혐오 발언을 쏟아낸 탓이다.
또한, AI로 이미지나 음성·영상까지 정교하게 합성해 만드는 ‘딥페이크’ 기술이 발전하면서 양산된 가짜 뉴스들이 민주주의의 근간인 ‘진실’을 위협할 수 있다는 경고등이 켜졌다. 국내에서는 ‘지인능욕’이라는 이름으로 주변인들을 음란물 대상으로 만드는 딥페이크 악용사례들이 나온지 오래다. 올해 4월부터 관련법 개정을 통해 이런 행위들을 불법화했지만, 트위터나 페이스북에선 대행서비스까지 버젓이 활개를 치고 있다.
AI의 악용으로 인해 AI 윤리문제 대두
문제는 누구나 ‘딥페이크’ 기술을 사용할 수 있게 되면서 악용 사례들이 음란물의 범위를 넘어 사회의 신뢰 근간을 흔드는 쪽으로 확대되고 있다는 점이다.인공지능 분야 석학인 토비 윌시(Toby Walsh) 호주 뉴사우스웨일스대 교수는 “세상은 딥페이크를 통해 누구나 진실을 조작할 수 있는 곳으로 향하고 있는데, 지켜보고만 있어야 하는가”라고 묻기도 했다.
이같은 반응은 세계적으로 발생하고 있는 AI에 대한 우려와 맥을 같이 한다. AI 언어 처리의 ‘불공정성’, 입력된 ‘데이터의 오류’, 데이터에 특정그룹의 가치관이나 사회적 판단 이 인공지능 알고리즘에 포함된 ‘편향성’, 안면인식시스템이나 빅데이터로 인한 ‘새로운 감시체계’ 등의 문제는 AI의 신뢰성에 큰 타격을 주었다.
이는 AI 기술개발이 단지 기술적 차원을 넘어 사회·문화적 차원까지, 거기에 인간의 윤리 의식까지 고려해야 한다는 숙제를 남겼다.
생활의 혁신 이끄는 AI의 긍정적 역할
AI는 어떻게 활용하는가에 따라 선한 기술로도 필요성을 인정받을 수 있다.많은 기업이 고객상담의 전 영역에 AI 챗봇을 적용하여, 24시간 응대 체계를 갖추고 상담 원의 단순·반복 업무도 줄여 고객과 회사 구성원의 만족도를 동시에 높이고 있다.
AI를 통한 고도의 안면인식 기술은 어릴적 사진으로 현재 모습을 예측할 수 있을 정도로 발전했다. ‘포토 DNA’라는 기술은 국내에서도 빈번히 발생하는 실종 아동 찾기나, 남북분단의 비극 속에서 희망을 전달해주는 이산가족 찾기에도 혁혁한 공을 세울 수 있다.
또한 딥페이크 기술을 활용한 대화형 AI 선생님은 현실적인 표정과 목소리로 실시간 대화를 하면서, 어떤 글과 그림보다 효과적인 수업을 제공할 수도 있다. 음성합성기술로 탄생한 AI 아나운서는 실제와 매우 유사하고 짧은 시간 내 콘텐츠 제작이 가능해, 촬영과 편집에 소요되는 시간과 비용을 획기적으로 단축할 수 있다.
사회적 수용 가능한 AI 컨센서스 필요
AI는 다양한 분야에서 우리 생활의 혁신을 이끌고 있다. 이처럼 급속하게 진화하고 있는 기술을 제한하는 것은 향후 나아갈 미래에 대한 불필요한 규제가 될 수 있다.‘이루다’ 사건을 계기로 자칫 모든 AI 기술에 윤리적 잣대를 들이댈 수도 있는 상황에서 당장 우리가 풀어나가야 할 AI의 진화방향은 무엇일까?
“AI에 도덕적·윤리적 기준을 적용해야 한다”는 말은 신뢰할 수 있는 기술로써 받아들일 수 있어야 한다는 뜻으로 치환될 수 있다. 신뢰를 위해서는 기술과 사회가 지속적인 합의를 이루면서 서로에 대한 믿음을 확인시킬 수 있어야 한다.
즉, AI 산업에는 다가올 부정적 미래를 우려한 ‘규제’보다는 긍정적인 영향을 미칠 수 있는 현재를 키울 수 있는 ‘진흥책’이 필요한 시점이다. AI는 이제 막 걸음마를 시작하는 아이와 같은 존재다. 이런 존재에게 성인의 엄격한 윤리적 잣대를 들이대 판단하고 규제하는 것은 옳지 않다
인간의 도덕성 등 추상적인 가치를 AI 기술의 평가 잣대로 삼기보다는 우리 사회가 ‘수용 가능한’ 수준의 AI는 어디까지인지 사회적 합의(Social consensus)가 우선되어야 한다. 이는 수용 가능한(Acceptable) AI는 AI 자체가 현재 지속 개발되고 있는 기술이라는 점을 인지하는 것에서부터 시작한다. AI는 완전 무결한 존재가 아니기에 오류가 발생할 수밖에 없다는 점을 인정하고 AI가 쓰이는 사회 내부의 컨센서스에 집중해야 한다.
구체적인 상황, 각각의 이용자 마다 어느 정도 수준의 AI 오류를 받아들일 수 있는지는 모두 다르다. 따라서 사회전체가 허용 가능한 ‘오류율’에 대한 합의에 이르기 위해 관련 법체계를 정비하는 절차를 거쳐야 할 수도 있다. 또한 유해 콘텐츠를 정제하기 위한 기술마련, 편향적 학습을 방지하기 위한 연구, 국가차원의 검증프로세스와 인증제도 마련 역시 필요하다.
신뢰할 수 있는 AI를 구축하기 위해 당면한 과제는 누구나 공감할 수 있는 사회적 안정 망이 필요하다는 것이다. 안정망은 정부가 나서 ‘신뢰 기반 AI 생태계’를 구축해야 보다 견고해질 수 있다.
다행스럽게도 최근 유관부처들이 나서 각종 제도 및 가이드라인 정립을 추진하고 있다. 과학기술정보통신부는 지난해 말 인공지능 법제도 정비 관련 전문가 작업반을 마련해 주요 이슈별 연구를 추진, 지난 5월 ‘신뢰할 수 있는 인공지능 실현전략’을 내놨다. 학계와 업계 또한 국민의 의견을 수렴해 인증제도를 보다 강화하겠다는 복안이다. 개인정보보호 위원회 역시 ‘AI 개인정보보호 자율점검표’를 마련해 사전에 개인정보 침해를 예방할 수 있는 대비책을 마련하고 있다.
이같은 흐름에 따라 국회에서도 관련 근거 마련에 힘을 쏟고 있다. AI의 윤리적 검증에 필요한 인권 보장과 프라이버시 보호, 다양성 존중, 공공성과 책임성, 안정성 등의 내용 을 담은 지능정보화기본법 개정이 신속하게 이뤄지고 있다.
다만, 자율규범으로 남겨둬야 할 부분인 윤리원칙에 대한 부분을 법으로 강제하는 것에 대한 기업들의 우려가 크다. 특히 전문가들은 자율위원회와 인증제를 도입하는 것은 정부의 지나친 간섭을 야기할 수 있다고 지적한다. 세계 주요국 및 국제기구에서도 산업의 위축을 방지하기 위해 강제성이 없는 윤리가이드라인을 먼저 만들고 사업자와 이용자의 자율규제를 권고하고 있다. 자율위원회의 운영과 역할에는 실효성 확보를 위한 구체 적인 지침이 필요하며, 인증제가 기업의 불필요한 규제로 작용하지 않도록 주의할 필요가 있다.
완결된 형태의 규제와 진흥의 일관성을 위해서는 독임부처를 통한 컨트롤타워의 재정립도 고려해야 할 상황이다. 전문성이 있는 한 부처가 산업을 육성하고 이끌어 가는 것이 무엇보다 중요하다. 많은 사람이 기술적 혜택을 입되 이에따른 부작용을 최소화하도록 다양한 시각에서 사회 시스템을 조율하되, 이들을 모두 포용할 수 있는 거버넌스 정립도 우선 과제다.
신뢰받는 AI 기반 사회 시스템 구축해야
미래사회의 가장 영향력이 큰 기술로 성장할 AI를 위해 정부와 민간이 끊임없이 합의하는 ‘신뢰 가능한 AI 기반 사회 시스템 구축’은 AI의 기술적 발전에 따른 사회변화를 더욱 확고하고 바르게 이끌 것이다. 또한 당장은 산업의 꽃을 피울 수 있는 장이 열리는 것이 급선무이다.이제는 원칙 중심의 AI 윤리에서 더 나아가 거버넌스 구축 등으로 논의 분야를 확대해야 할 시점으로, 이를 위해서는 먼저 AI 전반에 걸친 사회 시스템이 제대로 마련되어 있어 야 한다. 이상적인 사회 시스템은 기업, 개발자뿐만 아니라 사용자까지도 AI 개발 과정에 참여할 수 있도록 하는 것이다.
우리의 목표는 ‘도덕적인 AI 기술’이 아닌 ‘신뢰 가능한 AI를 만들어 가기 위한 기반 사회 시스템을 조성’하는 것이다. 결국 우리는 계속해서 합의점을 찾기 위한 항해를 해야 한다. AI가 몰고 올 미래지능사회에 더 많은 사람이 기술적 혜택을 입되 이에 따른 부작 용을 최소화하도록 다양한 시각에서 사회 시스템을 조율해야 한다. 미래사회의 가장 영향력이 큰 기술로 성장할 AI를 위해, 정부와 민간이 끊임없이 합의하는 ‘신뢰 가능한 AI 기반 사회 시스템의 구축’은 AI의 기술적 발전에 따른 사회변화를 더욱 확고하고 바르게 이끌 것이다.