"AI는 인간의 도구…통제권 잃으면 공존관계 깨질 것"

글로벌인재포럼 2024

'AI와 윤리' 주제발표

인종·性 등 혐오 부추기지 않는
윤리적인 인공지능 개발해야
'올바른 AI' 전지구적 논의 필요

우리 스스로 생각해야할 문제
AI에 맡기고 결과만 취한다면
사유 잃고 '외주화'만 하게 될 것
31일 서울 광장동 그랜드워커힐서울에서 열린 ‘글로벌인재포럼 2024’에서 발표자들이 ‘인공지능과 인류가 공존할 방향은 무엇인가’를 주제로 토론하고 있다. 왼쪽부터 로저 힐 미국 조지아대 교육학과 학과장, 신상규 이화여대 이화인문과학원 교수, 장영하 영국 서식스대 과학기술정책연구소 교수, 미아 샤단드 라이트하우스3 대표. /김범준 기자
“우리 사회의 중요한 가치를 학습하고 인간을 보조해 생산성을 높일 수 있는 ‘인간만의 인공지능(AI)’을 만들어야 합니다.”

미국에 본사를 둔 기술 컨설팅 기업 ‘라이트하우스3’를 이끌고 있는 미아 샤단드 대표는 31일 서울 광장동 그랜드워커힐서울에서 열린 ‘글로벌인재포럼 2024’에서 차세대 AI 기술의 발전 방향성을 이같이 제시했다. 그는 ‘AI와 윤리, AI와 인류가 공존할 방향은 무엇인가’를 주제로 발표했다. 이날 세션에서 전문가들은 “인간이 AI 통제권을 소유하는 것을 전제로 공존을 논해야 한다”고 입을 모았다.

○“AI는 유용한 도구, 경쟁자 아냐”

신상규 이화여대 이화인문과학원 교수는 AI를 인간의 경쟁 상대가 아니라 기술의 일종으로 인식해야 한다고 했다. 그는 “AI는 인간의 고유성을 위협하는, 인간과 같은 지능적 존재가 아니다”며 “기술은 지금 이 순간 우리가 어떻게 살아가는지 보여주는 수단이며 AI도 이런 수단의 일종”이라고 설명했다.

전문가들은 인간이 AI를 통해 고유의 능력을 보완하고 확장하는 방식으로 인간과 AI의 공존이 이뤄져야 한다고 강조했다. 장영하 영국 서식스대 과학기술정책연구소 교수는 “인간이 통제권을 잃으면 AI와 인간의 관계는 순응 또는 대립으로 전락한다”며 “AI로 무엇을 할 수 있는지 주체적으로 고민해야 인간은 AI 시대에도 존엄성을 지킬 것”이라고 짚었다.

신 교수는 “인간 자신이 스스로 생각해야 할 내용을 AI에 물어보고 결과만 취하는 방식이 보편화하면 결국 사유할 힘을 잃고 자신의 영역을 ‘외주화’하게 된다”며 “기술로서 AI에 끌려가지 말고 우리가 원하는 삶의 모습, 발전시키고 싶은 역량을 AI 기술 개발 단계에 주도적으로 반영하는 태도가 중요하다”고 말했다.

○“AI 윤리 논의할 협의체 만들어야”

사회적 차별과 혐오를 부추기지 않는 윤리적인 AI를 개발해야 한다는 주장도 나왔다. 인종, 성별, 종교 등을 차별하는 데이터를 학습하지 않도록 관리하자는 의견이다. 샤단드 대표는 “인간의 역할은 AI 기술력 고도화에 국한되지 않고, 윤리적 AI를 설계하는 것으로 확장된다”며 “인간의 산물인 AI에는 개발 주체인 인간의 가치관과 사상이 반영될 수밖에 없기 때문”이라고 했다.

AI 기술력의 ‘부익부 빈익빈’ 현상이 심화하면 윤리적 침해로 이어질 수 있다는 지적도 제기됐다. 대니얼 시프 미국 퍼듀대 정치학과 교수는 “AI를 개발할 수 있을 정도로 기술력이 뛰어난 나라는 많지 않기에 AI를 통한 혜택은 부와 권력이 있는 일부 국가만 누릴 것”이라며 “기술력이 편중되면 이를 누리지 못하는 집단을 배제하는 차별적인 알고리즘이 개발되는 등 구조적 병폐가 나타날 수 있다”고 경고했다.

시프 교수는 AI 윤리와 알고리즘의 투명성을 논의할 글로벌 의사 결정 합의체가 필요하다고 제언했다. 그는 “유네스코가 194개 회원국 내 과학기술 전문가의 의견을 모아 ‘AI 윤리 권고’를 만든 것처럼 지구적 차원에서 올바른 AI가 무엇인지 토론할 장을 마련하고 주기적으로 논의해 결과물을 내놔야 한다”고 주장했다.

이소현 기자 y2eonlee@hankyung.com