31일 서울 광장동 그랜드워커힐서울에서 열린 ‘글로벌인재포럼 2024’에서 발표자들이 ‘인공지능과 인류가 공존할 방향은 무엇인가’를 주제로 토론하고 있다. 왼쪽부터 로저 힐 미국 조지아대 교육학과 학과장, 신상규 이화여대 이화인문과학원 교수, 장영하 영국 서식스대 과학기술정책연구소 교수, 미아 샤단드 라이트하우스3 대표.  김범준 기자
31일 서울 광장동 그랜드워커힐서울에서 열린 ‘글로벌인재포럼 2024’에서 발표자들이 ‘인공지능과 인류가 공존할 방향은 무엇인가’를 주제로 토론하고 있다. 왼쪽부터 로저 힐 미국 조지아대 교육학과 학과장, 신상규 이화여대 이화인문과학원 교수, 장영하 영국 서식스대 과학기술정책연구소 교수, 미아 샤단드 라이트하우스3 대표. 김범준 기자
“AX(인공지능 전환) 시대는 이미 시작됐습니다. 보고서를 대신 작성하고, 번역하고, 분석하는 인공지능(AI) 비서가 일상화됐죠. 사람의 생산성은 더 높아질 수 있습니다.”(마르코 카살라이나 마이크로소프트 애저 AI 부사장)

31일 폐막한 ‘글로벌인재포럼 2024’(한국경제신문사, 교육부, 한국직업능력연구원 공동 주최) 참석 연사들은 AI로 인간의 경쟁력이 더 높아질 것으로 봤다. 소모적인 일을 할 시간에 더욱 생산적이고 창의적인 업무에 집중할 수 있어서다.

AI는 인간의 경쟁자가 아니라 인간을 돕는 조수라는 것이 전문가들의 공통된 의견이었다. 신상규 이화여대 이화인문과학원 교수는 “AI는 인간의 고유성을 위협하는, 인간과 같은 지능적 존재가 아니다”며 “기술은 지금 이 순간 인류가 어떻게 살아가는지 보여주는 수단이며 AI도 이런 기술의 일종”이라고 설명했다.

다만 개발 단계부터 AI가 인간의 고유 능력을 보완하고 확장하는 방식으로 설계돼야 한다고 강조했다. 장영하 영국 서식스대 과학기술정책연구소 교수는 “인간이 통제권을 잃으면 AI와 인간의 관계는 순응 또는 경쟁으로 전락할 수 있다”고 지적했다.

AI가 발달할수록 평생교육이 중요해질 것으로 전문가들은 내다봤다. AI를 활용해 창의적인 일을 하는 고숙련 노동자 수요가 늘기 때문이다.

비르기트 토만 독일 직업교육연방연구소(BIBB) 국제본부장은 “민간뿐 아니라 국가 차원에서 숙련 인력을 배출할 수 있는 교육 환경을 조성하는 것이 필요하다”고 말했다.

"AI는 인간의 도구…통제권 잃으면 공존관계 깨질 것"
인종·性 등 혐오 부추기지 않는…윤리적인 인공지능 개발해야

“우리 사회의 중요한 가치를 학습하고 인간을 보조해 생산성을 높일 수 있는 ‘인간만의 인공지능(AI)’을 만들어야 합니다.”

미국에 본사를 둔 기술 컨설팅 기업 ‘라이트하우스3’를 이끌고 있는 미아 샤단드 대표는 31일 서울 광장동 그랜드워커힐서울에서 열린 ‘글로벌인재포럼 2024’에서 차세대 AI 기술의 발전 방향성을 이같이 제시했다. 그는 ‘AI와 윤리, AI와 인류가 공존할 방향은 무엇인가’를 주제로 발표했다. 이날 세션에서 전문가들은 “인간이 AI 통제권을 소유하는 것을 전제로 공존을 논해야 한다”고 입을 모았다.

○“AI는 유용한 도구, 경쟁자 아냐”

신상규 이화여대 이화인문과학원 교수는 AI를 인간의 경쟁 상대가 아니라 기술의 일종으로 인식해야 한다고 했다. 그는 “AI는 인간의 고유성을 위협하는, 인간과 같은 지능적 존재가 아니다”며 “기술은 지금 이 순간 우리가 어떻게 살아가는지 보여주는 수단이며 AI도 이런 수단의 일종”이라고 설명했다.

전문가들은 인간이 AI를 통해 고유의 능력을 보완하고 확장하는 방식으로 인간과 AI의 공존이 이뤄져야 한다고 강조했다. 장영하 영국 서식스대 과학기술정책연구소 교수는 “인간이 통제권을 잃으면 AI와 인간의 관계는 순응 또는 대립으로 전락한다”며 “AI로 무엇을 할 수 있는지 주체적으로 고민해야 인간은 AI 시대에도 존엄성을 지킬 것”이라고 짚었다.

신 교수는 “인간 자신이 스스로 생각해야 할 내용을 AI에 물어보고 결과만 취하는 방식이 보편화하면 결국 사유할 힘을 잃고 자신의 영역을 ‘외주화’하게 된다”며 “기술로서 AI에 끌려가지 말고 우리가 원하는 삶의 모습, 발전시키고 싶은 역량을 AI 기술 개발 단계에 주도적으로 반영하는 태도가 중요하다”고 말했다.

○“AI 윤리 논의할 협의체 만들어야”

사회적 차별과 혐오를 부추기지 않는 윤리적인 AI를 개발해야 한다는 주장도 나왔다. 인종, 성별, 종교 등을 차별하는 데이터를 학습하지 않도록 관리하자는 의견이다. 샤단드 대표는 “인간의 역할은 AI 기술력 고도화에 국한되지 않고, 윤리적 AI를 설계하는 것으로 확장된다”며 “인간의 산물인 AI에는 개발 주체인 인간의 가치관과 사상이 반영될 수밖에 없기 때문”이라고 했다.

AI 기술력의 ‘부익부 빈익빈’ 현상이 심화하면 윤리적 침해로 이어질 수 있다는 지적도 제기됐다. 대니얼 시프 미국 퍼듀대 정치학과 교수는 “AI를 개발할 수 있을 정도로 기술력이 뛰어난 나라는 많지 않기에 AI를 통한 혜택은 부와 권력이 있는 일부 국가만 누릴 것”이라며 “기술력이 편중되면 이를 누리지 못하는 집단을 배제하는 차별적인 알고리즘이 개발되는 등 구조적 병폐가 나타날 수 있다”고 경고했다.

시프 교수는 AI 윤리와 알고리즘의 투명성을 논의할 글로벌 의사 결정 합의체가 필요하다고 제언했다.

그는 “유네스코가 194개 회원국 내 과학기술 전문가의 의견을 모아 ‘AI 윤리 권고’를 만든 것처럼 지구적 차원에서 올바른 AI가 무엇인지 토론할 장을 마련하고 주기적으로 논의해 결과물을 내놔야 한다”고 주장했다.

강영연/김종우/이소현 기자 yykang@hankyung.com