[기고] '패러다임 체인저' AI와 협업 능력 키워야
이미 우리 생활 깊숙이 파고든 인공지능(AI)은 어디까지 진화할까? 전문가들은 인공지능 기술의 진화 단계를 보통 3단계로 보고 있다. 인간의 지적 활동을 지원하고 인간 능력을 증강하는 단계를 거쳐, 스스로 사고하고 판단하는 수준의 강한 인공지능으로 진화할 것이며, 언젠가는 모든 면에서 인간의 능력을 훨씬 뛰어넘는 초(超)인공지능 출현도 가능할 것으로 예상하고 있다.

강한 인공지능이 현실화되기에는 시간이 필요할 것으로 보인다. 그런데 강한 인공지능과 초인공지능이 등장한다면 이는 인간에게 축복일까, 재앙일까. 놀랍게도 부정적인 견해를 가진 사람이 훨씬 더 많은 편이다. 그들은 인간이 인공지능을 통제하기는커녕 지배를 받을 가능성이 크다고 생각한다. 인공지능을 다루는 인간의 오작동과 미숙함에서 비롯되는 문제들도 우려한다. 비윤리적인 인공지능이 탄생한다면 문제의 심각성은 상상을 초월할 것이란 생각이다.

영국 옥스퍼드대는 강한 인공지능이 출현할 경우 인류에게 주는 영향을 시뮬레이션했다. 구글이 만든 답, 정부가 만든 답, 비정부기구(NGO)가 만든 답 등 다양한 시나리오를 통해 시뮬레이션했다. 그 결과 모든 결론이 똑같았다. 시간적인 차이는 있지만 강한 인공지능의 끝은 인류 멸망이라는 것이었다.

우리는 인공지능 시대에 우려되는 가장 큰 문제로 빅브러더(big brother)를 생각한다. 즉, 국가나 대기업이 취득한 다양한 개인정보를 가지고 프라이버시를 침해할 가능성을 우려하는 것이다. 이보다 더 큰 문제는 인공지능이 범죄와 군사적 목적으로 이용돼 인류에게 위협적인 존재가 될 수 있다는 점이다.

가짜뉴스를 생산해 여론을 조작하고 음성·영상 합성 기술로 동영상을 조작해 선거나 정치에 영향을 미치는 일 또한 가능하다. 인공지능이 20년 안에 핵전쟁을 유발할 수 있다는 섬뜩한 분석도 있다. 또 감정 없는 로봇을 살인 등에 악용할 수도 있다. 미국 매사추세츠공대(MIT)는 최근 인공지능이 잘못된 학습을 거듭하면 사이코패스 성향을 띤다는 연구 결과를 내놓았다. 연구진은 사이코패스 인공지능 ‘노먼’에게 죽음과 살인 등 부정적인 이미지와 동영상을 나타낸 정보들만 집중적으로 학습시켰다. 그 결과 노먼은 연구진이 보여준 그림에서 자살, 교통사고, 총살, 살인과 같은 끔찍한 표현만을 내놓았다.

이런 상황이 현실화되지 않도록 윤리적 측면에서 킬러로봇이나 비윤리적인 인공지능 개발을 제한해야 한다는 움직임이 일고 있다. 인공지능 활용의 윤리성 제고를 위한 국제사회 노력도 이뤄지고 있다. 2015년 스티븐 호킹과 애플 공동 설립자 스티브 워즈니악을 비롯해 1000여 명의 인공지능 분야 연구자들은 인공지능 전쟁 금지를 권고하는 의견에 서명했다. 2016년 열린 주요 7개국(G7) 정보통신장관회의에서는 인공지능의 잘못된 사용이나 사고를 사전에 방지하기 위한 국제규약 제정이 논의됐다.

이처럼 인공지능이 초래할 미래는 불투명하다. 그렇다고 인공지능의 발전을 위한 노력을 멈출 수도 없다. 앞으로 인공지능과 평화롭게 공존하는 세상을 만들려면 무엇보다 열린 마음이 있어야 한다. 또 ‘패러다임 체인저’로서 인공지능과 협력하는 능력이 절실히 요청된다. 중요한 점은 윤리적인 인공지능이 탄생할 수 있도록 인간 자체의 인성과 도덕심을 고양해 나아가는 것이라 하겠다. 인공지능도 결국은 인간이 만들어 내는 것이기 때문이다.