물론 인공지능에 정치적 권력과 결정권을 이양하기 위해서는 현재의 인공지능 수준을 훨씬 능가하는 인공지능의 개발이 필수적이다. 현재의 인공지능은 딥러닝 방식으로 개발되어 과거와 비교할 수 없을 정도의 지능적 처리능력을 보여주고 있다. 그럼에도 불구하고 여전히 인간이 미리 정해주는 특정과제 처리의 한계를 벗어나지 못하는 특화인공지능 (Artificial Narrow Intelligence:ANI)에 불과하다. 인공지능이 정치를 하기 위해서는 ANI 한계를 돌파하여 인간이 정해주는 거의 모든 과제에 두루두루 활용되는 소위 범용인공지능(AGI)으로도 부족하다. 인공지능이 정치를 하기 위해서는 이제 인간의 비합리성을 전면적으로 능가하며 진화하는 초인공지능(Super Artificial Intelligence)이 출현해야 한다. 그런데 이 초인공지능은 지금과 같이 목적함수에 최적화되는 함수 특정을 위해 천문학적 번회의 순전파와 역전파를 순환과정에 따른 파라미터 수정을 통해 작동하는 딥러닝 방식으로는 불가능하다. 초인공지능은 마치 생명체처럼 자신의 한계를 비약적으로 넘어서며 목적함수를 스스로 창출하고 진화하는 알고리즘을 기반으로 하는 인공지능이어야 한다. 물론 현재로는 이러한 초인공지능의 출현은 요원하다. 하지만 미래를 향해 적극적으로 도전하는 일부의 인공지능 학자들과 또 이들의 도전을 적극 응원하는 기술중심적 미래학자들은 초인공지능을 향해 연구의 방향을 집중시켜야 한다고 피력하고 있다. 설령 그 성공은 먼 미래에 이루어질지 모른다 할지라도.
물론 이 초인공지능이 기술적으로 가능한지를 둘러싸고 AI 전문가들 사이에서도 어지러운 논쟁이 일어나고 있다. 양자컴퓨터가 개발되면 초인공지능은 어렵지 않게 개발될 수 있다는 주장을 둘러싼 논쟁으로부터 앞으로 50년 내에는 불가능하니까 이 문제를 갖고 논쟁하는 것은 시간 낭비라는 주장에 이르기 까지. 그러나 초인공지능은 가까운 미래에 등장하지 않을 것이기 때문에 문제삼지 말자는 주장은 당장 AI가 인간을 대체할 수는 없기 때문에 예를 들면 인간의 일자리 문제에 대해 고민할 필요가 없다는 것만큼 무책임한 주장이다. 현재의 기술이 어떤 방향을 향하고 개발되고 있으며 그 방향이 과연 어디에 도달할 것인가를 성찰해보는 것은 그 방향에 내재해 있을 지 모를 리스크를 관리해 나기 위해서 매우 중요한 문제이다. 모든 사람이 이 문제를 고심할 필요가 없다. 그러나 적어도 인문 사회영역에서 미래를 연구하는 전문가들은 사전 예방의 원리(Precautionary Principle) 에 의거한 리스크 관리기법에 따라 이러한 리스크를 예민하고 신중하게 다루어야 한다. 그러한 의미에서 미래의 합리적 정치를 위해 정치하는 초인공지능의 개발 방향에 어떤 위험이 잠복하고 있는지 살펴보면, 최소한 다음과 같은 세가지 리스크가 감지된다.
첫째, 인공지능이 초인공지능으로 발전하려면, 인간의 현재 상태를 계속 능가하는 자율적 진화 능력을 갖고 있어야 한다. 그런데 이렇게 자율적으로 진화하는 초인공지능은 인간보다 우월한 지적 차원에 속하기 때문에 인간의 편에서는 이 진화가 올바른 것인지, 보다 안전한 것인지, 나아가 정의로운 것인지 판단할 수 없다. 이는 마치 유인원이 그보다 더 지적으로 진화한 인간의 행위의 올바름 여부를 판단할 수 없는 것과 같다. 따라서 정녕 인간을 능가하는 초인공지능의 개발이 성공한다면, 미래에 인간의 운명을 초인공지능에 맡기 것 이외는 다른 선택이 없을 것이다. 그러나 초인공지능은 절대 전능의 신이 아니며 따라서 오류를 범할 수 밖에 없다. 그리고 그보다 더 중요한 것은 자율적 진화의 과정에서 반드시 시행착오와 돌연변이 등이 발생할 수밖에 없고 또 이러한 것이 없이는 지속적인 진화는 불가능하다. 그런데 슈퍼인공지능의 시행착오나 돌연변이는 초인공지능에게 자신의 운명을 맡기는 인간에게는 치명적이 위험이 될 수도 있다. 이러한 위험은 개개의 인간에게 위험이 될 수도 있고 인류전체에게 치명적 재난이 될 수도 있다.
둘째, 일반 인공지능을 넘어서 개발될 초인공지능은 인간의 모든 영역과 그 영역과 관계돼 있는 모든 사물에 인공지능이 스며들어 모든 것을 지능적으로 연결하고 작동하는 만물 AI (AI of Everything)이라 할 수 있다. 이 경우 시스템의 복잡도는 상상을 초월할 정도로 폭증하고 복잡성의 폭증은 또 그만큼 오작동의 위험을 가중시킨다. 이렇게 가중되는 위험을 감시 통제하기 위해서는 만물 인공지능을 다시 통제하는 초정밀 인공지능 시스템의 필요하다. 초정밀 시스템의 복잡성은 그것에 의해 통제되는 시스템의 복잡성을 능가하고 따라서 오작동의 위험은 더 가중된다. 결국 초인공지능이 완성된다면, 그것은 시스템의 오작동 위험을 급증시키는 고위험 사회의 미래가 될 수도 있다.
마지막으로 고려해야 할 위험은 다음과 같은 것이다. 슈퍼인공지능은 인간을 둘러싼 환경의 복잡성과 그 복잡성이 야기하는 여러가지 위협적인 문제들을 정확히 인지하고 그 복잡성을 제어할 목적으로 개발되고 있다. 그러한 가운데 초인공지능에게는 인간의 명령에 따라 타율적으로 행동하는 것이 아니라 인간의 명령 이전에 그 인간이 원하는 것을 그 인간보다 먼저 파악하여 자율적으로 행동할 수 있는 능력이 요구된다. 그런데 문제는 이렇게 초인공지능이 행동의 자율성을 실현할 수 있는 방향으로 발전하면 할수록, 그리하여 모든 문제를 인간에 앞서 해결해주면 해줄수록, 인간은 자유로운 행위자로서의 존재방식을 상실해갈 위험에 노출된다. 마치 헤겔이 주인과 노예의 변증법에서 보여준 바와 같이, 노예가 주인에 앞서 미리 모든 것을 결정해주고 처리해주면, 주인은 거의 모든 것을 노예에 의존하게 되어 사실상 자기 스스로 아무 것도 하지 못하는 무기력한 존재로 전락한다는 것이다. 초인공지능의 개발이 성공한다면, 똑같은 상황이 전개될 수 있다.
현대 학문들은 현대과학의 기본적인 태도인 물리주의에 편승하여 자유로운 존재로서의 인간을 부정하고 인간을 물질과 동일하게 취급하는 입장도 있다. 하지만 우리가 우리 자신으로 되돌아가 자신을 살펴보면 부정될 수 없는 절대적 실존적 진리가 있다. 그것은 인간 개개인은 어느 누구와도 또 무엇과도 동일할 수 없는 자기 자신이라는 체험이다. 이렇게 인간은 자기 자신이기 때문에 오히려 자신을 포기하고 남을 따라 사는 선택을 할 수도 있거나 아니면 자신으로 사는 방식을 선택을 하는 자율성을 갖는다. 또 인간이 인간으로서의 정체성과 인권을 주장할 수 있는 근거도 인간 각자는 다른 무엇과도 바꿀 수 없는 자기 자신으로 사는 주권적 행위자라는 사실에 있다. 나아가 이러한 인간의 인간성을 인정함으로써만이 인권을 존중하는 민주적 인도주의적 시민사회가 성립한다. 따라서 인간이 인권이 존중되는 시민사회를 포기하지 않는 한, 인간은 이러한 자유로운 행위자로서의 인간성을 보존해야 하고 신장시켜야 할 사회적 의무를 갖는다.
결론적으로 아무리 현재의 정치가 실망스러워도 또 설령 먼 훗날 초인공지능 개발이 성공한다 해도, 우리는 정치를 초인공지능에게 이양할 수도 없고 해서도 않될 것이다. 우리가 여전히 주권적 존재로서 나와 타자의 인권을 존중하는 한 그리고 인간이 주권적 존재로서 인권을 존중받는 미래 사회를 향해 발전해 나가려고 하는 한, 정치발전을 향한 인간의 정치적 지성을 증진시키기 위한 연구와 교육은 더욱더 필연적인 요청이다. 그래야만 정치적 지성이 발달한 스마트(현명한)시민들에 의한 정치가 가능해지며 그렇게 시민들이 스마트해 질 때, 그들의 스마트한 행위에서 발생하는 빅데이터들에 기반한 현명한 인공지능이 개발될 수 있다.
성균관대 철학과 교수·하이브리드 미래문화연구소장