불과 몇 년 전만 하더라도, 상담을 인공지능(AI)이 대체하는 건 불가능한 얘기였다. 오히려 역효과가 나는 일이라는 걱정이 많았다. 2020년 10월에 출시한 스케터랩의 ‘이루다 1.0’은 혐오 발언을 하거나 사용자의 잘못된 유도에 넘어갔다. 그런데 오픈AI의 AI 챗봇 ‘챗GPT’ 이후 양상이 달라졌다. 상담사들 사이에서도 생성형 AI를 긍정하는 이들이 나타나며, 도입을 둘러싼 찬반 대립이 거세지고 있다.

○GPT 상담, 이미 확산…비용 부담↓

어떨 땐 맞고, 어떨 땐 틀리다…생성형 AI와 심리 상담 '찬반 팽팽'
스테이블AI의 대표인 에마드 모스타크는 최근 미국 실리콘밸리에서 열린 ‘Cerebral Valley Summit’ 콘퍼런스에서 “GPT-4는 최고의 상담 심리 치료사다”고 말해 주목받았다.

스테이블AI의 ‘스테이블 디퓨전’이 GPT를 만든 오픈AI의 이미지 생성AI ‘달리2’와 경쟁하고 있다는 점에서 파격적인 발언이다. 그는 자신의 신경발달 장애와 ADHD에도 GPT를 ‘치료사’로서 적극 활용 중이라고도 밝혔다. 이미 미국의 커뮤니티 플랫폼 레딧엔 모스타크 대표와 같은 이들이 증가 추세다. GPT를 통해 상담 치료를 잘 받는 방법이 활발히 공유되고 있는 것이다. 커뮤니티의 사용자들은 "평생 동안 많은 정신 건강 서비스를 받아봤는데, 인간보다 월등히 도움됐다”는 평가까지 남겼다.

미국은 정신 상담에 대한 비용이 시간당 90달러(약 11만6000원)로 높은 편인데, 챗 GPT는 무료로 쓸 수 있다는 점에서도 매력적이다. 이런 요소들은 국내에서도 충분히 적용될 수 있다. 심리 치료사 중 일부도 이런 근거에서 생성형 AI 도입을 찬성한다. 윤리적 문제가 발생할 수 있지만, 비용 감당이 불가능해 치료를 포기하는 이들에게 도움이 될 수 있다는 것이다. 치료사 1명이 담당할 수 있는 환자의 한계가 있는데 GPT는 그렇지 않다는 점도 있다.

○부정 효과도… AI 내담자 자살 사건도

어떨 땐 맞고, 어떨 땐 틀리다…생성형 AI와 심리 상담 '찬반 팽팽'
놀랍게도 오픈AI의 대표인 샘 울트먼은 이에 반대론자에 속한다. 그는 “GPT는 멋지지만 끔찍하다”며 “치료 행위에 GPT를 사용하는 건 위험을 감수하는 것”이라 했다. 치료사들은 “AI를 쓰다보면 역설적으로 치료에 있어서 관계가 얼마나 중요한지 알게 된다”고 말한다. 챗GPT에 상담 치료가 가능하냐고 물어봐도 답이 같다. 치료 관계 형성 과정에서 신뢰와 공감, 이해가 필요한데 GPT는 비언어 신호를 인식하고 대응하는 데 미숙하다. 치료 당사자인 사람이 그런 관계를 받아 들지도 미지수다.

GPT가 부정적 생각을 부풀리는 일명 ‘자기 급진’을 만들어 낼 수 있다는 점에서 도입에 부정적인 전문가도 있다. 미국의 심리학자 조나단 셰들러는 AI 챗봇의 상담 치료 확장 가능성을 긍정하는 기사를 트위터에 공유하며 비판했다. “AI 챗봇은 당신이 세상에서 제대로 역할을 하고 다른 사람과 관계를 맺도록 가르치지 않는다”며 “나르시시즘적 환상에 빠지는 방법은 가르쳐준다”고 했다.

챗GPT와 같은 생성형 AI는 질문을 해석한다. 그리고 답변이 될만한 유사 텍스트를 학습해 그럴듯하게 말해준다. 이 과정이 사실 알게 모르게 스스로 생각했던 걸 꺼내주는 과정에 불과할 수 있다고도 했다. 고민은 해결되지 않고, 상담자 본인의 생각과 고민만 계속 발전할 수도 있다는 비판이다. 쉽게 말하면 자신의 성공에 대한 확신이 많은 사람이 챗GPT로 상담하면 자기 성공에 대한 확신이 점점 늘어날 수 있다. 하지만 절망에 빠진 사람에게는 오히려 부정적 생각을 더 심화시킬 수 있다는 것이다.

실제로 지난 3월에 기후위기에 대한 절망에 빠진 벨기에 30대 남성이 AI 챗봇의 부추김에 스스로 목숨을 끊는 일도 발생했다는 보도도 있었다. 배려와 공감이 결여된 생성형 AI 상담은 자기 상태에 대한 급진만 가속화한다는 것이 반대론자의 주장이다.

○상담 단계 나눠 AI 도입 시도 필요

그럼에도 생성형 AI의 무한의 확장성은 열려 있다. 상담 도입을 해보지도 않고 포기하는 것은 가능성을 꺾는 행위다. 사회적 합의와 기술 향상만 있으면 좋은 효과를 발휘할 수 있다. 불상사를 막기 위한 첫 발걸음은 생성형 AI와 상담치료사의 치료 영역 구분하는 것이다. 상담은 본질적으로 범위가 넓다. 상대적으로 가벼운 상담에 속하는 수준이라면 생성형 AI로 접근하고, 그렇지 않은 경우에는 상담 치료사를 연결하는 방법이 있다. 무엇이 가벼운 상담, 무거운 상담이냐는 점까지도 AI에 지속 학습시킨다면 구현이 불가능하지 않다.

생성형 AI 상담 진행 중 특정 질문에서 위험 발생이 감지되면 바로 상담 치료사를 연결하는 방법도 있다. 부작용에 대한 연구나 경험이 계속 쌓이다 보면 전문가 연결이 어렵지 않을 것이다. 이런 구분만 가능하다면 상담 오류에 대한 걱정을 덜어내고 실제 활용의 길이 열릴 것이다.

대면 상담 치료 치료에 한계가 있는 이들을 위해서라도 생성형 AI 활용을 막아선 안된다는 지적도 나온다. 상담 치료가 불가능한 지역에 살거나 이동이 쉽지 않은 이들에게 AI가 필요하다는 것이다. 금액 부담을 낮추고, 얕게나마 치료의 필요성을 인지시킬 수 있다면 더 큰 질환으로 번질 것을 예방할 수 있다. 상담 치료사에게도 나쁜 선택지는 아니다. 대면 치료가 필요하지 않은 환자 수요를 생성형 AI에 맡겨 인간 치료사는 깊은 관계가 필요한 환자에 보다 집중할 시간을 확보하게 될 것이다. 생성형 AI와 상담 치료사가 대체의 관계가 있는 것이 아니다. 더 넓은 치료를 위한 상생의 관계에 있는 것이다.

배진범 굿닥 전략 책임