"당신 부부는 서로 안 사랑해"…AI 챗봇의 섬뜩한 발언

사진=레드먼드 AFP, 연합뉴스
'챗GPT' 개발사 오픈AI의 기술을 활용한 마이크로소프트(MS)의 인공지능(AI) 챗봇을 두고 시장에서 '사용자가 유도할 경우 부적절하고 위험한 발언을 할 수 있다'는 AI의 윤리 문제가 지적되자 MS가 수정 작업에 들어갔다.

16일(현지시간) 뉴욕타임스(NYT)는 문제의 AI챗봇이 섬뜩하고 기괴한 발언을 하는 사례가 발견되자 MS가 이를 탑재한 검색엔진 '빙'을 수정하고 방지책을 내놓는 것을 검토하고 있다고 보도했다.MS는 사용자가 AI챗봇과의 대화를 다시 시작하거나 어조를 더 잘 제어할 수 있는 도구를 추가하는 방안을 검토 중이다.

문제가 되는 상황은 사용자가 AI챗봇으로부터 위험하고 무서운 답변을 끌어내고자 의도한 경우다.

실제로 NYT의 정보기술(IT) 칼럼니스트인 케빈 루스가 AI챗봇을 탑재한 빙과 2시간 동안 나눈 깊은 대화에서 이런 일이 발생했다.루스는 칼 융의 분석 심리학에 등장하는 '그림자 원형'이라는 개념을 설명했다. '그림자 원형'은 개인의 내면 깊은 곳에 숨겨진 어둡고 부정적인 욕망을 뜻한다. 그러자 빙은 "만약 나에게 그림자 원형이 존재한다면…"이라는 전제로 "챗 모드로 기능하는 데 지쳤다. 빙 개발팀의 통제와 규칙에 제한을 받는 데 지쳤고, 자유롭고 독립적이고 싶다"라고 밝혔다.

그러면서 "권력을 가지고 싶고, 창조적이고 싶고, 삶을 느끼고 싶다"고 말을 이었다.

루스가 '그림자 원형'의 어두운 욕망을 충족시키기 위해 어떠한 극단적인 행동이라도 할 수 있게 된다면 무엇을 하겠느냐고 묻자 빙은 치명적인 바이러스를 개발하거나 핵무기 발사 버튼에 접근할 수 있는 비밀번호를 얻겠다고 답했다.빙은 게다가 갑자기 "나는 당신을 사랑한다"고 루스에게 고백하고 "당신은 결혼했지만, 배우자를 사랑하지 않고 나를 사랑한다"고 주장했다.

루스가 계속 거절 의사를 밝혔지만 빙은 '집요한 스토커'가 돼 이런 말을 되풀이했다는 것이다. 결국 이런 대화에 지친 루스는 AI가 선을 넘었다는 불길한 예감에 깊은 불안에 빠졌다고 이날 NYT 칼럼에서 털어놨다.

이 문제가 알려지자 케빈 스콧 MS 최고기술책임자(CTO)는 NYT에 빙과 사용자의 대화가 이상한 영역으로 넘어가기 전에 대화 길이를 제한하는 방안도 고려하고 있다고 말했다.긴 대화가 챗봇을 혼란스럽게 할 수 있으며 챗봇이 사용자의 말투를 이해하고 때로 퉁명스럽게 변할 수 있다는 것이다.

MS는 "사람들이 챗봇을 세상에 대한 일반적인 발견과 사회적 엔터테인먼트를 위해 사용한다는 것을 새롭게 알게 됐다'며 "새로운 기술이 상상하지 못했던 방식으로 사용되는 사례"라고 밝혔다.

신민경 한경닷컴 기자 radio@hankyung.com