"AI의 대답, 사람이 미리 일러준 걸까?" 판별 방법은 [이상은의 IT 산책]
입력
수정
오픈AI의 생성형 인공지능(AI) '챗GPT'가 큰 관심을 받으면서 앞서 나왔던 AI 챗봇 모델들도 새롭게 조명받고 있다. 챗GPT만큼 자연스럽거나 우수하지는 않았지만, 앞서 나왔던 여러 AI 챗봇도 처음에는 감탄을 자아내며 이목을 끌었다. 하지만 상당수는 인종차별이나 혐오발언 등이 문제가 되어 사용이 중단되는 패턴을 반복했다.
마이크로소프트(MS)가 2016년 3월 선보였던 AI 챗봇 '테이'가 대표적인 사례다. 테이는 트위터 등 메신저에서 활동했다. 사람들과의 대화를 학습해서 다음 대화에서 더 인간적인 대화를 할 수 있도록 짜여졌다. 열여섯살 미국인 소녀를 기본 정체성으로 삼았던 테이는 그러나 선보이자마자 하루도 채 지나기 전에 인종차별과 혐오발언 생성기가 돼 버렸다. 사람들과의 대화에서 학습한다는 원칙이 알려지자 각종 차별주의자들이 적극적으로 테이의 학습에 나선 결과다. 2021년 국내에서도 챗봇 '이루다'가 인기를 끌다가 장애인과 성소수자에 대한 혐오발언 등으로 서비스 중단 사태에 이르렀다. 구글이 챗GPT와 같은 생성 AI를 개발하고 있으면서도 챗GPT와 같이 일반 대중에게 공개하지 않고 비교적 조심스럽게 일부 모델을 선보이는 데 그치는 것도 윤리 문제와 관련이 깊다는 게 관련 업계의 공통적인 인식이다.
구글은 이미 오래 전부터 딥러닝 방식으로 자연어를 처리(NLP)하는 방법을 연구해 왔다. 2018년 구글이 공개한 BERT 모델을 활용해서 나온 것이 스캐터랩이 개발한 '이루다'였다. 구글은 작년 초 기술 콘퍼런스 'I/O'에서 챗봇 '람다(LaMDa)'를 선보였다. 이후 한 개발자가 람다에게 인격이 있다고 주장하기도 했다(사실일 가능성은 없다). 람다에 관한 논문 등은 나와 있지만, 람다 자체는 현재 챗GPT처럼 외부에 노출돼 있지 않다.
한 AI 업계 관계자는 "구글은 앞서 나왔던 여러 챗봇이 결국 혐오 논란 등으로 서비스가 중단되는 것을 많이 봤고, 이번에도 그런 식으로 결론이 나서 소송전이 벌어지는 사태를 우려하고 있다"고 해석했다. 다른 관계자도 "구글이 오픈AI 수준의 언어 모델을 갖고 있지 않아서가 아니라 윤리 문제를 쉽게 해결하기 어려운 것을 알고 있기 때문에 조심스럽게 접근하는 것"이라고 설명했다. 이런 문제에 대한 대응책은 결국 인간의 개입이다. AI 업계에서는 '규칙 기반(rule-based) 학습'이라고 부른다. 기계 학습의 과정에서 규칙을 개입시켜서 특정 언어, 특정 주제가 나오면 미리 정해 놓은 답변을 출력하도록 만들거나 대답을 회피하도록 해서 민감한 윤리적인 이슈를 피해가는 것이다. 챗GPT도 초기에는 종교나 인종 등에 관해서 사용자들이 도발적인 질문을 던졌을 때 다소 '아슬아슬한' 대답을 했다면 지금은 훨씬 정제된 답변을 내놓고 있다. 이는 개발자들이 끊임없이 챗GPT의 대답을 모니터링해서 문제가 될 만한 답변을 찾아내면 곧바로 규칙을 적용하는 방식으로 프로그램을 수정하고 있기 때문이다.
규칙 기반 대답과 그렇지 않은 대답을 구분하는 방법은 뭘까? 개발자들은 생각보다 구분하기가 어렵지 않다고 설명한다. 응답 속도에 차이가 난다는 것이다. 한 개발자는 "질문에 응답하기가 쉽지 않은 질문에 대하여 응답 속도가 다른 답변에 비해 빠르다면 규칙 기반 대답이라고 생각할 수 있다"고 말했다. 딥러닝 방식으로 데이터셋을 탐색해서 얻어진 응답과 단순한 규칙을 통해서 산출된 응답 사이에는 반응 속도의 차이가 존재한다는 것이다. 응답 속도는 해당 AI가 어떤 하드웨어를 사용했는지에 대한 판단 단서도 될 수 있다고 관계자들은 설명하고 있다.
응답의 신뢰도를 높여야 할 때도 규칙 기반 응답이 활용된다. 예컨대 출처를 확인하기 어려운 여러 곳에서 학습된 데이터를 이용해 AI가 대답하는 것보다 신뢰도가 높은 곳에서 확인된 정보를 제공하는 것이 나을 경우, 신뢰도 높은 출처의 데이터를 우선 활용하라는 규칙을 적용하면 AI는 이를 따르게 된다. 미국 중앙은행(Fed)의 금리가 얼마냐고 물어보면 정확하게 Fed의 자료를 인용해서 답변하면 되는 것이지 수없이 많은 다른 온라인 페이지를 확인한 후 조합한 결과물을 내놓을 필요가 없는 것과 마찬가지다.
앞으로 AI 서비스의 성취도는 '규칙 기반 응답'과 딥러닝 기반 응답을 얼마나 자연스럽게 섞느냐에 달려 있다는 평가도 나온다.
이상은 기자 selee@hankyung.com
마이크로소프트(MS)가 2016년 3월 선보였던 AI 챗봇 '테이'가 대표적인 사례다. 테이는 트위터 등 메신저에서 활동했다. 사람들과의 대화를 학습해서 다음 대화에서 더 인간적인 대화를 할 수 있도록 짜여졌다. 열여섯살 미국인 소녀를 기본 정체성으로 삼았던 테이는 그러나 선보이자마자 하루도 채 지나기 전에 인종차별과 혐오발언 생성기가 돼 버렸다. 사람들과의 대화에서 학습한다는 원칙이 알려지자 각종 차별주의자들이 적극적으로 테이의 학습에 나선 결과다. 2021년 국내에서도 챗봇 '이루다'가 인기를 끌다가 장애인과 성소수자에 대한 혐오발언 등으로 서비스 중단 사태에 이르렀다. 구글이 챗GPT와 같은 생성 AI를 개발하고 있으면서도 챗GPT와 같이 일반 대중에게 공개하지 않고 비교적 조심스럽게 일부 모델을 선보이는 데 그치는 것도 윤리 문제와 관련이 깊다는 게 관련 업계의 공통적인 인식이다.
구글은 이미 오래 전부터 딥러닝 방식으로 자연어를 처리(NLP)하는 방법을 연구해 왔다. 2018년 구글이 공개한 BERT 모델을 활용해서 나온 것이 스캐터랩이 개발한 '이루다'였다. 구글은 작년 초 기술 콘퍼런스 'I/O'에서 챗봇 '람다(LaMDa)'를 선보였다. 이후 한 개발자가 람다에게 인격이 있다고 주장하기도 했다(사실일 가능성은 없다). 람다에 관한 논문 등은 나와 있지만, 람다 자체는 현재 챗GPT처럼 외부에 노출돼 있지 않다.
한 AI 업계 관계자는 "구글은 앞서 나왔던 여러 챗봇이 결국 혐오 논란 등으로 서비스가 중단되는 것을 많이 봤고, 이번에도 그런 식으로 결론이 나서 소송전이 벌어지는 사태를 우려하고 있다"고 해석했다. 다른 관계자도 "구글이 오픈AI 수준의 언어 모델을 갖고 있지 않아서가 아니라 윤리 문제를 쉽게 해결하기 어려운 것을 알고 있기 때문에 조심스럽게 접근하는 것"이라고 설명했다. 이런 문제에 대한 대응책은 결국 인간의 개입이다. AI 업계에서는 '규칙 기반(rule-based) 학습'이라고 부른다. 기계 학습의 과정에서 규칙을 개입시켜서 특정 언어, 특정 주제가 나오면 미리 정해 놓은 답변을 출력하도록 만들거나 대답을 회피하도록 해서 민감한 윤리적인 이슈를 피해가는 것이다. 챗GPT도 초기에는 종교나 인종 등에 관해서 사용자들이 도발적인 질문을 던졌을 때 다소 '아슬아슬한' 대답을 했다면 지금은 훨씬 정제된 답변을 내놓고 있다. 이는 개발자들이 끊임없이 챗GPT의 대답을 모니터링해서 문제가 될 만한 답변을 찾아내면 곧바로 규칙을 적용하는 방식으로 프로그램을 수정하고 있기 때문이다.
규칙 기반 대답과 그렇지 않은 대답을 구분하는 방법은 뭘까? 개발자들은 생각보다 구분하기가 어렵지 않다고 설명한다. 응답 속도에 차이가 난다는 것이다. 한 개발자는 "질문에 응답하기가 쉽지 않은 질문에 대하여 응답 속도가 다른 답변에 비해 빠르다면 규칙 기반 대답이라고 생각할 수 있다"고 말했다. 딥러닝 방식으로 데이터셋을 탐색해서 얻어진 응답과 단순한 규칙을 통해서 산출된 응답 사이에는 반응 속도의 차이가 존재한다는 것이다. 응답 속도는 해당 AI가 어떤 하드웨어를 사용했는지에 대한 판단 단서도 될 수 있다고 관계자들은 설명하고 있다.
응답의 신뢰도를 높여야 할 때도 규칙 기반 응답이 활용된다. 예컨대 출처를 확인하기 어려운 여러 곳에서 학습된 데이터를 이용해 AI가 대답하는 것보다 신뢰도가 높은 곳에서 확인된 정보를 제공하는 것이 나을 경우, 신뢰도 높은 출처의 데이터를 우선 활용하라는 규칙을 적용하면 AI는 이를 따르게 된다. 미국 중앙은행(Fed)의 금리가 얼마냐고 물어보면 정확하게 Fed의 자료를 인용해서 답변하면 되는 것이지 수없이 많은 다른 온라인 페이지를 확인한 후 조합한 결과물을 내놓을 필요가 없는 것과 마찬가지다.
앞으로 AI 서비스의 성취도는 '규칙 기반 응답'과 딥러닝 기반 응답을 얼마나 자연스럽게 섞느냐에 달려 있다는 평가도 나온다.
이상은 기자 selee@hankyung.com