KT 'AI 2.0' 선언…"똑똑함 넘어 공감능력 갖춘 인공지능"

배순민 AI2XL 연구소장 "'초거대 AI'로 자사 모든 AI 서비스 진화"
E2E 음성인식·CCTV 피사체 식별·리얼댄스 등 기술개발 현장 공개
KT가 차세대 인공지능(AI)으로 불리는 '초거대 AI'에 기반해 마치 사람처럼 감정을 이해하고 따뜻한 '공감 능력'을 지닌 AI를 내놓겠다는 포부를 밝혔다. KT는 '초거대 AI'에 기반해 자사의 모든 AI 서비스를 발전시키겠다는 'KT AI 2.0' 연구 방향을 22일 공개했다.

이를 설명하는 기자간담회는 지난 19일 서울 서초구 KT 융합기술원 AI2XL(AI To Everything Lab) 연구소에서 열렸다.

초거대 AI는 대용량 연산이 가능한 슈퍼 컴퓨팅 인프라를 바탕으로 대규모 데이터를 학습하고 종합적·자율적으로 사고·판단하는 인간의 뇌 구조를 닮은 AI라고 KT는 설명했다. 배순민 AI2XL 소장(상무)은 간담회에서 "KT의 초거대 AI에 기반해 진화된 한국어 언어모델은 '공감능력'을 갖춘 최초의 AI가 될 것"이라고 말했다.

이어 "우리가 모토로 내세운 것은 '비욘드 AI'다.

즉 한계를 뛰어넘는 AI를 보여주겠다는 것"이라며 "단순히 이성적이고 똑똑한 AI뿐 아니라 감성적인 AI와 사용자 경험(UX)을 만들고자 한다"고 강조했다. 배 소장은 이런 기술을 ▲ 차세대 AI콘택트센터(AICC·AI 기반 고객센터) ▲ 기가지니(AI 스피커) ▲ 지니버스(자체 개발 메타버스) ▲ AI로봇 ▲ 차세대 지능형교통체계(C-ITS) 등의 서비스 분야에 적용할 계획이라고 밝혔다.

배 소장은 KT의 AI가 사람의 언어를 이해하고 데이터를 토대로 언어 생성을 할 수 있도록 개발하고 있다고 설명했다.

주변이 시끄러운 곳에서 불완전한 문장을 말하더라도 문맥을 추론해 이해하는 한편 과거 사용자와 나눈 대화의 기억을 되살려 공감대를 끌어내고, 영상이나 사진을 활용해 소통하는 일도 가능하다는 것이다. 이런 초거대 AI 모델 개발을 위해 KT의 산학연 AI 연구 협력체 'AI 원팀'에서 다자간 공동연구를 벌이고 있다고 배 소장은 부연했다.

AI 원팀에는 LG전자, 한국투자증권, 한국전자통신연구원(ETRI), 카이스트 등이 참여하고 있다.

KT가 기업의 대규모 투자를 통해 AI 연구를 위한 대규모 그래픽처리장치(GPU) 인프라를 구축하고, 학교와 연구기관은 최신 연구 동향을 반영하고 윤리 문제를 점검해 기술을 제공하는 방식이다.

배 소장은 "KT와 AI 원팀은 대규모 AI 연산 인프라를 구축하고 향후 2천억 파라미터(매개변수) 이상 모델까지 가능하도록 인프라 규모도 점차 확대할 예정"이라고 밝혔다.
◇ AI로 인간 발화 순식간에 인식하고 화면도 분석
간담회에 앞서 KT는 취재진에게 AI2XL 연구소의 핵심기술 개발 현장을 일부 공개했다.

연구진은 상용화 예정인 청각·언어·시각지능 기술을 시연했다.

먼저 KT가 독자 개발한 한국어 E2E(End to End) 음성인식 시스템이 소개됐다.

이를 연구하는 이정한 전임연구원은 "타사의 E2E엔진과 달리 KT 엔진은 사용자의 음성을 실시간으로 처리해 자유 발화 인식률이 높다"고 말했다.

음성인식기에 유튜브에 올라온 약 2분 분량의 뉴스 리포트 영상 인터넷주소(URL)를 입력하자 앵커와 기자가 말한 내용 모두가 약 5초만에 화면에 글자로 옮겨졌다.

다만 '한국석유공사'를 '한국 석귀공사'로 인식하는 등 일부 오류는 있었다.

이 연구원은 "학습 데이터가 많아질수록 성능이 좋아질 것"이라고 설명했다.
이어 소개된 기술은 언어지능이 적용된 '라지 AI'다.

이 AI는 고객센터에 들어오는 문의·요청 사항을 인간 상담사 연결 없이 자동으로 처리해 주는 'AI 보이스봇' 서비스에 주로 쓰인다.

고객이 말한 한마디를 표현은 다르지만, 의미가 같은 문장 수백 개로 바꿔 보여 주고, 지난 상담 대화록을 한두 문장으로 요약해 주며 추후 상담에 도움을 준다.

이 기술을 KT의 클라우드AI 기술과 결합해 고객 맞춤형 AI 콜센터 솔루션을 제공할 수 있다고 KT 관계자는 설명했다.

시각지능은 폐쇄회로TV(CCTV)에 촬영된 차량·이륜차·보행자를 실시간으로 가려내는 C-ITS에 활용된다.

박진욱 책임연구원은 "풀HD 환경에서 20∼40픽셀 크기의 작은 객체를 식별할 수 있다"며 "눈·비가 내리고, 역광이 있는 등 어려운 환경에서도 분석이 가능하다"고 말했다.

이 기술은 또 사용자의 춤 동작을 실제 안무와 AI로 비교·분석해 피드백을 주는 '리얼댄스' 서비스에도 적용된다.

이 서비스는 다른 장비 없이 스마트폰만 있어도 구동되고, 사용자의 신체 부위별 움직임을 분석해 춤을 추며 소모한 칼로리를 분석해 주기도 한다.
◇ 초거대 AI 올해 상용화 목표…"개방형 R&D 생태계서 함께 성장"
이들 기술을 구현할 초거대 AI를 올해 내로 상용화하고 디지털 휴먼 등 시각적 상호작용을 통해 AI 서비스 수준을 한 단계 끌어올리는 것이 'KT AI 2.0'이라고 배순민 소장은 밝혔다.

배 소장은 이어 이런 목표를 위한 비전을 제시했다.

우선 기업과 소비자간 거래(B2C) 영역에서 고객의 감성을 이해해 최적의 서비스를 제공하는 차세대 AICC를 개발하는 것이다.

아울러 법률 등 전문 분야에서도 AI가 사람처럼 끊김 없는 대화를 할 수 있는 '멀티턴 전문 상담' 서비스를 개발하고, 현재 사용자가 330만명에 달하는 AI 스피커 기가지니의 대화 품질도 높인다.

기업간거래(B2B) 시장에서는 금융권을 중심으로 사용이 확산하는 AICC의 대화 품질을 대폭 향상하고 다양한 산업 분야에 최적화된 서비스를 구현할 예정이다.

고객센터 직원 등의 단순응대 노동을 최소화해 AI가 적용된 분야의 생산성을 30% 이상 끌어올리겠다고 KT는 밝혔다.

KT는 올해 AICC 수주를 2천억원 이상 달성하는 것이 목표다.

또 KT는 초거대 AI와 KT 클라우드를 기반으로 개방형 연구개발(R&D) 생태계를 조성하고 여러 협력사와 함께 성장해 나갈 것이라고 밝혔다.

KT는 이를 위한 노력의 일환으로 지난 19일 AI 연구개발 포털 '지니랩스'(https://genielabs.ai)를 열었다.

배 소장은 "이곳에서 여러 스타트업 등 협력사의 AI를 소개하고, 금융·차량·로봇·물류 등 다양한 산업 분야에서 KT의 기술을 사용할 수 있게 도와줄 것"이라고 설명했다. 배 소장은 "AI는 더는 실험실 단계의 시범적 기술에 머물러서는 안 된다"며 "사용자들이 초거대 AI를 즉시 활용할 수 있도록 빠른 상용화를 위한 기술 개발을 병행해 나가겠다"고 말했다.

/연합뉴스