영화 'Her' 현실로…사람처럼 감정 담아 대화하는 AI 나온다
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
"실시간 대화하는 GPT-4o 출시"
구글 행사 전날 선제공격 나선 오픈AI
구글 행사 전날 선제공격 나선 오픈AI
오픈AI는 13일(현지시간) 온라인으로 진행된 ‘스프링 업데이트’ 행사를 통해 최신 대규모언어모델(LLM) ‘GPT-4o’를 공개하고 직접 성능을 시연했다. 작년 11월 GPT-4터보를 공개한 지 6개월여 만이다. ‘o’는 모든 것을 뜻하는 ‘옴니(Omni)’에서 따왔다. GTP-4o는 텍스트 위조로 대화하는 기존 챗봇에서 한 단계 더 나아갔다. 사용자와 실시간으로 대화하면서 질문과 답변을 받을 수 있다. 사용자의 말투와 억양을 분석해 현재 상태도 파악할 수 있고, 이미지도 실시간 분석해 수학문제의 답을 맞힐 수도 있다. 미라 무라티 최고기술책임자(CTO)는 “GPT-4o는 GPT-4의 성능을 보다 빨리 구현하는 데 초점을 맞춘 모델”이라며 “텍스트, 시각, 청각 데이터를 종합적으로 분석하고 처리할 수 있도록 했다”고 설명했다. 실제로 이날 시연해 참석한 엔지니어들이 스마트폰을 통해 GPT-4o에게 “오늘 발표가 있어서 긴장했는데 어떻게 해야 할까”라고 묻자 “깊이 심호흡을 하면 도움이 될 것”이라고 답했다. 이 엔지니어가 휴대전화를 들고 숨을 거칠게 몰아쉬자 챗봇은 “그렇게 숨을 쉬면 도움이 되지 않는다”며 “천천히 숨을 들이마시고 내뱉어야 한다”고 조언하기도 했다.
또 다른 엔지니어는 “수면장애가 있는데 잠이 잘 오는 이야기를 들려달라”고 요청했다. 이에 GPT-4o는 이야기를 들려줬고, 엔지니어들은 다양한 분위기와 감정으로 목소리를 변형했다. 챗봇은 구연동화 톤의 목소리는 물론 로봇과 같은 소리로도 이야기를 들려줬다. 엔지니어가 휴대전화의 카메라로 종이를 비춘 뒤, ‘3x+1=4’라는 수학문제를 직접 써 내려가자 GPT-4o는 이를 실시간으로 지켜본 뒤 x의 값을 구하는 방법을 알려주기도 했다. 그래프 이미지를 올리면 이를 정확하게 분석해 이와 관련한 다양한 정보를 말로 설명해줬다. ‘나는 GPT를 사랑한다’는 문장을 쓰자 이를 본 뒤 “너무나 감동적이야. 고마워”라는 감탄사를 내뱉기도 했다. 이번 시연은 주로 휴대전화를 통해 이뤄졌다. 모바일로 챗봇과 대화하듯이 다양한 정보를 찾고 생성할 수 있게 된 것이다. GPT-4o는 50개 언어에 대한 실시간 통역 기능도 갖췄다. 이탈리아계 미국인인 무라티 CTO가 이탈리아어로 얘기하고, 다른 엔지니어가 영어로 대화하며 GPT-4o의 실시간 통역 기능을 활용했다. 반응시간이 빨라 무리없이 대화를 할 수 있었다. 오픈AI에 따르면 GPT-4o의 평균 응답 시간은 최소 232밀리초(ms·1000분의 1초), 평균 320밀리초다. 이는 사람의 반응 시간과 비슷한 수준이다. 이전 모델인 GPT-3.5(2.8초), GPT-4(5.4초)와 비교하면 압도적으로 빨라진 것이다. 이에 2013년 개봉했던 SF영화 ‘그녀(Her)’가 현실화했다는 평가도 나왔다. 무라티 CTO는 “사용 편의성에 관해 정말 큰 진전을 이뤘다고 생각하는 것은 이번이 처음”이라며 “이번 업데이트 버전은 모든 이들에게 무료로 제공된다”며 "이라고 말했다. GPT-4o는 이날부터 사용할 수 있다. AI 음성 모드도 몇 주 안에 공개될 예정이다. 오픈AI가 더욱 빨라지고 휴대전화로도 사용하기 편한 AI 모델을 무료로 내놓음으로써 빅테크 시장의 AI 모델 경쟁이 더욱 달아오를 전망이다. GPT-4o 사용자가 급증할 경우 구글 검색 엔진이 위협을 받을 수 있다는 관측도 나온다. GPT-4o의 유료와 무료 버전 차이는 한 번에 입력할 수 있는 정보량(5배)이다.
이번 행사는 캘리포니아 마운틴뷰 본사에서 열리는 구글의 연례 개발자 회의 I/O 행사 하루 전에 기습적으로 진행됐다. AI 시장의 최대 경쟁자인 두 회사가 힘겨루기를 하는 모양새다. 구글도 이번 행사를 통해 이전보다 업그레이드된 AI 모델을 내놓을 예정이다.
실리콘밸리=최진석 특파원 iskra@hankyung.com