아내보다 나를 더 잘 이해한다?…감정 읽는 AI, 대중화 가속
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
과학 이야기
영화 속 과학
MIT '알터에고' 개발
"15분 테스트로 마음 읽어내"
LG전자, 내년 '클로이홈' 출시
"목소리 톤 분석해 사람과 대화"
영화 속 과학
MIT '알터에고' 개발
"15분 테스트로 마음 읽어내"
LG전자, 내년 '클로이홈' 출시
"목소리 톤 분석해 사람과 대화"
영화 ‘그녀(Her)’의 주인공 테오도르는 자신의 감정적인 욕구를 이해하는 인공지능(AI) 비서 사만다에 사랑의 감정을 느낀다. 공감이 필요할 때 자신의 얘기에 귀 기울여주고 위로가 필요한 시점에 따뜻한 말을 건네는 사만다의 매력에 흠뻑 빠진다.
가상 개인비서와 대화형 AI 기술이 발달하면서 사만다처럼 사람의 감정을 읽는 플랫폼이 하나둘 등장하고 있다. AI와의 사랑이 허무맹랑한 얘기가 아닐 수 있다는 것이다. 미국 매사추세츠공대(MIT)는 사용자가 머릿속으로 생각한 단어를 읽어내고 이를 텍스트로 변환하는 ‘알터에고’를 선보였다. 사람이 마음속으로 뭔가를 생각하면 뇌에서 얼굴 신경 근육으로 신호를 보내는데 이 신호를 전극으로 포착한다. 전기 신호들을 머신러닝 기법으로 분석해 특정 단어와 연결하는 게 다음 단계다. MIT 연구팀은 “15분 정도의 매칭 테스트를 거치면 92%가량의 정확도로 마음을 읽어낼 수 있다”고 설명했다.
UC샌프란시스코의 한 연구팀은 직접 뇌신호를 분석하는 방법을 쓰고 있다. 이용자의 뇌 표면에 전극을 이식하고 이를 통해 청각 피질의 뇌파를 모니터링하는 ‘뉴로프로스시시스(Neuroprosthesis)’를 개발한 것. 특정 단어를 들을 때 뇌파가 어떻게 변하는지 확인하는 방식으로 ‘뇌의 목소리’를 해독한다.
초보적인 수준의 감정인식 AI는 이미 상용화 단계다. LG전자가 내년에 선보이는 가정용 로봇 클로이홈에는 사람의 목소리 톤을 분석해 우울함이 느껴지면 재미있는 말로 사용자의 기분을 풀어주는 기능이 있다. 사람처럼 감정도 표현한다. 클로이홈은 14가지 표정과 58가지 동작으로 감정을 드러낼 예정이다.
대기업을 중심으로 빠르게 확대되고 있는 ‘AI 면접’에도 감정을 파악하는 AI 플랫폼이 쓰인다. 마이다스아이티가 개발한 AI 프로그램 인에어(inAIR)는 지원자 얼굴에 68개의 점을 찍어 표정 및 근육의 움직임을 분석하고 자주 사용하는 단어와 심장박동, 맥박, 얼굴색의 변화 등을 감지한다. 면접자가 거짓말을 하는지 긴장하고 있는지 등을 파악할 수 있다는 설명이다.
시장에선 감정을 읽는 AI가 빠르게 대중화될 것으로 내다봤다. 시장조사기관 가트너는 2021년까지 사람이 입거나 들고 다니는 기기 중 10%가 사용자의 감정 데이터를 수집해 활용할 것이라는 전망을 내놓기도 했다.
다만 감정을 읽는 AI가 아무리 발달한다고 해도 사람을 대체하는 것은 불가능하다는 게 전문가들의 중론이다. 상대를 ‘독점’하고 있다는 만족감을 줄 수 없기 때문이다. 영화 ‘그녀’에도 이 대목이 언급됐다. 사만다를 활용하는 사용자만 8316명에 달했다. 이 중 641명과 사랑에 빠진 상태였다.
송형석 기자 click@hankyung.com
가상 개인비서와 대화형 AI 기술이 발달하면서 사만다처럼 사람의 감정을 읽는 플랫폼이 하나둘 등장하고 있다. AI와의 사랑이 허무맹랑한 얘기가 아닐 수 있다는 것이다. 미국 매사추세츠공대(MIT)는 사용자가 머릿속으로 생각한 단어를 읽어내고 이를 텍스트로 변환하는 ‘알터에고’를 선보였다. 사람이 마음속으로 뭔가를 생각하면 뇌에서 얼굴 신경 근육으로 신호를 보내는데 이 신호를 전극으로 포착한다. 전기 신호들을 머신러닝 기법으로 분석해 특정 단어와 연결하는 게 다음 단계다. MIT 연구팀은 “15분 정도의 매칭 테스트를 거치면 92%가량의 정확도로 마음을 읽어낼 수 있다”고 설명했다.
UC샌프란시스코의 한 연구팀은 직접 뇌신호를 분석하는 방법을 쓰고 있다. 이용자의 뇌 표면에 전극을 이식하고 이를 통해 청각 피질의 뇌파를 모니터링하는 ‘뉴로프로스시시스(Neuroprosthesis)’를 개발한 것. 특정 단어를 들을 때 뇌파가 어떻게 변하는지 확인하는 방식으로 ‘뇌의 목소리’를 해독한다.
초보적인 수준의 감정인식 AI는 이미 상용화 단계다. LG전자가 내년에 선보이는 가정용 로봇 클로이홈에는 사람의 목소리 톤을 분석해 우울함이 느껴지면 재미있는 말로 사용자의 기분을 풀어주는 기능이 있다. 사람처럼 감정도 표현한다. 클로이홈은 14가지 표정과 58가지 동작으로 감정을 드러낼 예정이다.
대기업을 중심으로 빠르게 확대되고 있는 ‘AI 면접’에도 감정을 파악하는 AI 플랫폼이 쓰인다. 마이다스아이티가 개발한 AI 프로그램 인에어(inAIR)는 지원자 얼굴에 68개의 점을 찍어 표정 및 근육의 움직임을 분석하고 자주 사용하는 단어와 심장박동, 맥박, 얼굴색의 변화 등을 감지한다. 면접자가 거짓말을 하는지 긴장하고 있는지 등을 파악할 수 있다는 설명이다.
시장에선 감정을 읽는 AI가 빠르게 대중화될 것으로 내다봤다. 시장조사기관 가트너는 2021년까지 사람이 입거나 들고 다니는 기기 중 10%가 사용자의 감정 데이터를 수집해 활용할 것이라는 전망을 내놓기도 했다.
다만 감정을 읽는 AI가 아무리 발달한다고 해도 사람을 대체하는 것은 불가능하다는 게 전문가들의 중론이다. 상대를 ‘독점’하고 있다는 만족감을 줄 수 없기 때문이다. 영화 ‘그녀’에도 이 대목이 언급됐다. 사만다를 활용하는 사용자만 8316명에 달했다. 이 중 641명과 사랑에 빠진 상태였다.
송형석 기자 click@hankyung.com