본문 바로가기

    ADVERTISEMENT

    [Smart&Mobile] "샐리야, 영화 OST 틀어줘"… 음악 골라주고 날씨예보도 척척

    • 공유
    • 댓글
    • 클린뷰
    • 프린트
    네이버 AI 스피커'웨이브'써보니
    음성으로 실행 … 뉴스도 읽어줘
    앞선 질문 내용과 연계한 답변도
    일본에선 판매 5일 만에 품절
    [Smart&Mobile] "샐리야, 영화 OST 틀어줘"… 음악 골라주고 날씨예보도 척척
    “샐리야, 내일 비가 내릴까?” “내일 비 소식은 없습니다. 이날은 하루종일 구름이 많을 예정입니다. 강수 확률은 20%입니다.”

    네이버는 지난 11일 네이버뮤직 1년 이용권을 9만원에 판매하면서 구매자에게 선착순으로 인공지능(AI) 스피커 ‘웨이브’를 무료로 제공하는 행사를 열었다. 시작 후 35분 만에 이벤트가 끝날 정도로 반응이 좋았다. 일본에서도 지난달 14일부터 웨이브를 1만엔에 판매했는데 5일 만에 모두 팔렸다. 네이버는 가을부터 일본에서 이 제품을 정식 판매할 계획이다. 한국에선 아직 판매 여부가 결정되지 않았다.

    웨이브의 첫인상은 깔끔했다. 약 20㎝ 높이의 남색 원뿔 모양이다. 하단 부분에 조명이 달려 있어 침실 무드등으로 사용할 수 있었다. 5000mAh 크기의 내장 배터리가 장착돼 있어 장소를 옮겨 다니며 이용하는 것도 가능했다.

    일반적으로 많이 쓰는 마이크로 5핀이나 C타입 단자가 아닌 전용 단자를 쓰는 점은 아쉬웠다. 충전 케이블이 고장나거나 잃어버릴 경우 케이블을 새로 구입해야 하기 때문이다.

    웨이브를 작동하려면 먼저 스마트폰에 ‘네이버-클로바’ 앱(응용프로그램)을 설치해야 한다. 스마트폰의 블루투스를 켠 상태로 클로바 앱을 실행하고 네이버 아이디로 로그인하면 자동으로 스피커를 찾는다. 인증번호를 확인한 뒤 와이파이를 연결하면 모든 준비가 끝난다. 처음에 이 과정을 거친 다음에는 스마트폰과 연결하지 않아도 웨이브를 쓰는 데 문제가 없다. 다만 알람 설정, 리모컨 설정, 호출명 변경, 단축버튼 설정 등은 앱에서만 가능하다.

    지정된 호칭을 부르면 웨이브가 실행된다. ‘샐리야’가 기본 호칭이다. 설정을 통해 짱구, 제시카, 피노키오 중 하나로 바꿀 수 있다. 개개인의 음성을 인식하는 것이 아니고 단어로 파악하기 때문에 누구라도 ‘샐리야’를 외치면 답을 한다. 사람은 물론 TV에서 나오는 소리에도 반응한다.

    ‘샐리야’를 외치니 1초도 지나지 않아 웨이브에 녹색불이 들어왔다. 말을 알아들을 준비가 됐다는 뜻이다. ‘샐리야’ 바로 뒤이어 질문을 할 경우 앞부분을 정확하게 인식하지 못했다. 약간의 간격을 두고 말을 해야 인식률이 높았다.

    가장 많이 쓴 기능은 음악듣기였다. “잔잔한 음악 틀어줘” “신나는 영화 OST 틀어줘”라고 얘기하니 그에 알맞은 음악을 선곡해 들려줬다. 동화나 동요 팟캐스트 등도 들을 수 있어 거실이나 침실에 두고 쓰기에도 무리가 없었다. “내일 오전 6시에 깨워줘”라고 말하자 다음날 아침에 알람이 울렸다. 알람을 끄자 바로 그날 주요 뉴스까지 읽어줬다. IR 센서가 달려 있어 TV 리모컨 대용으로 쓸 수도 있었다. 아직까지는 TV와 셋톱박스만 가능하지만 추후 에어컨과 같은 기기도 가능할 것으로 보인다.

    일부 답변은 앞 질문 내용과 연계한 답변을 내놓았다. “지금 삼성전자 주가가 얼마야”라는 질문에 대한 답을 듣고 나서 곧바로 “LG전자는”이라고 묻자 마찬가지로 주가를 알려줬다. 하지만 모든 질문에서 이런 모습을 보인 것은 아니다. 한국어 데이터가 축적되면 더 스마트한 대화가 이뤄질 수 있을 것으로 보인다.

    자동차 이동경로 같이 음성만으로 답변하기 어려운 질문은 답변 뒤에 “자세한 결과는 네이버 클로바 앱에서 확인하세요”라는 말이 붙었다. 하지만 클로바 앱과 질문이 연동되는 것은 아니어서 클로바 앱을 열어 똑같은 질문을 다시 해야 하는 점은 아쉬웠다.

    이승우 기자 leeswoo@hankyung.com

    ADVERTISEMENT

    1. 1

      써모피셔, 엔비디아·테트라사이언스와 차세대 AI 프로젝트 협력 [JPMHC 2026]

      미국 써모피셔사이언티픽은 12일(현지시간) 2026 JP모건 헬스케어 콘퍼런스 개막 첫날 인공지능(AI) 관련 협력 2건을 발표했다.첫 번째는 엔비디아와의 협력으로 써모피셔사이언티픽의 자율형 실험실 인프라를 구축해 신약 및 과학적 발견 프로젝트의 속도와 정확도를 동시에 끌어올리는 데 목적이 있다. 이번 계약의 구체적은 금액은 공개되지 않았다.써모피셔사이언티픽은 엔비디아의 여러 기술 제품을 활용할 예정이다. 여기에는 자율형 실험실 워크플로우 구축을 위해 엔비디아 DGX 스파크(Nvidia DGX Spark) 데스크톱 슈퍼컴퓨터 활용이 포함된다.엔비디아는 이번 협력의 목표에 대해 “실험실 현장부터 클라우드까지 이어지는 매끄러운 컴퓨팅 환경을 구축해 고처리량 실험 관리를 가능하게 하는 것”이라고 설명했다.지안루카 페티티 써모피셔사이언티픽 수석부사장은 “실험실 자동화와 결합된 AI는 과학 연구가 수행되는 방식을 변화시킬 것"이라고 밝혔다.그는 이어 “써모피셔사이언티픽의 실험실 기술 리더십과 엔비디아의 AI 솔루션을 결합함으로써 고객들이 더 빠르게 작업하고 정확도를 높이며 각 실험에서 더 많은 가치를 창출하도록 도울 수 있다”먀 “궁극적으로 인류에 의미 있는 영향을 미칠 발견을 가속화할 것”이라고 덧붙였다.이날 써모피셔사이언티픽은 테트라사이언스와 또 다른 협력을 발표했다. 테트라사이언스는 제약·바이오 실험실에서 생성되는 방대한 데이터를 표준화해 AI 분석이 가능하도록 만드는 과학 데이터 플랫폼 기업이다.이번 협력을 통해 써모피셔사이언티픽의 실험 장비 및 정보학 제품을 테트라사이언스 플랫폼에 통합해 글로벌 바이

    2. 2

      [COVER STORY ⑥ DATA]‘데이터’로 귀결되는 글로벌 AI 기술 경쟁

      딥러닝의 등장은 그래픽처리장치(GPU)라는 하드웨어 발전이 있었기에 가능했다. 이후 알고리즘 경쟁이 가속화되며 AI는 인간의 판단과 창작 영역까지 넘보고 있다. 하지만 최고 수준의 알고리즘조차 짧은 시간 안에 따라잡히는 현실에서, 지속 가능한 경쟁력을 만들어내는 핵심 자산은 점점 명확해지고 있다. 바로 실제 사용 과정에서 쌓이는 데이터다.HW에서 알고리즘 경쟁으로인공지능(AI)은 1940년대 신경망(neural net) 이론이 나오면서 본격적으로 발전하기 시작했다. 그러나 2012년 딥러닝이 등장하기 전까지 AI는 지금과 같이 인간의 지능을 뛰어넘는 수준과는 거리가 멀었다. 딥러닝의 구조 자체는 특별할 게 없다. 일반적으로 2~3층 구조의 신경망을 수십~수백 층으로 쌓은 것뿐이다. 하지만 신경망의 계층을 쌓을 때마다 AI 학습을 위해 필요한 컴퓨팅 연산량은 기하급수적으로 늘어난다. 기존 중앙처리장치(CPU)만으로는 이러한 대규모 학습을 감당할 수 없었다. 이후 대규모 AI 학습을 가능하게 한 하드웨어, 특히 그래픽처리장치(GPU)의 발전으로 딥러닝이 현실화됐다. 제프리 힌튼팀이 개발한 최초의 딥러닝 모델 ‘알렉스넷’도 이런 GPU 연산 능력을 활용해 딥러닝 신경망을 구현할 수 있었다. GPU 기반 딥러닝은 정체돼 있던 다양한 AI 분야에 빠르게 확산됐다. 이후에는 ‘알고리즘’ 경쟁이 이어졌다. 바둑 기보 데이터를 학습한 알파고는 데이터 없이 자가학습하는 강화학습 모델인 알파고 제로에 의해 단기간에 대체됐다. 이후 생성형 모델이 등장하며 AI는 인간 고유의 영역으로 여겨졌던 창작의 영역까지 확장됐다.심지어 구글 딥마인드팀은 ‘알파폴드’로 생명과학의 난제 중

    3. 3

      [COVER STORY ⑤ REPORT]‘신기한 기술’에서 필수 파트너로… 의료 AI의 임상 검증과 산업화 과제

      의료 인공지능(AI)은 지난 수년간 실험실의 연구 성과를 넘어 실제 진료 현장으로 빠르게 스며들었다. 2018년만 해도 의료진을 놀라게 하는 ‘신기한 기술’에 불과했던 AI는, 현재까지 미국 식품의약국(FDA) 승인 기기 수 1000여 건을 돌파하며 의료 현장의 필수적인 파트너로 자리 잡았다. 이 글에서는 병원 현장에 도입된 최신 AI 기술의 트렌드와 이를 뒷받침하기 위한 임상 검증 및 수가 적용의 현황에 대해 심도 있게 다뤄본다.딥러닝(deep learning) 알고리즘과 함께 폭발적으로 발전한 의료 AI의료 AI의 본격적인 변곡점은 2010년대 중반, 딥러닝 기술의 등장과 함께 찾아왔다. 영상 인식 분야에서 방대한 이미지 데이터를 바탕으로 딥러닝 모델이 스스로 의미 있는 특징을 학습할 수 있음이 확인되면서, 일부 과제에서는 인간의 인식 능력을 넘어서는 결과들이 나타나기 시작했다.이러한 기술적 진보는 자연스럽게 의료 분야로 확산됐고, 병원에서 축적되어온 방대한 의료 영상 데이터를 딥러닝 모델에 학습시키는 시도가 본격화됐다. 그 결과, 전문의의 판독 수준에 준하는 정확도로 다양한 의료 영상에서 이상 소견을 탐지하는 AI 의료기기가 빠르게 등장하며 미국 식품의약국(FDA)을 비롯한 규제기관의 승인 사례 역시 급증했다.딥러닝 알고리즘은 의료 분야에 국한되지 않고 의료 외 영역에서 먼저 발전하며 그 범위를 빠르게 확장해 왔다. 영상 인식을 넘어 자연어를 이해하고 생성하는 기술로 진화하면서, 텍스트, 음성, 시계열 데이터 등 다양한 정형·비정형 데이터로부터 의미 있는 패턴과 통찰을 도출하는 것이 가능해졌다.의료 AI는 병원 중심의 진단 보조 도구를 넘어, 개인이 일상에서 사용

    ADVERTISEMENT

    ADVERTISEMENT