애플, 9년 만에 신제품 헤드셋 공개

혼합현실 기기 '비전 프로'
애플이 공간의 제약을 뛰어넘어 어디서든지 업무를 수행하고, 엔터테인먼트와 일상생활을 즐길 수 있는 혼합현실(MR) 헤드셋 ‘애플 비전 프로’(사진)를 공개했다. 애플이 전략적으로 중요한 의미를 갖는 새로운 유형의 하드웨어를 공개한 것은 2014년 애플워치 이후 9년 만이다.

애플은 5일(현지시간) 미국 캘리포니아주 쿠퍼티노에 있는 애플파크에서 세계개발자콘퍼런스(WWDC)를 열고 가상현실(VR)과 증강현실(AR)을 결합한 MR 헤드셋 애플 비전 프로를 처음으로 선보였다. 비전 프로는 내년 초 공식 출시할 예정이며 가격은 3499달러(약 456만원)부터 시작한다.

기존 VR, AR 헤드셋과 달리 별도의 컨트롤러를 쓰지 않고 눈과 손, 목소리를 이용해 다양한 앱을 가상공간에서 직관적으로 사용할 수 있다. 자체 설계한 반도체 세트를 적용해 초고해상도 디스플레이를 매끄럽게 구현하면서 경쟁사 헤드셋의 단점으로 지적되는 어지러움을 잡았다. 투명한 렌즈를 통해 현실 세계를 볼 수 있으며 간단한 조작으로 가상 세계와 현실 세계를 넘나들 수 있도록 한 것도 특징이다.

시장의 반응은 냉랭했다. 이날 애플 주가는 사상 최고가인 184.95달러로 올랐지만 비전 프로를 공개한 직후 하락 반전해 0.76% 내린 179.58달러로 정규장을 마쳤다. 높은 가격으로 대중화에 어려움을 겪을 것이라는 의견이 많다.

애플 '혼합현실 헤드셋' 눈동자로 작동
게임·동영상 등 실감나게 즐겨…헤드셋 단점 어지럼증도 해결

“혼합현실(MR)은 디지털 콘텐츠를 실제 세계에 섞이도록 하는 고도의 딥 테크놀로지입니다. 완전히 새로운 플랫폼 ‘애플 비전 프로’를 소개합니다.”

5일(현지시간) 미국 캘리포니아주 쿠퍼티노에 있는 애플의 본사 애플파크. 애플의 연례 세계개발자콘퍼런스(WWDC) 기조연설에 등장한 팀 쿡 애플 최고경영자(CEO)는 MR 헤드셋 ‘비전 프로’를 공개하며 이렇게 강조했다.

어느 장소든 영화관·사무실로

애플은 스키 고글과 비슷한 형태의 MR 헤드셋을 공개하면서 ‘공간 컴퓨팅’의 시작이라는 의미를 부여했다. 기존 증강현실(AR), 가상현실(VR) 헤드셋과의 차별화 포인트로 공간 제약을 극복했다는 점을 부각한 것이다.

쿡 CEO는 “오늘은 컴퓨팅 방식에서 새로운 시대의 시작을 알리는 날”이라며 “맥이 개인용 컴퓨터의 시대를, 아이폰이 모바일 컴퓨팅의 시대를 연 것처럼 비전 프로를 통해 공간 컴퓨팅을 선보이게 됐다”고 선언했다. 비전 프로를 사용하면 공간의 제약을 넘어 어디서든지 다양한 앱을 열어 눈앞에 보이는 곳에 원하는 대로 배치하고 원하는 활동을 할 수 있다는 의미다.

이날 소개된 영상에 따르면 비전 프로 헤드셋을 착용하면 집이든, 공원이든, 심지어 좁은 비행기 안에서도 4K 디스플레이와 공간 음향을 통해 영화를 보거나 자신이 찍은 파노라마 사진과 동영상을 볼 수 있으며, 생생하게 게임을 즐길 수 있다. 또한 헤드셋을 이용해 3차원(3D)으로 영상을 촬영하고 다시 볼 수 있으며 다른 사람과 공유도 할 수 있다. 업무적으로는 페이스타임으로 여러 명이 동시에 화상전화를 할 수 있고, 줌이나 웹엑스 등으로 상대방이 바로 앞에 있는 것처럼 화상회의도 할 수 있다.엑셀, 워드 등 마이크로소프트의 오피스 프로그램뿐만 아니라 어도비의 라이트룸 같은 사진 편집 프로그램도 헤드셋을 착용하고 가상공간에서 이용할 수 있다. 이 모든 앱을 동시에 눈에 보이는 화면 전체에 원하는 크기로 조절해 배치하고 이용할 수 있도록 한 게 특징이다.

자체 설계한 반도체 세트 장착

기존 제품과 가장 눈에 띄는 외관상 차이점은 별도의 컨트롤러가 없다는 것이다. 대표적 경쟁 제품인 메타의 퀘스트2는 두 손에 컨트롤러를 쥐고 커서를 조작해 원하는 곳을 가리킨 뒤 버튼을 눌러 선택해야 한다. 이에 비해 비전 프로는 눈으로 바라보면서 원하는 앱을 가리킬 수 있고, 손가락 두 개를 맞닿게 하면 클릭이 되는 직관적인 방식을 적용했다. 말하면 자동으로 텍스트가 입력돼 원하는 것을 검색할 수 있다.

디스플레이 차원에서는 현실세계와 가상세계를 넘나들 수 있도록 설계했다. 헤드셋을 착용하고 바깥을 보면 현재의 공간이 잘 보인다. 이 실제 공간 위에 앱을 열어서 가상세계를 구현하는 방식이다. 기존 경쟁 제품은 헤드셋 바깥의 실제 세상은 잘 보이지 않고 가상세계에 집중해야 하는 시스템이었다.

헤드셋의 활동에 집중할 때는 ‘아이사이트’라는 기능을 사용하면 된다. 이 경우 헤드셋 바깥 디스플레이가 불투명해지면서 외부 사람이 봤을 때 헤드셋을 쓰고 집중하고 있음을 보여준다. 센서는 현재 있는 공간을 감지해 생생한 공간 오디오를 구현한다.이 같은 다양한 기능을 동시에 매끄럽게 처리하기 위해 애플이 자체 설계한 반도체가 탑재됐다. 지난해 공개한 중앙처리장치(CPU) M2와 정보를 매끄럽게 처리하는 R1 반도체를 동시에 장착한 듀얼 칩 구조다. 특히 R1은 카메라 12개, 센서 5개, 마이크 6개가 수집하는 정보를 처리해 콘텐츠가 실시간으로 보이도록 구현했다. 눈을 한번 깜빡이는 시간보다 여덟 배 빠른 12㎳(밀리초) 안에 새로운 이미지를 스트리밍한다. 이런 속도 덕분에 기존 VR 헤드셋을 썼을 때 느껴지는 어지러움이 없을 것이라는 게 애플 측 설명이다.

실리콘밸리=서기열 특파원 philos@hankyung.com