"방을 파티 장소처럼"…애플, 직접 촬영 동영상에 AR 적용 기능 추가
입력
수정
애플이 아이폰과 아이패드용 동영상 제작 앱인 클립스(Clips) 버전 3.1 업데이트를 통해 직접 촬영한 동영상에 증강현실(AR) 효과를 적용할 수 있도록 지원한다고 27일 밝혔다.
아이폰12 프로와 아이패드 프로 모델 사용자는 클립스 앱의 AR 스페이스 기능을 통해 방의 윤곽에 매핑되는 실감나는 시각 효과를 추가하여 공간을 전혀 새로운 공간으로 탈바꿈시킬 수 있게 됐다. 결과물 역시 다른 사람과 쉽게 공유할 수 있다.이는 이들 모델에 탑재된 첨단 라이다(LiDAR) 센서 덕분이다. 빛의 이동 거리를 측정하고, 장면의 픽셀 심도 정보를 이용하여 더 빠르고 사실적인 AR 경험을 제공하는 첨단 심도 감지 기능이 새롭게 지원된다.
AR 스페이스를 활용하면 사용자들은 쉽게 방을 스캔하고, 다이나믹한 조명, 위에서 떨어지는 오브젝트들, 실감나는 장면을 현실에 구현해주는 효과들을 실시간으로 미리 볼 수 있다는 게 애플 측의 설명이다.
클립스 3.1에서 지원하는 AR 스페이스 효과는 △무지개 조명띠들이 방의 벽, 바닥, 물체들 위로 비춰주는 '프리즘' △축하 폭죽이 터진 것처럼 색종이 조각이 떨어져 평평한 표면에 쌓이는 '색종이 조각' △반짝이는 조명들이 공간의 천장에 매달린 디스코볼에 반사되는 디스코 등 총 7가지다.애플 측은 "AR 분할 및 오클루전 기술을 이용하여 클립스는 동영상 속 사람을 인식하여 그 사람의 앞과 뒤에 AR 스페이스 효과를 투사함으로써 마치 그 효과가 공간과 피사체를 완전히 감싸고 있는 것처럼 느껴지게 한다"고 설명했다.
배성수 기자
아이폰12 프로와 아이패드 프로 모델 사용자는 클립스 앱의 AR 스페이스 기능을 통해 방의 윤곽에 매핑되는 실감나는 시각 효과를 추가하여 공간을 전혀 새로운 공간으로 탈바꿈시킬 수 있게 됐다. 결과물 역시 다른 사람과 쉽게 공유할 수 있다.이는 이들 모델에 탑재된 첨단 라이다(LiDAR) 센서 덕분이다. 빛의 이동 거리를 측정하고, 장면의 픽셀 심도 정보를 이용하여 더 빠르고 사실적인 AR 경험을 제공하는 첨단 심도 감지 기능이 새롭게 지원된다.
AR 스페이스를 활용하면 사용자들은 쉽게 방을 스캔하고, 다이나믹한 조명, 위에서 떨어지는 오브젝트들, 실감나는 장면을 현실에 구현해주는 효과들을 실시간으로 미리 볼 수 있다는 게 애플 측의 설명이다.
클립스 3.1에서 지원하는 AR 스페이스 효과는 △무지개 조명띠들이 방의 벽, 바닥, 물체들 위로 비춰주는 '프리즘' △축하 폭죽이 터진 것처럼 색종이 조각이 떨어져 평평한 표면에 쌓이는 '색종이 조각' △반짝이는 조명들이 공간의 천장에 매달린 디스코볼에 반사되는 디스코 등 총 7가지다.애플 측은 "AR 분할 및 오클루전 기술을 이용하여 클립스는 동영상 속 사람을 인식하여 그 사람의 앞과 뒤에 AR 스페이스 효과를 투사함으로써 마치 그 효과가 공간과 피사체를 완전히 감싸고 있는 것처럼 느껴지게 한다"고 설명했다.
배성수 기자