Vision pro 그리고 애플로부터 배우는 UX 짧은 정리
애플이 WWDC 2023을 통해서 새로운 제품인 Vision Pro를 발표했고, 애플의 주가는 급락했다. 결과는 제품이 출시되어봐야 알겠지만. 개인적으로는 발표 영상을 보는 내내 충격을 받았다. 디 인포메이션(The Information)은 애플 비전 프로 발표 후 '애플의 새로운 헤드셋은 메타를 AR계의 블랙베리처럼 보이게 만들었다'라고 평가했다. 강력한 한 줄이다.
여러 정보들이 있지만, 특히 비전 프로에 담긴 UX 디테일에 꽤 놀랐다. 사용자의 눈의 움직임을 캐치해서 인터랙션하는 방법, 간단한 제스쳐를 통한 컨트롤 그리고 음성 인식을 통한 유저 인풋. 모바일 기기가 아닌 하드웨어(스마트워치, 스마트스피커 등)에서 멀티모달을 활용한 인터랙션을 설계하고 지원하는 것은 특별히 놀랄 일은 아니다. 그러나, 영상에서 보여주는 눈, 손, 목소리를 활용한 컨트롤의 디테일과 정확도는 상상 이상이었다.
멀티모달 인터랙션 설계의 핵심은 '자연스러움'이다. 사용자를 바보로 만들어서는 안되고, 상황과 맥락에 가장 어울리는 인터랙션을 제공해야 하는데, 자칭 - 타칭 감성을 내세우는 기업답게 - 애플은 본인의 고객들이 바보처럼 보이는 것을 용납하지 않는다.
아이폰을 만들어 낸 애플의 제품이라면 컨트롤의 정확도는 높을 것이다.
애플은 아이폰의 터치 정확도(accuracy)를 높이기 위하여 많은 실험을 했었다. 실험을 통해서, 사용자들이 물리적으로 터치한 위치보다 미세하게 위쪽이 터치되는 것을 확인하였고, 이를 반영한 결과 다른 경쟁사 제품보다 터치의 정확도가 높았다. 이러한 스토리들을 통해 추측컨데, 컨트롤과 인터랙션에 문제가 있을 경우에는 제품 발표 자체를 하지 않았을 것이다.
Eyesight 기능도 흥미로웠다. 사람의 눈은 많은 정보를 담고 있다. 눈은 감정 표현의 수단이 되기도 하고, 소통하고 있다는 신호가 되기도 한다. 기존의 AR/VR 기기에서는 눈이 보이지 않았다. 때문에 기기 착용자를 주변 환경과 고립시키고, 인간적인 요소를 배제시킨다는 의견이 많았다. 이러한 난제에 대한 애플의 대답이 Eyesight 기능이다. 간단히 설명하자면, 기기 착용자의 눈을 외부에서 볼 수 있게끔 드러낸다. 그리고 발표에 따르면, 사용자의 경험 몰입의 정도에 따라 고글의 눈 부분이 변화할 것으로 보인다. Eyesight 기능은 흥미로운 시도이면서도, 낮선 기능이므로 호불호가 크게 갈리는 것 같다. 그러나, 사용자의 몰입 정도에 따라 변화한다거나 - 사용자가 제어를 할 수 있다면 시도해볼만한 기능이라고 생각된다.
사실 가장 인상 깊었던 건, 애플이 자신들의 제품을 정의하는 방법.
팀 쿡의 말을 빌리자면 “맥은 개인 컴퓨팅을 우리에게 가져왔고, 아이폰은 모바일 컴퓨팅 그리고 비전 프로는 우리에게 공간 컴퓨팅을 가져올 것이다“ 라고 소개하고 있다.
발표에서 AR이라는 단어는 거의 쓰지 않는다. 그저 자신들이 정의한 ‘공간 컴퓨팅(spatial Computing)’, ‘공간 경험(spatial Experience)'이라는 단어만 계속 언급한다. 정의와 단어만 바꿔서 표현해도, 다른 제품들과의 차별화를 만들어내고, 흔히 말하는 감성을 건든다. 그리고 이러한 단어 선택은 '우리의 기술이 사용자에게 어떤 경험을 전달해 줄 수 있을까'를 치열하게 고민했다는 것을 알 수 있게 한다.
애플은 정말로 위대한 기업이다 (당연한 이야기지만). 매년 등장하는 buzzwords에 휘둘리며 중심을 못잡는 누군가가 있을 때, 애플은 묵묵히 자신들이 제공하고자 하는 ‘경험’에 집중하고, 고민하고, 만들고, 디테일에 집착하고.. 결국에는 결과로 증명한다 (증명해왔다). 애플에게 중요한 건, AI도 아니고, 메타버스도 아니고, ar/vr도 아니다. ‘완벽한 경험과 디테일 그리고 결과물’ 그 뿐인 것 같다.
참고자료
https://www.theinformation.com/articles/apples-new-headset-makes-meta-look-like-ars-blackberry
https://www.youtube.com/watch?v=TX9qSaGXFyg