공간 컴퓨팅(Spatial Computing) 트렌드에 대응하기 위해서!
로이터의 보도에 따르면 아마존은 현재 가정용 프로젝터를 개발 중에 있다고 합니다. 우리가 세미나를 하거나 회의를 할 때 사용하는 프로젝터 말입니다. 도대체 아마존은 왜 이런 제품을 개발하고 있는 걸까요? 그것도 이렇게 어려운 시기에 말입니다. 여러 이유가 있겠지만, 어쩌면 공간 컴퓨팅(Spatial Computing) 트렌드에 대응하기 위함이 아닐까 생각합니다.
아마 공간 컴퓨팅이라고 하면 지난 6월 애플이 발표했던 비전 프로(Vision Pro)와 같은 MR 헤드셋을 개발해야 하는 거 아냐? 라고 생각하는 분들이 많으실 거에요. 아니면 못해도 홀로렌즈처럼 Optial See-Through 방식의 AR 글래스라도 만들어야 하는 거 아닌가? 라고 생각하실 수도 있을 것입니다. 하지만, 이는 공간 컴퓨팅을 잘 못 알고 있기 때문에 나타나는 편견일 뿐입니다.
공간 컴퓨팅(Spatial Computing)에 대한 정의는 여러 가지가 있지만, 이 용어를 가장 처음 사용한 MIT 미디어랩의 사이먼 그린월드(Simon Greenwold)의 정의를 옮겨보겠습니다. "공간 컴퓨팅은 실제 물체와 공간에 대한 참조 대상을 유지하고 조작하는 기계와 인간의 상호작용이다. (Spatial computing is human interaction with a machine in which the machine retains and manipulates referents to real objects and spaces.)"
이 공간 컴퓨팅에 대한 정의에는 두 가지 중요한 요소가 있는데요, 하나는 공간 컴퓨팅을 가능하게 하는 기계(machine)와 인간의 상호작용입니다. 그리고 다른 하나는 그 기계가 실제 물체와 공간에 대한 참조 대상을 유지하고 조작할 수 있어야 한다는 것입니다. 즉, 어떻게 하든 사용자가 기계와 상호작용을 통해 현실세계의 사물이나 공간을 조작할 수 있어야 한다는 것입니다.
그렇다면 스마트폰에 설치된 스마트홈 앱과 집 거실에 설치된 스마트 램프를 생각해 보겠습니다. 스마트폰 앱의 램프 아이콘을 터치해서 스마트 램프의 전원을 켜면 이것은 공간 컴퓨팅일까요 아닐까요? 그린월드의 정의에 따르면 이 역시 공간 컴퓨팅의 한 형태가 될 수 있습니다. 즉, 사용자가 무엇인가를 이용해서 현실세계에 변화를 일으키는 것이 중요하지, 그 무엇은 중요하지 않다는 것입니다.
공간 컴퓨팅을 가능하게 하는 기계는 비전 프로와 같은 헤드셋이 될 수도 있고 스마트폰이 될 수도 있으며 아마존이 개발하려는 프로젝터도 될 수 있다는 것입니다. 공간 컴퓨팅에서 중요한 것은 바로 공간과 사물에 대한 이해, 그리고 사용자와의 인터페이스 방식이라는 거죠. 그래서 저는 공간 컴퓨팅을 아래 그림과 같은 개념으로 소개합니다. 원래 이 그림은 PTC의 공간 컴퓨팅에 대한 정의에 제가 인터페이만 추가한 것입니다.
그렇다면, 아마존은 어떤 홈 프로젝터를 준비 중에 있을까요? 아직은 프로젝터를 준비하고 있다는 소식 밖에는 알려진 것이 없습니다. 다만, 이전에 판매하다가 실적이 좋지 않아 2022년에 단종시킨 Amazon Glow라는 데서 힌트를 얻을 수 있을 것 같습니다.
Amazon Glow는 어린이용 화상 통화 장치입니다. 위 사진에서 보이는 것처럼 친구나 지인과 화상통화를 하면서 프로젝션이 보여주는 영상을 함께 볼 수 있게 만든 장치입니다. 즉, 화상통화용 1개, 프로젝션용 1개 해서 2개의 카메라가 포함된 제품입니다. 그리고 프로젝션 되는 이미지 상에서 사용자의 손동작을 인식합니다. 아이들은 손가락으로 이미지 상의 물체를 옮기거나 그림을 그릴 수 있게 됩니다. Amazon Glow를 통해서 현실과 인터페이스를 할 수 있게 되는 것이죠.
아마존이 현재 개발 중인 제품도 이런 형태와 비슷할 것으로 생각합니다. 다만, 화상통화의 필요성이 적기 때문에 화상통화 기능은 빼고 프로젝션에 집중하지 않았을까 생각합니다. 그런 측면에서 아마존 글로우를 판매 중단하기 전인 2021년 말에 Lightform이라는 프로젝션 기술 스타트업을 인수하기도 했습니다.
Lifhtform이라는 회사는 위의 이미지에 보이는 것처럼 현실 공간에 프로젝션을 함으로써 증강(AR) 효과를 내는 기술에 일가견이 있는 회사입니다. 물론 핵심 기술은 저렇게 투영된 영상과 사용자가 인터페이스 하는 기술을 보유하고 있다는 것입니다. 사용자가 어디 있는지 파악하고 사용자의 얼굴 방향을 인식한 후 그에 맞는 정보를 뿌려주거나 사용자의 동작이나 음성 명령에 반응을 하도록 하는 거죠. 이 회사에 대해 더 잘 알고 싶으시면 [1]번 영상을 꼭 시청해 보시기 바랍니다.
약 20년 전에 일본 도쿄의 오다이바에 파나소닉 전시관이 있었습니다. 이곳에 가면 벽면 전체가 디스플레이로 된 곳이 있었는데요, 마치 윈도우 화면처럼 배경의 이미지를 바꿀 수도 있었고 시계나 창문, 액자와 같은 배경 내의 개별 사물들의 종류나 크기도 마음껏 바꿀 수 있었습니다. 사회 생활을 막 시작한 저에게는 신기하게 다가왔었는데요, 어느새 그런 기술이 현실이 되고 있습니다.
올 초 CES 2023에서 제 시선을 끌었던 기업은 마이크로소프트가 투자한 터치캐스트(Touchcast)라는 기업입니다. 이 기업은 메타버스 큐브(Metaverse Cube)라는 솔루션을 소개했는데요, 아래 이미지에 보이는 것처럼, 사방이 모두 디스플레이로 구현된 매장입니다. 길거리를 지나가던 손님이 매장에 들어가면 입구쪽을 제외한 3면의 벽이 모두 디스플레이로 만드러져 있고 거기에서 제품이 전시되어 있습니다.
손님은 화면을 통해 자신이 관심 있는 제품에 대해 더 많은 정보를 확인할 수 있고 점원(가상 인간)과 대화를 통해 원하는 물건을 구입할 수 있게 해 놓은 것입니다. 아직 데모 수준이긴 했지만, 미래의 매장은 이처럼 현실을 가상화하는 방식으로도 진화할 수 있겠구나 하고 알려주기에 충분했었습니다. 그리고 또 하나, 공간 컴퓨팅은 헤드셋을 뒤집어 쓰는 것보다는 이런 형태가 더 적합하겠다는 것이었죠.
물론, 어플리케이션 분야에 따라 홀로렌즈나 비전 프로와 같은 제품들을 이용하는 것이 더 바람직한 경우도 있을 것입니다. 하지만, 사용자 관점에서 어떤 것이 더 바람직할까요? 가장 자연적이고 직관적으로 이용할 수 있는 기술이 살아남을 수 있으리라 생각합니다.
여기서 걸림돌이 되는 것이 바로 비용일 것입니다. 그런 측면에서 아마존은 프로젝터를 선택했다고 생각합니다. 그리고 음성인식 스피커나 스마트 안경 같은 다른 장치를 함께 이용하는 형태로 사용자와 인터페이스를 하지 않을까 생각합니다. 별로 쓸모도 없어 보이는 스마트 글래스를 꾸준히 출시하는 것을 보면 말이죠.
참고로 이번 아마존 하드웨어 이벤트 행사 내용에 대해 궁금하신 분은 https://brunch.co.kr/@iotstlabs/315 를 참조하시기 바랍니다.
[1] Lightform announces Project LFX | Steerable Projected Interfaces, https://youtu.be/3XIGxNP3-Mk