brunch

You can make anything
by writing

C.S.Lewis

by Yunjung Seo Nov 10. 2015

Zero UI 02

제로UI_미래의 인터페이스

저번 Zero UI 01에서는 주로 음성인식에 대해 알아보았다면, 이번에는 제스처를 통한 Zero UI에 대해 알아 보겠습니다. 영화 마이너리티 리포트에서 주인공이 특수장갑을 끼고 스크린을 조절하는 인터페이스는 너무나도 유명한 장면 중 하나입니다. 이렇듯 직접 화면을 터치하지 않아도 모션만을 이용해 시스템을 조작할 수 있는 미래의 인터페이스가 기술의 발전으로 우리 옆에 성큼 다가오고 있습니다. 



2010년 TED 강연에서 John Underkoffler의 'Pointing to the future of UI'는 마이너리티 리포트를  현실화시킨 시연장면을 볼 수 있었습니다. 영화에서 같이 특수장갑을 끼고, 화면 앞에서 모션을 취하는 것만으로 원하는 자료를 찾거나, 하나의 화면에서 사람들과 협업하는 장면은 마치 영화의 한 장면을 보는 것과 같았습니다.

강연의 마지막 부분에  크리스 앤더슨은 이런 질문을 합니다. "이러한 기능이 시연 말고 실제로 언제 가능하게 될까요?"라는 물음에 존 언더코플러의 답변은 "5년 내 컴퓨터를 사게 될 경우 그렇게 될 것이다"라고 말했습니다. 

http://www.oblong.com/g-speak/



하지만 근 5년이 채워지기도 전에 립모션(Leap Motion)이라는 회사에서 저렴한 가격의 3D 모션 컨트롤러를 내놓았습니다. 이 제품의 장점은 USB 크기의 작은 사이즈와 상대적으로 저렴한 가격에 구매하여 사용할 수 있는 점이라고 생각합니다. 



구글은 직접적인 터치 없이도 기기를 작동할 수 있는 'Project Soli'를 발표하였습니다. 앞서 보여드렸던 OBLONG이나 Leap Motion은 주로 손 전체와 팔을 이용한 제스처를 이용한 모션이었다면, 구글의 프로젝트 솔리는 손가락의 단순한 움직임만으로 조작할 수 있는 것을 보여주는 점이 차이점입니다. 이러한 기술은 컴퓨터보다는 스마트폰이나 웨어러블 기기에 맞춰진 인터렉션이 아닌가 생각됩니다.

Google Soli 프로젝트

http://www.anandtech.com/show/9300/understanding-project-soli-and-jacquard



다음은 키네틱 센서를 이용해 직접 옷을 입어보지 않아도 사용자가 옷을 선택하고 가상으로 착용해 볼 수 있습니다. 이러한 체험은 일일이 옷을 입어보지 않아도 어울리는 옷을 고를 수 있고, 자연스럽게 구매로까지 이어질 수 있도록 도와주고 있습니다. 

http://sixrevisions.com/user-interface/zero-ui/



이러한 모션인식을 우리 주위에서 쉽게 접할 수 있는 제품으로는 닌텐도 wii, X box, playstation Move 등을 들 수 있습니다. 한 번쯤은 보거나 경험해 봤을법한 게임기에도 미래의 인터페이스가 담겨있는 것을 볼 수 있습니다. 

https://www.youtube.com/watch?v=vZbc47XT3F8



마지막으로 Thalmic Lab의 myo암밴드 역시 제스처를 활용한 스마트 기기 대열에 합류했는데요, 묘는 사용자가 특정 제스처를 취할때 팔뚝에 드러나는 근육과 그 움직임에 대한 데이터를 기반으로 해당 제스처가 어떤 명령을 의미하는지 추론합니다. 

http://www.itworld.co.kr/news/89056?page=0,0



이렇듯 영화에서나 볼 법한 신기한 인터페이스는 기술의 발전으로 우리도 모르는 사이에 성큼 현실로 다가왔습니다. 다양한 기기가 등장하면서 인터페이스 역시 날로 발전하고 있습니다. 기존에 마우스와 키보드를 사용하는 것에 익숙했던 사람들이 스마트폰의 등장으로 터치가 익숙해지고 더 나아가선 음성인식이나 동작인식 등 굳이 학습하지 않아도 편리하게 기기를 사용할 수 있게 되었습니다. 앞으로 어떠한 기술의 발전이 우리를 놀라게 할지 기대됩니다.
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari