무엇이 중요할까?
재작년에 영종도에 있는 BMW 전시관에 놀러 갔었습니다.
입구에 경비원 되시는 분이 물어보시더군요.
"어떻게 오셨죠?" 그래서 저는 "놀러 왔는데요?!"라고 짧게 대답한 후 처음으로 갔습니다.
거기엔 이것저것 볼 것들이 많았는데 그중 어린이들을 위한 서비스도 있었습니다. 예를 들어 디지털 자동차 템플릿 그림에 색을 칠하고 손으로 화면으로 밀면 색칠한 차가 스크린에 쉬~웅하고 나와서 달리는 놀이가 있었습니다. 알고 보니 손으로 휘저으면 키넥트가 모션을 인식해서 자동차 레이스를 하는 것이었는데 차는 제자리에서 바퀴만 굴러가고 저는 고장 났는지 아니면 인식을 못하는지도 모른 체 딸내미를 위해 손을 열심히 휘졌고 있었습니다.
속으로 저는 "이게 내가 알던 키넥트가 아닌데?"라고 생각이 들었습니다. 사실 이전에 친구네 스튜디오에 가서 데모를 봤는데 인식률이 꽤 좋았던 걸로 기억합니다. 그리고 전부터 키넥트는 다양한 분야에 적용 가능한 인터페이스라고 생각도 했습니다.
사실 저는 서피스 데모를 보고 많은 감동을 받았거든요.
https://www.youtube.com/watch?v=Zxk_WywMTzc
자 그럼 인제 인터페이스에 대한 정의에 대해 생각해 보시죠.
먼저 위키백과를 보면:
인터페이스(영어: interface, 문화어: 대면부, 결합부) 또는 접속기는 사물 간 또는 사물과 인간 간의 의사소통이 가능하도록 일시적 혹은 영속적인 접근을 목적으로 만들어진 물리적, 가상적 매개체를 의미한다.
인터페이스에는 다음과 같은 다양한 예가 존재한다.
-인터페이스는 프로그램, 라이브러리 등의 추상적 모형으로 API나 시스템 호출과 같이 함수나 입출력으로 나타난다.
-사용자 인터페이스
-그래픽 사용자 인터페이스
-입출력 인터페이스
-네트워크 인터페이스
-인터페이스는 웹과 같은 가상공간에서는 디지털 데이터의 형식으로 존재하기도 하며, 물리적 공간에서 사물의 형식으로 주로 존재한다.
여기서 저는 입출력(I/O) 인터페이스에 대해 얘기하고자 합니다.
최근 NUI(netural user interface) 등장이 계속 나오고 있습니다.
마이크로 소프트의 키넥트, 모션 센서가 달린 서피스, 터치, Leap motion, MYO 그리고 음성인식 등..
이들이 가진 목표는 기존의 마우스와 키보드 조합의 컴퓨팅 환경을 넘어 혹은 벗어나서
-더 자유롭게
-확장성 있게
-유기적으로
사용자가 제어 가능하게 하려고 시도한다는 것입니다.
먼저 제스처를 보면 간단한 인터페이스 조작이라면 엄청난 편의성과 효율성을 가지고 있을 텐데:
몇 년 전 Leap motion 낚시 사태를 기억하시는지요?
홍보 동영상만 보면 정말 마이너리티 리포트가 현실로 다가오는 듯했습니다.
그러나 실제로 제품을 받아본 리뷰를 보면
다행히? 저는 예약 결제까지 했으나 결제가 안 되는 행운을 얻기도 했습니다.
그리고 다음으로 MYO(https://www.myo.com)라는 팔 근육으로 인터페이스를 제어하는 제품이 선보였는데 실제 사용 후기는 이렇하였습니다.
물론 어떤 의미에서 좋은 노력인 것은 분명하고 지금 가진 문제를 해결하고 언젠간 좋은 제품으로 개선될 거라 믿습니다.
이외에 애플 Siri를 시작으로 음성인식 인터페이스도 많은 곳에 적용되고 있는데 Siri는 상당히 좋은 인식률을 가지고 있습니다 그러나 완벽하지는 않죠. 물론 사람과 사람의 대화에도 못 알아듣는 경우가 간혹 있듯이..
제 Siri 경험담을 말씀드리자면 저는 siri를 영어 발음 연습용으로 이용하고 있습니다.
음성인식을 이용하면서 얻은 경험은 Siri가 인식하도록 제(사용자)가 발음, 엑센트, 속도를 맞춰줘야 한다는 것입니다.
사용자가 음성인식 인터페이스가 인식할 수 있도록 맞춰줘야 한다는 거죠. 왠지 거꾸로 된 거처럼 보이지 않나요?
이해하기 쉽게 예를 들어보자면 화재 같은 긴급상황에서 음성인식이 인식하도록 차분하게 또박또박 얘기(음성명령)를 해야 한다는 것입니다.
기술의 발전으로 언젠가는 어떠한 상황에도 아주 높은 인식률이 되기를 기대해 봅니다.
위의 같은 NUI 제품들이 공개되고 그리고 알지 못하는 제품들이 지금도 계속 속속 준비 중일 것입니다.
위에 언급한걸 보면 결국 인터페이스에 있어 가장 중요한 요소는
정확도
입니다.
아무리 인터페이스가 화려하고 재미있는 방법과 인터랙션으로 사용자에게 동기부여를 준다 해도
인식이 될 때가 있고 안될 때가 있다면 그것은 인터페이스 첫 번째 기본 조건을 충족시키지 못하고 그냥 비싼 장난감이 되어 버릴 겁니다.
그리고 터치 인터페이스가 있습니다.
초기 감압식에서 정전기 방식으로 보급되었는데 상당히 인식률이 높습니다.
액정에 물기가 있으면 인식이 안 되는 경우가 있다는 단점이 있고,
지하철에서 지도를 이용해 본 경험이 있으신 분들은 아시겠지만 대형 스크린에서 터치 인터랙션이 불편(딜레이)하다는 점이 있지만 이외엔 아주 훌륭합니다.
https://youtu.be/xUJH4 isCrUU? t=50s 핀치 줌이 ㄷㄷㄷ
그리고 구글 I/O에서 Project Soli라는 모션인식 소개 되었습니다. 실제로 얼마나 디테일한 콘트롤이 될지 아직 알 수는 없지만 많은 다양한 제품에 적용될 수 있으면 좋겠습니다.
https://youtu.be/czJfcgvQcNA?t=8m50s
그런데 한 가지 아쉬운 건 우리가 실 생활에 적용 가능한 인터페이스로는 30년이 넘은 키보드와 마우스를 대체할 인터페이스를 아직 찾지 못했다는 것입니다.
물론 굳이 키보드와 마우스를 잘 사용하고 있는데 없앨 이유는 없겠죠.
다양한 크기와 환경을 가진 디바이스의 등장
핀치 줌과 같은 다양한 인터랙션의 등장
사용자 context에 맞는 다양한 UI
등의 변화로 키보드+마우스 인터페이스가 커버할 수 있는 영역이 좁아지고 있다는 것입니다.
개인적으로 매직 트랙패드가 인식률도 높고 인터랙션도 명확하고 상당히 편리하더군요(가격이 ㅜㅠ)
제가 전문가는 아니지만 유추해보면:
언급한 키보드, 마우스, 트랙패드, 스타일러스 등의 특징은 사용자가 "촉감(sense)"이라는 물리적인 경험을 통해 실행 > 과정 > 결과까지 정교하게 제어가 가능해서가 아닌지 합니다.
쉽지는 않겠지만 새로운 인터페이스가 비싼 장난감으로 전락하지 않고 자리 잡으려면
- 높은 인식률(accuracy)
- Context과 맞물리는 인터랙션
- 딜레이 없는 피드백
- 물리적 환경 제약의 최소화
- 기존 인터페이스를 대체/교체 가능한 유연한 확장성
등의 항목을 정리해야 될 것입니다.
계획하고 글을 쓴게 아니라서 머리속 생각 정리가 잘 안되네요.
요약: 키보드, 마우스 짱짱맨