기존의 자동차 음성 명령과 자동차 x AI 스피커의 차이점
이 글은 pxd에 재직당시, 2017.12.14 에 작성한 글입니다.
pxd 블로그에서도 읽으실 수 있습니다.
출처: http://story.pxd.co.kr/1279 [pxd UX Lab.]
올해 하반기 출시된 제네시스 G70에 카카오 I가 장착되어 집에서 사용하던 AI 스피커를 자동차에서도 사용할 수 있게 되었습니다. 모터쇼에서 NUGU, Giga Genie를 결합한 컨셉 자동차를 발표했으니 곧 기아, 현대 자동차에서도 AI 스피커를 사용할 수 있을 텐데요. 유투브에서 NUGU mini나 Amazon dot과 같이 서브 라인으로 출시한 AI 스피커를 자동차에서 시연하는 영상을 심심치 않게 볼 수 있는걸 보면 자동차와 AI 스피커의 결합은 이미 스마트 스피커가 나타날 때부터 시간문제였던 것 같습니다.
자동차에서 AI 스피커를 이용해 음악을 재생하거나 뉴스를 듣는 행동은, 이미 사용하고 있는 음성 인식 기능과 크게 다르지 않아 보이기 때문에 AI 스피커가 힘들게 장착해서 쓸 만큼 유용한 것인지 의문이 들곤 했습니다. 그럼에도 자동차에 결합된 스마트 스피커 시장이 활발한 이유는 무엇일까요? 이번 블로깅에서는 자동차가 AI 스마트 스피커 기능을 장착하면 기존의 자동차 음성 인식 경험과 무엇이 달라지는지 이야기해보려 합니다.
자동차를 운전한 경험이 있다면 핸들에 있는 ‘’ 버튼을 본 적 있을 것입니다. 자동차에서 제공하는 Voice command 기능을 호출하는 버튼입니다. Voice command 기능은 운전할 때 자동차와 연결된 기기나 기능들을 음성으로 호출할 수 있는 기능입니다. 버튼을 누르고 음성으로 라디오 주파수를 이야기하면 라디오를 틀어주고, 내비게이션을 켠 상태에서 목적지를 말하면 목적지를 검색할 수 있습니다. 스마트폰을 연결하면 통화를 하거나 음악을 들을 수 있습니다.
자동차와 관련된 기능을 음성으로 편리하게 사용할 수 있지만, 자동차와 연결된 기능만 사용할 수 있는 단점이 있습니다. 즉, 통화 등 스마트폰과 관련된 기능을 사용하려면 스마트폰을 연결하는 셋팅 과정을 거쳐야 사용할 수 있습니다.
운전을 하면서 내비게이션의 목적지를 터치하는 행동은 운전 베테랑이라도 시선을 뺏기게 됩니다. 안전을 위해 잠깐 차량을 정차하게 되는 신호 대기 순간에 목적지를 한 글자씩 입력하게 되기 때문입니다. 이런 상황을 개선하고자 내비게이션은 음성 지원 검색을 지원합니다. “신사주유소”를 찾을 때, ‘ㅅㅅㅈㅇㅅ’ ‘신사주유소’ 라 입력하지 않고 음성으로 “신사주유소”를 말하면 목적지가 입력 영역에 표시됩니다.
목적지를 입력하는 방법을 음성으로 대신할 뿐, 목적지를 설정하는 과정은 터치 인터랙션과 동일합니다. 음성 인식 버튼을 누른 뒤 목적지를 말하고 화면에서 ‘검색’을 누르거나, 다시 음성 인식 버튼을 눌러 “검색”이라고 말해야 합니다. 만약 평소 말하는 대로 “신사주유소 찾아줘” / “신사주유소로 설정해줘”라고 말하게 된다면 목적지 입력 영역에 “신사주유소 찾아줘 / 설정해줘”가 모두 입력됩니다.
또, 음성으로 목적지를 설정하는 기능은 내비게이션이 실행된 상태에서 목적지를 설정하는 과정의 화면에서만 사용할 수 있습니다. 음성 인터랙션은 주행 안전을 위해 터치 인터랙션 대신 사용하는 보조 기능으로서 제공됩니다.
자동차의 기존 음성 명령이 화면을 보조하는 수단으로 제공된다면, AI 스피커는 진짜 음성 중심의 경험을 제공합니다.
자동차에서 음성 명령 기능을 사용하기 어려운 이유 중 하나가 복잡한 연결 과정 때문인데요. LTE 기반의 AI 스피커를 장착하면 복잡한 연결 과정 없이 ‘Voice command’ 버튼만 눌러서 바로 음성 명령을 사용할 수 있습니다.
또, AI 스피커 덕분에 기존의 자동차와 스마트폰에 국한되었던 기능에서 벗어나 더욱 다양한 음성 서비스를 즐길 수 있습니다. 집에서 듣던 플레이리스트를 그대로 들을 수 있고, 앞으로 30분 뒤 도착 시각에 맞추어 피자를 주문할 수 있습니다. Iot 미래 시나리오 워크샵의 단골손님이었던 도착 시각에 맞춰 집 안의 환경을 세팅하는 과정을 경험할 수 있습니다.
기존의 음성 경험과 가장 큰 차이점은 주행 안전을 방해하던 화면에서 벗어날 수 있는 점입니다. 앞에서 언급한 것처럼 기존의 음성 경험은 화면 내의 조작을 편리하게 하는 음성 인터랙션에 머물러 있었습니다. 화면으로 분산되는 시선을 주행에 집중하기 위해 음성 명령을 사용한 것임에도 결국 화면을 보면서 음성 조작을 하는 모순적인 상황이 발생했습니다.
반면, AI 스피커를 이용한 음성 명령은 실제 사람과 대화하는 방식으로 음성 인터랙션이 이루어져 화면을 훨씬 덜 볼 수 있습니다. 예를 들면 AI 스피커에게 목적지 검색 요청 시, “신사주유소 찾아줘”라고 말하면 AI 스피커는 바로 목적지 검색을 수행합니다. 목적지를 검색하기 위해 화면의 ‘검색’ 버튼을 찾거나 다시 voice command 버튼을 눌러 “검색”이라고 말할 필요가 없게 됩니다.
기존의 voice command 기능을 보면 사용자는 “신사주유소” / “검색” / “음악 재생” 등 명사 위주로 자동차에 명령합니다. Task 수행 단계 내에서 음성 인터랙션이 있기 때문인데요. 앞에서도 보았듯이 AI 스피커의 음성 인터랙션은 Task 수행 단계 없이 바로 기능 수행이 가능합니다. 그래서 “신사주유소 검색해줘” / “소녀시대 노래 틀어줘” 등의 명령이 가능한 것인데요. 아직 자동차에 장착된 AI 스피커를 보면 명령 -> 대화로 이동하는 과도기에 있는 것 같습니다. 미래의 자동차는 결국 화면 도움 없이도 만족스러운 음성 인터랙션 경험을 제공해야 할 것입니다.