brunch

You can make anything
by writing

- C.S.Lewis -

by Gloria Choi Jul 04. 2019

BMW 차량 내 음성 에이전트
VUI UX 분석

BMW Personal Intelligence Assistant VUX


I. 들어가며


차량 내 인공지능 음성 에이전트는 운전자의 시선을 전방에 고정할 수 있도록 도움으로서 운전자의 안전과 편의성을 확보할 수 있는 존재이다. 특히 미래 자율주행으로 인해 차량 내 환경 변화가 이루어질 경우에는, 운전자로부터 운전이라는 과업을 제거하여 차량 내에서의 자유를 얻게 됨으로써 음성 에이전트의 존재가 더욱 중요해질 전망이다. 이처럼 차량 내 음성 에이전트는 운전자의 동반자가 될 것이며 탑승자와 음성 에이전트 간의 상호작용은 더욱 활발해질 것으로 예상된다. 또한 인공지능을 탑재한 음성 에이전트는 자동차의 기술적 우위를 가리기 어려운 현재 상황에서 각각의 차량 제조사만의 차별화된 경쟁 요소로 작용할 수 있을 것이다. 따라서 독일차량 제조사인 BMW의 인공지능 음성 에이전트인 Personal Intelligence Assistant의 VUI(Voice User Interface) 인터랙션을 분석하여, 이에 따른 시사점을 통해 VUI 설계 방향성을 제안하고자 한다.



II.     배경

1.     대화형 에이전트(Conversational Agent)

대화형 에이전트는 명령어 또는 자연어를 통해 사용자와 상호작용하는 인공지능(AI) 비서이다. 대화형 에이전트는 대화를 통해 기본 웹 검색, IoT 기기 제어, 온라인 구매 등의 개인 비서 역할을 수행할 수 있다.


2.     VUI (Voice User Interface)
VUI는 음성 인식 기술을 바탕으로 인간의 말에서 의미를 분석하여 인간-기계 상호작용(HMI)을 가능하게 하는 인터페이스 방식이다. 
음성 처리 기술과 빅데이터, 인공지능의 결합 및 발전을 기반으로 VUI가 보편화 됨에 따라 가정뿐만 아니라 차량 내에도 음성 인터페이스가 적용되고 있다.  VUI는 음성을 통한 자연적인(Natural) 인터랙션 방법으로, 사용자가 학습하지 않아도 친숙하고 편리한 방식이다. 또한 VUI는 콘텐츠의 비매개(Transparent Immediacy)를 느끼게 하는 ‘투명한 인터페이스(transparent Interface)’이므로 사용자는 콘텐츠를 자의적(Arbitrary)인것이 아닌 자연적(Natural)인 것으로 받아들일 수 있게 할 수 있다. 이는 사용자를 도구 자체가 아닌 목적에 집중할 수 있도록 할 수 있다. 

VUI는 음성을 통해 상호작용함으로써 두 가지 이상의 과업을 동시에 사용할 수 있다는 점과, 디바이스를 물리적으로 접근하지 않아도 상호작용이 가능하다는 장점이 있다.

VUI는 인공지능과의 결합으로 인해 사용자 경험 혁신을 가능하게 하며, 이미 스마트 스피커 등의 제품을 통해 실생활에 적지 않은 영향을 주고 있다. 따라서 쉽고 편리한 VUI의 설계를 위하여 음성 에이전트 활성화 방식, 사용자 명령 인식, 음성 에이전트 응답과 같은 VUI 인터랙션 방식과, 사용자의 지속적인 사용의도를 향상시킬 수 있는 음성 에이전트 의인화 및 개인화 전략에 대한 연구가 필요하다.


3.     차량 내 음성 에이전트
차량 내 음성 인터페이스는 ‘핸즈 프리(hands-free)’,‘아이즈 프리(eyes-free)’ 인터랙션이 가능하며, 눈과 손의 움직임이 제한적인 환경인 주행 중에 쉽게 네비게이션 조작, 전화 걸기, 이메일 보내기 등의 기능을 사용할 수 있는 주행 보조 시스템이다. 
따라서 차량 내 음성 인터페이스는 주행 중 네비게이션, 전화기능, 엔터테인먼트등 다양한 이차 과제(secondary task)들을 사용함에 따른 운전자 주의 분산을 줄여주고 사용자가 전방 주시를 꾸준히 유지할 수 있는 환경을 만들어 주기 때문에 지속적으로 개발, 연구되고 있다.

미래 자율주행 자동차로 변화하여 운전자가 더 이상 운전을 하지 않아도 되는 미래 시나리오에서, 대화형 음성 에이전트는 탑승자와 자동차를 연결해주는 연결고리가 될 수 있다. 자율주행 환경에서의 음성 에이전트는 주행정보, 자동차의 상태, 인포테인먼트 시스템 등에 대한 정보를 제공해주거나, 더 나아가 운전자와 일상적인 대화도 나눌 수 있다.
차량 내 음성 에이전트에 대한 사용자의 관심도는 29퍼센트로 디바이스 별 관심도에서 2위를 차지할 정도로 높은 수준인 것에 반해
 차량 내 음성 에이전트의 활용도는 ‘한 달에 한 번(At least monthly)’이라고 응답한 사용자가 67.5퍼센트에 달하는 것으로 나타났다. 즉, 차량 내 즉 음성 에이전트에 대한 사용자의 관심은 높으나, 스마트홈 환경에서의 음성 에이전트 및 스마트폰 음성 에이전트의 활용도와 비교했을 때 아직까지 활용도가 낮은 상황이다.따라서 차량 내 음성 에이전트의 활용도를 높일 수 있는 연구가 필요하다.



III.    BMW Personal Intelligence Assistant

1.     개요
BMW는 Microsoft와 차량 내 음성 인식 시스템 파트너십을 구축했다. 파트너십을 통해 개선된 인공지능 음성 에이전트인 PersonalIntelligence Assistant를 2019년 3월부터 BMW 3시리즈에 탑재하였다. BMW의 음성 에이전트인 Personal Intelligence Assistant는 자연어 인식을 통해 차량 공조 조작, 운전자의 일정 확인, 메시지 및 이메일 전송, 식당 예약 등 다양한 과업을 도울 수 있으며, 일상적인 대화까지 나눌 수 있다. 
또한 지난 5월 BUILD 2019에서는 가상 음성 에이전트의 데모 버전을 선보이며, 보다 지능적인 음성 에이전트 탑재를 통해 운전자에게 최적화되고 더 높은 수준의 생산성을 제공할 것임을 예고하였다.

BMW는 Personal Intelligence Assistant 뿐만 아니라 Amazon과의 파트너십을 통해 Amazon의 음성 에이전트인 Alexa를 부가적으로 차량에 탑재하였다는 것이 특이점이다. 이를 통해 운전자는 차량 내에서 음성 쇼핑을 할 수 있으며, 집 안 음성 에이전트인 Amazon Echo와의 연결을 통한 IoT 제품 조작이 가능하다. 이는 미래 자율주행 시대에서의 콘텐츠 소비 및 카투홈(Car-to-home) 서비스를 활성화하고자 하는 BMW의 전략적인 파트너십으로 해석할 수 있다.

본 사례 분석에서는 Amazon의 Alexa가 아닌 BMW의 자체 음성 에이전트인 Personal Intelligence Assistant의 VUI 전략을 다루고자 하며, 음성 에이전트의 언어는 미국과 영국 기준의 영어를 사용하였다.


2.     VUI 분석

2.1   음성 에이전트 활성화 방식

음성 에이전트 대화 활성화에 있어서 특정 명령어를 통해 제어하는 Command-and-Control 방식을 통해 사용자가 먼저 대화를 시작하는 방식이 대부분이며, BMW의 음성 에이전트도 이러한 방식을 사용하고 있다. BMW의 음성 에이전트는 Wake word와 Push-to-talk의 두 가지 방식으로 활성화할 수 있다.

Wake word는 버튼을 누르는 등의 물리적 터치가 필요없이 특정 음성 명령어를 통해 음성 에이전트와의 대화를 시작하는 방식이다. BMW의 음성 에이전트는 “Hey, BMW”라는 Wake word를 통해 활성화할 수 있다. Wake word에 있어서 BMW의 특징적인 전략은 사진1과 같이 ‘Personal Keyword’ 설정을 통해 사용자가 음성 에이전트의 이름을 따로 설정하여 사용할 수 있다는 점이다.

사진1. Personal Keyword 설정 화면 


이러한 BMW의 Personal Keyword 전략은 사용자에게 정서적으로 보다 개인화된 경험을 줄 수 있을 것이며, 동시에 음성 에이전트에 의인화적 요소를 부여함으로써 사회적 실재감을 높이고 애착을 형성할 수 있을 것이다. 그러나 Personal Keyword가 음성 인식 기술로 검출하기 어렵거나 오인식 유발 가능성에 대한 BMW의 대처 방안에 대해서는 확인할 수 없었다. 

Push-to-talk는 특정 버튼을 눌러 음성 에이전트를 활성화하는 방식이다.  특히 차량 내에서 Push-to-talk 버튼은 주로 스티어링 휠에 위치하고 있다. Push-to-talk는 Wake word로 음성 에이전트를 주로 활성화하는 스마트 홈 맥락의 음성 에이전트와 구분되는 방식으로, 사용자인 운전자가 활성화 버튼과 언제나 가까이에 있어 손쉽게 누를 수 있다는 차량 내의 공간적 특성이 반영된 것이다. BMW는 Wake word를 통해 음성 에이전트를 활성화했을 경우에는 음성 에이전트의 응답을 기다릴 필요 없이 바로 명령이 가능하나, Push-to-talk 버튼을통해 활성화했을 경우에는 음성 감지 신호가 나타날 때까지 기다려야 발화가 가능하였다.

2.2   사용자 명령 인식

BMW의 음성 에이전트는 사람 간의 대화에서 사용되는 자연어(Natural language)를 통해 명령이 가능하다. 자연어 명령의 경우 사용자의 상황과 의도에 대한 다양한 고려가 필요하다는 점에서 고도화된 기술이 필요하다.


User- “Hey, BMW. I’m cold.

BMW– “Which temperature should I set?

User– “22 degrees.”

BMW– “OK. I set the temperature at 22 degrees.”

대화 1 

 

위의 대화를 살펴보면, 사용자가 ‘춥다’고 하자 음성 에이전트가 온도를 몇 도로 설정할 것인지에 대해 묻는다. 이는 사용자가 ‘Turn on the heater’와 같이 특정한 명령어로 명령하지 않아도 음성 에이전트가 자연어를 인지하여 사용자의 의도를 해석하고 있는 것을 보여준다.


2.3   음성 에이전트 응답

2.3.1      응답 지연(Latency)

BMW 음성 에이전트의 15가지 대화를 분석한 결과, 명령어 발화 후 응답까지 평균적으로 약 3초 이상의 지연을 보였다. 사람 간의 대화에서 응답시간은 평균 400밀리세컨드 이하라는 점을 생각한다면 사람과 비교하였을 때 비교적 느린 응답 시간으로 볼 수 있다. 응답의 지연은 사용자의 짜증과 같은 정서적 불쾌감이나 인지부하를 발생시킬 수 있는 요소이므로, 너무 느리거나 빠르지 않도록 적절하게 설계되어야 한다.

2.3.2      디스플레이 피드백(DisplayFeedback)

BMW의 음성 에이전트는 음성과 함께 디스플레이에 시각적 표현을 나타냄으로써 응답한다. 특히 디스플레이에 나타나는 그래픽의 애니메이션은 음성 에이전트의 음성 인식 상태에 대한 피드백을 나타낼 수있어, 사용자에게 발화 가능 상태를 인지시킬 수 있다. 차량 내의 경우 사용자가 운전 중인 상황이므로 디스플레이의 화려한 애니메이션은 운전자의 시선을 빼앗아 전방 주시를 어렵게 할 수 있다. BMW의 경우에는 간결한 애니메이션을 활용함으로써 운전자의 주의를 빼앗지 않고자 함을 알 수 있다.


사진 2. BMW의 음성 에이전트 디스플레이 응답 


2.3.3      정보 구성

응답의 정보 구성에 있어서 단어의 순서와 강세 배치를 활용해 사용자가 이해하기 쉽도록 유도해야 한다. 영문법의 ‘문미 초점의 원리(Principle of end-focus)’에 의하면, 내용의 초점을 문장의 끝에 위치시키는 것이 사용자의 응답 인지 정확성을 향상시킬 수 있다. 

 

User- “What’s on my To-do list?”

BMW- “Your lists of tasks are ‘writing code’, ‘get pizza’ and ‘take a selfie’.

대화 2 

 

위의 대화를 보면, BMW의 음성 에이전트는 사용자가 알고자 했던 내용을 문장 끝에 배치함으로써 사용자의 인지 정확성을 향상시키고자 함을 알 수 있다.


2.3.4      확인전략 (Confirmation Strategy)

음성 에이전트가 명령을 수행하기 전, 명령을 잘못 해석하여 잘못된 명령을 수행하지 않도록 간결한 확인전략을 통해 사용자에게 명령어를 확인하는 과정이 필요하다. BMW 음성 에이전트의 경우, 확인전략 중에서도 음성 에이전트가 명령을 수행하기 전에 질문을 통해 사용자의 동의를 얻는 확인전략인 명시적 확인(Explicit Confirmation)을 주요하게 사용하고 있는 것으로 나타났다. 다음의 대화를 통해 BMW의 명시적 확인전략을 확인할 수 있다.

 

User- “Send an email to Alex.”

BMW- “OK. I found Alex Wilbur, ‘Alexw@microsoft.com’. Do you want to includethis contact? If this is not the Alex Wilbur you are looking for, we cantry again.

대화 3 

 

위의 대화에서 사용자가 요청한 이메일을 전송하기 전 음성 에이전트가 수신자가 올바른 지에 대하여 사용자에게 확인을 요청하고 있다. BMW의 명시적 확인전략은 위와 같이 이메일이나 메시지 전송 등 실행 후 취소가 어려운 상황에서 잘못된 명령 수행을 사전에 방지하고자 함을 알 수 있다. 그러나 확인전략은 불가피하게 음성 에이전트 응답 길이를 길어지게 하는데, 사용자가 운전 중인 상황에서 인지부하를 발생시키지 않도록 가능한 짧고 간결하게 확인전략을사용해야 한다. 위의 대화에서는 확인을 위한 ‘질문 문장’과 명령 해석 오류일 경우 다시 시도할 수 있다는 것을 알리는 ‘안내문장’의 배치로 인하여 확인전략이 다소 길어진 사실을 알 수 있다. 이처럼질문 문장이 안내 문장보다 앞에 배치된 경우에는, 사용자가 질문을 듣고 이에 대한 응답을 시도함으로써음성 에이전트의 안내 도중에 사용자가 명령어를 발화하는 ‘Barge-in’이 발생할 수 있다. BMW의 음성 에이전트는 사진 3과 같이 안내 도중에 사용자가 명령어를 발화할 수 없어 Barge-in이 불가하므로 음성 안내가 끝나야 사용자 발화가 가능하다. 이와 같은 상황에서는 불필요한 안내 문장을 삭제하여 보다 간결한 문장을 통해 확인전략을 사용하거나, Barge-in을 허용하는 음성인식 기술을 탑재함으로써 개선될 수 있을 것이다.


사진 3. 디스플레이에 표시된 Barge-in 불가 


2.4   의인화 전략 (Anthropomorphism Strategy)

2.4.1      퍼소나 (Persona)

구체적인 퍼소나의 설정은 음성 에이전트의 사회적 실재감을 높여줄 수 있다. 또한 이는 음성 에이전트 뿐만 아니라, 제품 및 브랜드에 대한 일관적이고 친숙한 사용자 경험을 구축할 수 있다는 점에서 중요한 요소로 작용한다. BMW의 음성 에이전트는 미국과 영국을 기준으로 여성의 목소리를 가지고 있다. 또한 다음과 같은 대화를 통하여, BMW 음성 에이전트의 모습을 짐작해볼 수 있다.

 

User– “Hey BMW, who are you?”

BMW– “I am your personal assistant and I care about you. Do you want find out more about me?”

User – “Yes. Please.”

BMW– “You can address me directly if you want me to control function for you.”

대화 4 [34]

 

위의 대화에서 BMW 음성 에이전트는 자신은 ‘당신을 아끼는 개인비서’ 라고 소개하고 있다. ‘아낀다’는 표현을 통해 음성 에이전트는 ‘친절함’, 혹은 ‘따뜻함’과 같은 자신의 성격을 표현하고 있다. 또한 사용자에게 추가적인 정보를 알려주기 위해 질문을 유도하는 대화 전략을 사용하고 있는데, 이를 통하여 능동적으로 업무를 수행하는 비서의 모습을 상상할 수 있다.

또한 다음의 대화를 통해 BMW 음성 에이전트가 ‘선호하는 색상’이 무엇인지 알 수 있다. 이를 통해 BMW가 음성 에이전트에 보다 구체적인 퍼소나를 설정함으로써, 음성에이전트의 사회적 실재감을 높이려 했음을 알 수 있다.

 

User – “What is your favorite color?”

BMW – “I like blue and white.

대화 5 

 

2.4.2      잡담 (Chitchat)
잡담은 일상에서 흔히 하는 상대방과의 거리를 좁히기 위한 대화라고 할 수 있다. 잡담전략은 HCI 분야에도 적용되어 연구된 바가 있는데, 유머를사용하는 컴퓨터 에이전트가 그렇지 않은 컴퓨터 에이전트보다 호감도가 높고 능력이 있으며 협력적으로 평가된다는 것을 증명하였다. 또한 잡담 없이 의인화가 이루어진 대화형 에이전트에 대해서 기계적이라고 인식하는 경향이 높은 것으로 나타났다. BMW의 음성 에이전트는 과업 지시가 아닌 사용자가 시도하는 간단한 잡담을 인지하고 이에 응답하는 전략을 사용하고 있는 것으로 나타났다.

User – “what is the meaning of life?”
BMW – “Actually it’s for you humans to find that out but to me, it’s your driving pleasure.

대화 6 

 

위의 대화에서 사용자가 인생의 의미에 대해 묻자, BMW 음성 에이전트는 그것을 알아내는 것은 인간을 위한 것이며, 자신에게 인생의 의미는 사용자의 운전에 대한 기쁨이라고 답한다. BMW 음성에이전트는 이와 같은 잡담 전략을 통하여 사용자의 기대에 부응하고 뜻밖의 즐거움(Serendipity)을선사할 수 있을 것이다.

2.4.3      감정 표현 (Emotion expression)

피카드(Picars,2003)는 컴퓨터 에이전트의 감정 표현이 사용자와 더욱 효과적인 상호작용을 촉진시키는 것에 긍정적인 효과를 발휘할 수 있다고 주장했다. BMW 음성 에이전트는 다음의 대화에서 ‘기쁨’이라는 감정 표현을 통해 호감도 향상을 시도하는 전략을 사용하고 있음을 알 수 있었다.

 

User– “Is there anything you wanna say?”

BMW– “I am happy that ‘MobileGeeks’ Stopped by to see me.”
대화 7 [25]

 

그러나 호와 리(Hou & Lee, 2011) 연구에 따르면 감정을 표현하지 않는 대상에 대해 전문성을 더 높게 평가하고 있다는 것을 알 수 있다. BMW 음성 에이전트는 앞서 살펴본 바와 같이 능동적인 비서의 퍼소나를 보이고 있었으므로, 일관성 있는 퍼소나를 위하여 전문성을 요구하는 과업 수행에 있어서는 감정을 표현하지 않는 것이 사용자의 지지를 얻을 수 있을 것이다. 

2.4.4      담화표지(Discourse Markers)
담화표지는 문장의 인과관계, 시점, 태도 등을 나타내는 단어 또는 구절로, 문장의 흐름과 구조를 관리하는 역할을 한다. 음성 에이전트의 담화표지의 사용은 사용자가 대화의 내용을 더욱 잘 인지할 수 있도록 돕는다.
BMW 음성 에이전트는 다음의 대화를 통해 긍정적인 피드백, 사용자의 행동에 대한 인정을 나타내는 담화표지
를 사용하고 있는 것을 알 수 있다.


User– “I’m stressed.”

BMW– “No problem. I have activated the relaxation program.”

대화 8 

 

BMW– “Do you want to book another service as well?”
User – “No thank you.”
BMW – “I will give you an overview of the earliest available slots at the dealership. Alright. I found an available slot. The option is onTuesday, May 7th to 4 p.m. to 4:30 p.m. Do you want to select this appointment?”
User – “Yeah. That looks great.”
BMW – “Thank you for confirming, I am sending through your request to dealership.”

대화 9 

 

대화에서 BMW 음성 에이전트는 ‘No problem’의 표현을 통해 과업 처리에 대한 긍정적인 피드백을 나타내는 담화표지를 사용하고 있다. 또한 대화 2에서는 ‘Alright’, ‘Thank you for confirming’의 표현을 통해 사용자의 행동을 지지하고 인정하는 담화표지를 사용하고 있는 것을 알 수 있다.
담화표지는 에이전트의 퍼소나에 알맞게 사용하는 것이 중요한데,  ‘Good job’, ‘Got it’과 같은 담화표지의 경우에는 격식 없고 일상적인 표현으로, 친근한 퍼소나의 에이전트에 알맞을 수 있다. BMW 음성 에이전트의 담화표지는 ‘능동적인 비서’의 퍼소나가 반영되어 정중하고 긍정적인 형태를 보이고 있다는 것이 특징이다.

2.5   개인화 전략 (Personalization Strategy)

개인화 전략은 BMW의 음성 에이전트와 같이 인공지능이 탑재된 음성 에이전트의 지속적인 사용 의도를 향상시키는 사용자의 편안함을 확보할 수 있다는 점에서 중요한 전략이다. BMW 음성 에이전트는 다양한 기능을 통해 개인화 전략을 적극적으로 시도하고 있었다.

개인화 전략을 사용자 경험에 따라 정서적 개인화와 기능적 개인화로 분류하였다. BMW는 사용자의 개인 프로파일링 기능을 통하여 음성 에이전트가 사용자를 인식하고 이에 따른 정서적, 기능적 개인화가 가능하도록 한다.

정서적 개인화는 사용자로부터 개인적인 관계 형성을 통해 친밀감, 신뢰를 확보하는 것으로 정의할 수 있다. BMW의 사용자 개인 프로파일링 기능을 통해 사용자를 인식하고 알아보는 행위에서 정서적 개인화를 느낄 수 있다. 또한 앞서 살펴보았듯 Personal keyword를 통해 wake word인 음성 에이전트의 이름을 사용자가 직접 설정할 수 있다. 이와 같은 기능은 음성 에이전트와의 대화에 있어서 사용자로 하여금 ‘나만의’,‘나를 위한’과 같은 정서적 개인화 경험을 느낄 수 있게 한다.

기능적 개인화는 사용자가 원하는 목표에 보다 빠르게 도달할 수 있도록 하여 사용자의 개입을 최소화함으로써 편의성과 사용성을 확보하는 것으로 정의할 수 있다. 기능적 개인화를 위해서는 음성 에이전트가 사용자의 행동, 공간, 상태 등의 맥락을 인지하는 것이 중요하다. BMW 음성 에이전트는 다음의 대화와 같이 기능적 개인화 전략을 시도하고 있다.

User– “I’m stressed.”

BMW– “No problem. I have activated the relaxation program.

대화 10 

 

BMW의 Relaxation Program은 차량 내 온도, 음악, 엠비언트 무드등 컬러 등 사용자가 선호하는 환경으로 한 번에 조절해주는 기능이다. 이는 사용자의 발화에서 음성 에이전트가 감정을 인지하고 개인화된 공간을 만들어 준다는 점에서 기능적 개인화를 느낄 수 있다. 그러나 Relaxation Program은 사용자가 선호하는 차량 내 환경을 사용자가 미리 설정해 두어야 한다. 사용자가 직접 설정하지 않아도 알 수 있도록 사용자 행동 패턴을 학습하여 예측할 수 있는 기능이 도입된다면 고도화된 개인화 경험이 가능할 것이다.


사진 4. BMW의 The relaxation program 


User– “Remind me to ‘call my mom’.”
BMW – “I have added ‘call my mom’ to your to-do list. You have 4items on your to-do list.”

대화 11 

 

위의 대화는 사용자의 Office 365를 BMW 음성 에이전트와 연동하여 할 일 목록 추가와 상기가 가능함을 나타낸다. 이는 사용자의 개인 계정에 음성 에이전트가 접근함으로써 사용자의 개입을 최소화할 수 있다는 점에서 기능적 개인화 경험을 느낄 수 있다.

기능적 개인화 경험을 느낄 수 있는 전략 중 하나인 ‘개인화된 추천’에 대해서는 BMW 음성 에이전트의 대화 수집 시 확인할 수 없었다.
이와 같은 개인화 전략을 가능하도록 하기 위해서는 사용자 개인 계정의 연동, 위치 정보, 취향 및 선호도 정보 등의 개인정보 수집이 필요하다는 점에서 사용자와의 신뢰 관계 형성이 중요할 것이다. 따라서 개인화 전략에 앞서 신뢰를 확보할 수 있는 대화전략을 도입해야 할 것이다.



IV.  결론

1.     시사점과 제언

차량 내 음성 에이전트는 운전자의 인지 부하를 줄일 수 있으며, 미래 자율주행 시대에서 자동차와 사람의 주요한 상호작용 방법이 될 것이므로 계속해서 발전 및 확대될 전망으로 보인다. 사례분석에 근거하여 시사점과 향후 VUI 설계와 기술의 방향성을 제시하면 다음과 같다.

첫째, 사용자의 감정을 인지할 수 있는 감정인식 기술의 탑재가 필요하다. 음성에이전트가 사용자의 얼굴과 목소리, 심장 박동, 동작 등을 통해 감정 상태를 이해함으로써 보다 정서적, 기능적으로 개인화된 경험과 기능을 제공할 수 있을 것이다. 이를 위하여 컴퓨터 비전, 머신러닝 및 딥러닝과 같은 기술의 고도화가 요구된다.

둘째, 적절한 수준의 의인화 전략을 강화함으로써 형성된 사용자와의 친밀한 관계에 기반한 신뢰 확보가 필요하다. 컴퓨터가 인간과 비슷한 외형, 대화, 행동 등과 같은 의인화(anthropomorphism)요소를 많이 내포하고 있을 때 사람은 기계를 사람처럼 대하게 된다. 또한 사용자들이 컴퓨터를 이용한 업무 수행에서 업무 중심적(task-oriented)인 컴퓨터에 비해 사회 정서적인 (social-emotional) 표현을 하는 컴퓨터를 더 존중하고, 호감과 신뢰감을 느낄 뿐만 아니라, 지속적인 사용 의도가 더 높다는 연구가 있다. 연구에서 지각된 의인화의 수준이 높을수록 친밀감에 긍정적인 역할을 하는 것으로 나타났다. 음성 에이전트의 의인화 전략은 친밀감 형성을 통해 디지털 컴패니언(Digital Companion)으로서 사회적 관계를 맺는 방법의 하나로 사용될 수 있다.

그러나 높은 수준의 의인화는 로봇이 인간과의 유사성이 증가할수록 호감도가 증가하다가 어느 수준에 도달하면 강한 거부감으로 바뀌게 되는 언캐니밸리(Uncanny valley) 현상이 발생할 수 있다. 따라서 적절한 수준의 의인화를 통해 호감과 신뢰를 확보함으로써 지속적인 사용을 유도해야 할 것이다. 이를 위하여 적절한 수준의 의인화 정도와 이에 대한 자기노출, 감정표현 등과 같은 대화전략에 대한 연구가 필요하다.

셋째, 보다 적극적인 개인화 전략을 통해 사용자의 만족도 및 신뢰 향상과 지속적인 사용을 유도해야 한다. 지시와 명령을 내리는 상황에서 음성은 하나의 주체를 전제로 하므로 인공지능의 개인화와 VUI의 만남은 필연적이라고 한다. 개인화된 음성 에이전트는 사용자의 목적을 빠르게 달성할 수 있도록 돕는다는 점에서 편의성 및 사용성을 통해 만족도를 향상시킬 수 있다. 더 나아가 음성 에이전트의 개인화는 사용자를 강력하게 락인(Lock-in)할 수 있는 기회가 될 수 있다. 따라서 개인화 모델링에 필요한 사용자의 개인정보 수집을 위하여 친밀감과 신뢰성을 높일 수 있는 VUI 대화전략에 대한 연구가 이루어져야 할 것이다. 또한 탑승자 개개인의 개인화를 위한 화자 인식, 사용자의 상황이나 상태와 같은 맥락 인지, 머신러닝 및 딥러닝, 빅데이터 분석 및 추천 알고리즘 등 고도화된 기술력의 탑재가 필요하다.

넷째, 차량 내 음성 에이전트와 타 서비스 콘텐츠와의 적극적인 연결성(Connectivity)을 통하여 플랫폼으로써 사용자에게 더 많은 콘텐츠를 제공하는 것이 필요하다. 음성을 통해 다른 서비스 콘텐츠를 제어할 수 있다면, 눈과 손이 자유롭지 못한 주행 상황에서 더욱 안전하게 생산성을 향상시킬 수 있을것이다. 또한 미래 자율주행 시대가 될 경우, 운전자가 이동시간의 자유를 얻게 됨으로 인하여 상호작용을 담당하는 차량 내 음성 에이전트의 역할이 중요해질 것이다. 따라서 차량 내에서 음성을 통해 업무를 보거나 콘텐츠를 소비할 수 있는 연결성의 확보가 필요하다. 이를 위하여 카투홈(Car-to-home), 인포테인먼트, 의료 서비스를 제공하는 기업과의 전략적 파트너십 확장을 통하여 차량 내의 경험과 연결할 수 있어야 할 것이다.

이동 경험의 혁신을 제공할 차량 내 음성 에이전트는 우리의 중요한 동반자가 될 것이다. 그러나 고찰한 바와 같이 친숙하고 편리한 인공지능 에이전트 VUI 설계를 위하여 많은 연구가 필요하다. 또한 인공지능이 탑재된 차량 내 음성 에이전트의 VUI의 인터랙션과 대화전략에 대해 만족도와 안전성을 확보할 구체적인 가이드라인이 부족한 상황이다. 따라서 VUI 인터랙션과 대화전략 기술에 관한 활발한 기업-학계간의 적극적인 협력이 필요할 것이다.

 


 

V.   참고문헌

1.    Eyben, F., Wöllmer, M., Poitschke, T.,Schuller,B., Blaschke, C., Färber, B., & Nguyen-Thien, N.(2010). Emotion on the road—necessity, acceptance, and feasibility of affectivecomputing in the car. Advances in human-computer interaction, 2010.

2.    Chattaraman, V., Kwon,W.S., Gilbert, J.E., & Ross, K. (2019). Should AI-based conversationaldigital assistants employ social-or task-oriented interaction style? Atask-competency and reciprocity perspective for older adults. Computers inHuman Behavior, 90, 315-330.

3.    Li, Z., & Rau,P.L.P. (2019). Effects of self-disclosure on attributions in human-IoTconversational agent interaction. Interacting with Computers.

4.     Michael H. Cohen, James P. Gianglam, Jennifer Balogh.(2004) Voice User Interface Design. Addison-Wesley.

5.     최재호, 김훈태. (2016). 스마트폰 음성 인터페이스의사용 현황 및 사용자 인식에 대한 조사 연구. 한국전거래학회지,21(4), 29-40.

6.     Hoon Cho. (2016). UI 디자이너가바라 본 가상현실(Virtual Reality)과 비매개(Transparent Immediacy).https://medium.com/@hooncho/ui-%EB%94%94%EC%9E%90%EC%9D%B4%EB%84%88-%EA%B4%80%EC%A0%90%EC%9D%98-%EB%B9%84%EB%A7%A4%EA%B0%9C-%EC%97%90-%EB%8C%80%ED%95%9C-%EB%8B%A8%EC%83%81-44c22d8d1e37

7.    http://dobiho.com/17533/

8.    Large, D. R., Clark, L., Quandt,A., Burnett, G., & Skrypchuk, L. (2017). Steering the conversation: alinguistic exploration of natural language interactions with a digitalassistant during simulated driving. Applied ergonomics, 63, 53-61.

9.    Lansdown, T. C.,Brook-Carter, N., & Kersloot, T. (2004). Distraction from multiplein-vehicle secondary tasks: vehicle performance and mental workloadimplications. Ergonomics, 47(1), 91-104.

10.Large, D. R., Clark, L., Quandt,A., Burnett, G., & Skrypchuk, L. (2017). Steering the conversation: alinguistic exploration of natural language interactions with a digitalassistant during simulated driving. Applied ergonomics, 63, 53-61.

11. Adobe. (2019). Adobe Analytics Predicts How Voice Will Change in2019.  https://theblog.adobe.com/adobe-analytics-predicts-how-voice-will-change-in-2019/

12.Voicebot. (2019). in-car voiceassistant consumer adoption report

13.Bickmore, T. W., Caruso, L.,& Clough-Gorr, K. (2005, April). Acceptance and usability of a relationalagent interface by urban older adults. CHI’05,Portland, OR.

14.S. Szymkowski. (2019). BMW,Microsoft team up to improve in-car voice recognition. https://www.thecarconnection.com/news/1123028_bmw-microsoft-team-up-to-improve-in-car-voice-recognition

15. C. Pearl, Designing Voice UserInterface (America: O.Reilly, 2016)

16. Nicole (2019). Microsoft & BMW partner for aproductive virtual assistant (Demo). https://www.mobilegeeks.com/article/microsoft-bmw-partner-for-a-productive-virtual-assistant-demo/

17.BMWUSA (2018). Voice Commands And "Hello BMW"Activation | iDrive 7 | BMW Genius How-To. https://www.youtube.com/watch?v=6V4QsQee_hw

18. BMW (2019).BMW 지능형개인 어시스턴트와 대화하는 방법 – BMW 사용 안내. https://www.youtube.com/watch?v=RqaDUBxf44U

19. 윤소연. (2018).[2018 HCI NEW TREND SEMINAR 강연 후기]T map x NUGU 음성 인터페이스 디자인 사례_이남민,한보람 SK텔레콤. blog.rightbrain.co.kr/?p=878

20. NewGadgets.de. (2018) BMW Intelligent PersonalAssistant im neuen BMW 3er. https://www.youtube.com/watch?v=HMugnt9Ju7g

21.Mobilegeeks.de. (2019) MicrosoftVirtual Assistant demo with BMW – Demo @ BUILD 2019. https://www.youtube.com/watch?v=4h3yC01Y_Wo

22. J. Giangola. (2017). Conversation Design: Speaking the Same Language. https://design.google/library/conversation-design-speaking-same-language/

23. Google. (2016). Instilling UserConfidence Through Confirmations and Acknowledgements.

24. DECcars.(2018). 2019 BMW 3 Series Intelligent Personal Assistant. https://www.youtube.com/watch?v=iSjZdTQ1Xog

25.TechCrunch. (2018). BMW debuts its new IntelligentVoice Assistant. https://www.youtube.com/watch?v=CyqiIjqVXDQ

26. 박선영. (2018) 대화형 에이전트와사용자의 친밀감 형성이 신뢰에 미치는 영향에 대한 연구: 자기노출, 잡담그리고 의인화 전략을 중심으로. 연세대학교 대학원 생활디자인학과

27. Morkes, J., Kernal, H. K., & Nass, C. (1999). Effectsof humor in task-oriented human-computer interaction and computer-mediatedcommunication: A direct test of SRCT theory. Human-Computer Interaction, 14(4),395-435.

28. Picard, R. W. (2003). Affectivecomputing: Challenges. International Journal of Human-Computer Studies, 59(1),55-64

29. Hou, J., & Lee, K. M. (2011, October). Effects ofself-conscious emotions on affective and behavioral responses in HCI and CMC.Paper presented at the meeting of SIGDOC&11, Pisa, Italy.

30. R. Carter. English Grammar Today. (England:Cambridge, 2016)

31.Motorward. (2019). BMWIntelligent Personal Assistant Demo. https://www.youtube.com/watch?v=jnBFCqLUysA

32.Clark, N. K., & Rutter, D.R. (1985). Social categorization, visual cues, and social judgements. EuropeanJournal of Social Psychology, 15(1), 105-119.

33.Mori, Masahiro(1970). Bukimi no tani The uncanny valley (K. F. MacDorman & T. Minato,Trans.). Energy, 7(4), 33–35. (Originally in Japanese)

34. 최진홍. (2019). [IT여담] AI 개인화와 목소리. http://www.econovill.com/news/articleView.html?idxno=360664

작가의 이전글 제네시스 EQ900 ADAS 경험디자인 분석

매거진 선택

키워드 선택 0 / 3 0

댓글여부

afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari
브런치 시작하기

카카오계정으로 간편하게 가입하고
좋은 글과 작가를 만나보세요

카카오계정으로 시작하기
페이스북·트위터로 가입했다면