brunch

You can make anything
by writing

C.S.Lewis

by Poem Kim Jun 26. 2020

커넥티드 카의 시작, UX 관점에서 바라보기 Part3

차량 내 인공지능 음성 에이전트의 UX 전략

본 글은 세 파트로 구성된 글입니다.

이전 글 보기 

Part 1. 경험의 실타래로 분석해보는 제네시스 G80/GV80

Part 2. 커넥티드 카 플랫폼의 우위를 점하는 UX 경영 전략



차량 내 인공지능 음성 에이전트는 차량 내 기능을 조정하는 컨트롤 타워 역할을 수행함과 동시에 동반자로서 사용자의 이동 경험을 더욱 새롭게 할 것으로 기대된다. 애플 카플레이(CarPlay), 구글 안드로이드 오토(Android Auto), 아마존 알렉사(Alexa) 등 기존 스마트폰이나 스마트 스피커에서 활용하던 인공지능 음성 에이전트를 차량 인포테인먼트에서도 같은 방식으로 이용할 수 있게 되면서 점차 운전 중 음성 에이전트를 사용하는 일이 자연스러워지고 있다. 현대자동차의 경우 2019 년 신형 소나타를 시작으로 2020 년 출시한 GV80, G80 등 신차에 인공지능 플랫폼 카카오 i 를 탑재하여 사용자가 카카오 계정을 연동해 서비스를 이용할 수 있도록 했다.


카카오 i 실행 / 출처: HMG 저널

인공지능 음성 에이전트의 핵심 기술인 자연어 처리 기술의 발전으로 사용자가 평상시 사용하는 일상적인 언어로 ‘바람 세게’나 ‘주변 카페 맛집 알려줘’라고 해도 기능 명령 및 수행이 가능해졌다. 앞으로는 명령 중심이었던 음성 인터페이스가 대화 중심으로 바뀌고 인공지능 음성 에이전트 또한‘지능형 대화 서비스’로 나아갈 예정이다. 이제 진짜 사용자들의 의견에 더욱 귀를 기울여야 하는 시점에서 인공지능 음성 에이전트의 UX 디자인 방향성을 세 가지로 나누어 제안하고자 한다.


1. “지금 이 순간, 이런 자율주행 기능 어때요?” 판단력이 끝내주는 똑똑한 동반자


인공지능 음성 에이전트의 역할이 단순 내비게이션의 음성 안내나 차량 내 공조 제어 이상으로 확대되었음에도 여전히 주행 중 음성으로 무언가를 실행하는 게 사용자에게 어려울 수도 있다. 특히 Part 1 에서 다룬 첨단 운전자보조 시스템(ADAS)이나 반자율주행 기술의 경우 사용자에게 아직은 낯설다. 자유로운 시스템 활용의 뒷받침이 되는 기술의 신뢰성을 확보하기 위해서는 반복적인 노출을 통해 사용자가 새로운 기능을 학습하고 익숙해져야 하는데, 음성 에이전트가 이를 효과적으로 도울 수 있다.


ADAS 중에서도 크루즈 컨트롤 시스템을 예로 들어보자. Mercedes-Benz 에서 2000 년대 선보인 어댑티브 크루즈 컨트롤(Adaptive Cruise Control)은 시스템 스위치를 스티어링 휠 왼편에 레버 형태로 제공하고, 현대자동차의 스마트 크루즈 컨트롤(SCC) 활성화 스위치는 스티어링 휠 오른쪽 엄지손가락이 닿는 위치에서 확인할 수 있다. 두 인터페이스는 각각 조작 방법에 익숙해지기 전까지는 고개를 숙이는 수고를 들여 레버에 각인된 정보를 재확인해야 한다는 점, 2 번의 조작을 해야만 기능을 사용할 수 있다는 점에서 주행 보조 시스템 작동에 어려움이 있다. 반면 Land Rover 에서는 어댑티브 크루즈 컨트롤 버튼을 쉽게 찾을 수 있으며 버튼 한 번으로 활성화시킬 수 있다. (이 부분과 아래 이미지는 LISN Design의 자율주행 자동차 UX 이론 2편을 참고하였습니다.)

왼)Mercedez-Benz 어댑티브 크루즈 컨트롤 스위치, 가운데) 현대기아자동차 스마트 크루즈 컨트롤 스위치, 오) Land Rover 어댑티브 크루즈 컨트롤 스위치

그러나 반드시 물리적 인터페이스로만 기능 작동의 어려움을 해결할 수 있는 것은 아니다. 음성 에이전트가 차량 상태나 도로 상황을 파악하고 특정 기능을 실행할 것을 사용자에게 미리 제안할 수 있다면 어떨까? 반복 노출과 함께 어떤 상황에서 해당 시스템이 쓰이는지 지속적인 학습이 이루어진다면 사용자의 시스템 신뢰도와 지속적 이용 의도를 높일 수 있다. UX 관점에서 더욱 구체적으로 접근해본다면 에이전트의 인터랙션에 자기효능감을 더하는 방식으로 풀어볼 수 있다. 자기효능감(self-efficacy)은 사용자가 특정 과제를 수행할 수 있는 자신의 능력에 대한 믿음을 의미하는데, 사용자가 혁신 기술 및 시스템을 적극적으로 사용하려는 태도에 영향을 미친다. 해당 연구에서는 자기효능감 자극이 없는 음성 시나리오와 자기효능감 자극이 있는 음성 시나리오를 제시하여 비교하는 실험을 진행했고, 결과적으로 자기효능감 자극이 있을 때 사용자가 상대방을 인지하고 소통하고 있다고 느낄 수 있으며 인지된 위험 또한 낮아 새로운 시스템 사용 의도에 긍정적인 영향을 주는 것으로 나타났다(이정명 외 2 인, 2019). 주행보조 시스템을 사용하기에 적절한 상황이거나 운전자가 이전에 주행보조 기능을 실행했던 같은 구간을 지날 때 등 인공지능이 스스로 파악한 후 사용자에게 “전방에 스마트크루즈컨트롤을 사용하기 적합한 직진 도로가 나타납니다. 주행 목표 속도 70km/h 로 스마트크루즈 컨트롤을 활성해볼까요?”라고 먼저 제안할 수도 있다. 이후 작동방식에 대해서도 “운전대 우측 버튼을 누른 후 SET + 버튼을 눌러 스마트크루즈 컨트롤을 시작해볼게요”라고 알려줄 수 있다. 사용자가 수행한 것에 대해 즉각적으로 긍정적인 피드백을 제공해 자기효능감을 높일 수도 있다. 해당 기능에 노출되고 반복적으로 문제 없이 기능을 실행한 경험이 쌓이면 결과적으로 인공지능 음성 에이전트의 판단력에 대한 신뢰도가 높아지고 에이전트를 나의 똑똑한 동반자로 인식할 수 있을 것이다. 여기에 더해 반자율주행 기술에 해당하는 새로운 기능들을 여러 번 시도해봄으로써 자율주행 기술에 대해 유용하게 느낄 수 있는 기회 또한 점차 늘어날 것이다.


2. “어린이는 걱정마세요” 세심한 배려로 동승자 케어까지, 든든한 비서


기존 차량의 사용자는 대체로 운전자만을 가리켰지만 이제는 가족 구성원을 비롯한 동승자의 이동 경험도 중요해졌다. 앞서 Part 1 에서 한차례 언급했듯이 제네시스 G80 에는 동승자를 위한 후석 모니터가 탑재된 바 있다. 

후석 인포테인먼트 / 출처: HMG 저널

차량 사용자 간의 정보가 분리되고 탑승자별로 원하는 엔터테인먼트를 즐길 수 있게 된 것이다. 막연하게 좌석에 앉은 사람마다 각자 원하는 음악을 듣고 원하는 영화를 볼 수 있으면 좋겠다는 생각이 들 수 있지만 사실 스마트폰을 사용할 줄 아는 성인에게 후석 모니터가 얼마나 유의미한지는 물음표다. 지금도 스마트폰이나 아이패드 등을 활용해 뒷좌석에서 충분히 원하는 엔터테인먼트를 감상할 수 있기 때문이다. 따라서 어린이 동승자가 뒷좌석에 탑승하는 맥락을 살펴보고자 한다.


어린이 탑승자에 대해서는 안전 장치에 대한 논의가 대부분이었다. 현대자동차는 2018 년 운전자가 하차 시 아이의 자동차 탑승 여부를 감지하여 경보음과 메시지를 보내는 뒷좌석 승객 알림(ROA, Rear Occupant Alert) 기술을 싼타페에 최초로 탑재했다. 안전벨트 착용 알림 기능과 탑승자의 호흡수, 심박수를 실시간으로 확인하는 기능도 개발 중이다. 그러나 안전이 차량의 최우선적 가치인 것은 당연하다. 인공지능 음성 에이전트가 뒷좌석에 앉은 어린이들을 위해, 그리고 어린이들까지 신경써야 하는 운전자를 위해 할 수 있는 일은 없을까?


가족 여행을 가는 상황을 가정해보자. 초행길에 내비게이션 따라가기 바쁜 상황에서 지루해진 뒷좌석 어린이들의 요구사항이 빗발친다면 운전자는 운전에 집중하기 어려울 것이다. 이때 후석 모니터에서 인공지능 음성 에이전트가 실행되며 어린이의 정보가 담긴 프로필을 관리하여 맞춤형 보조 서비스를 제공하면 운전자의 걱정을 조금이나마 덜 수 있다. 어린이가 집에서 보던 TV 프로그램을 연결해 마저 재생해주거나 어린이의 감정 상태를 파악해 이에 맞는 엔터테인먼트를 제안해줄 수도 있겠다. 이렇게 에이전트가 동승자의 케어까지 돕는다면 사용자에게는 더할 나위 없이 든든한 비서로 인식되고, 결과적으로 이동 경험의 즐거움과 안전성 모두 높이는 방안이 될 것이다.


3. “저와 이야기해요” 나보다 나를 더 잘 아는 친구이자 이모


이제 차량 내 음성 에이전트는 사용자의 명령을 수행하고 단순한 의사소통에 그치지 않고 자동차가 운전자를 충분히 잘 알고 그때 그때 운전자의 상황과 행동을 분석해 적절한 기능을 제공하고 정서적으로 공감할 수 있는 방향으로 나아가야 한다. 예를 들어 운전 중 카카오 i 로 배고프거나 속상하다고 말하면 다음과 같은 대화가 전개된다.


“나 속상해”

“저도 속상해지네요. 기분이 풀리면 좋겠어요.”


“배고파”

“라면 하나 끓여 먹어요”

“(다시)배고파”

“카카오톡 주문하기를 이용하는 건 어때요?”


(https://www.youtube.com/watch?v=sFuVai-msYQ&t=234s 유튜브 보배파스 채널의 영상 속 대화 재구성)


속상하다는 뜻을 인지하고 이에 대해 공감했다고 볼 수는 있겠지만 다소 1 차원적인 대화로 느껴지며, 사용자에게 역시 기계는 기계일 뿐이라는 생각을 심어줄 확률이 높다. 배고프다고 했을 때도 라면을 끓여먹으라고 무언가를 제안했다는 점은 좋지만 사실상 차 안에서 할 수 없는 일로 대답했다는 점에서 사용자의 상황과 감정에 충분히 공감하고 있다고 보기는 어렵다. 초기에는 기대감을 갖고 음성 에이전트를 사용해보더라도 기대감이 실망감으로 변하는 순간 에이전트에 대한 신뢰와 지속적으로 사용하고자 하는 의도가 현저히 낮아진다. 에이전트에게 인간다움에 대한 초기 기대수준이 높으면 더 큰 기대 격차를 불러일으키기 때문에 반응성은 높이되 비인간 페르소나를 개발해야 한다는 의견(박현아 외 4 인, 2018)도 있었다. 그러나 인간과 에이전트의 정서적 교감이 가능하도록 효과적은 음성 에이전트 설계 전략을 찾는다면 차량 내 음성 에이전트에 대한 사용자 경험 만족도를 높일 수 있다.


한 가지 제안해볼 것은 사용자의 특성에 맞춰 각기 다른 페르소나의 음성이 제공되는 것이다. 음성 에이전트의 캐릭터성에 따라 사용자의 만족도가 어떻게 달라지는지 연구한 한 논문(Michael, 2019)에서 아래와 같이 기본 캐릭터와 네 가지 캐릭터성을 구축해 실험을 진행했다.

(Michael, 2019)


각각 Friend(사용자의 눈높이에 맞춰 가벼운 대화 톤으로 디자인됨), Admirer(일상적인 대화 톤을 유지하면서도 사용자의 결정을 긍정하고 대부분 칭찬으로 응답함), Aunt(사용자의 안녕을 깊이 생각하고 사안을 중대하게 받아들이는 다소 포멀한 스타일임), Butler(중립적이며 사실을 전달하고 명령을 따르는 일에 초점을 맞춤), 그리고 기본 캐릭터(Default)는 다른 네 개의 캐릭터와 기능은 동일하지만 성격은 뚜렷하지 않도록 설계하였다. 실험 결과, 사용자의 성격과 음성 에이전트의 캐릭터성이 일치할 경우, 신뢰도와 호감도 면에서 긍정적인 영향을 미친 것으로 밝혀졌다. 꼭 성격이 아니더라도 상황에 따라 에이전트가 유연한 모습을 보여주어야 사용자는 에이전트와 더욱 소통하고 있다는 느낌을 받지 않을까? 


음성 에이전트의 페르소나 하나를 구축하는 데 굉장히 많은 어려움이 따른다는 것은 알고 있지만 현재 남성과 여성의 목소리 중 하나를 선택할 수 있는 방식이 아니라 몇 가지 모드를 갖추고 있는 음성 에이전트가 사용자의 신체 상태, 이동 경로, 날씨, 표정 등 다양한 데이터에 기반하여 사용자의 말과 마음을 이해하고 헤아리는 방향으로 발전해 나가야한다.



마치며

지금까지 3 부로 나눠 제네시스 GV80 과 제네시스 커넥티드 서비스를 중심으로 UX 관점에서 커넥티드 카에 대해 고민해볼 문제에 대해 분석하고 여러 제안사항을 제시하였다. 스마트폰이 반드시 필요하진 않았지만 어느날 우리 일상에서 없으면 안되는 기기가 된 것처럼 커넥티드 카 기반의 시스템과 기능들도 우리 삶에서 빼놓을 수 없는 시대가 올 것이다. 기술의 발전과 함께 실 사용자들이 느끼는 혼란과 문제를 최소화하기 위해 더 많은 고민이 필요하며, UX 뿐만 아니라 다양한 관점에서 커넥티드 카 산업을 바라볼 필요가 있다. 그런 맥락에서 이 글 또한 커넥티드 카의 미래를 고민하는 이들에게 조금이나마 시사하는 바가 있기를 바라본다.




참고자료

1. 김진우 (2014). 경험디자인. 안그라픽스.

2. Braun, M., Mainz, A., Chadowitz, R., Pfleging, B., & Alt, F (2019). At Your Service: Designing Voice Assistant Personalities to Improve Automotive User Interfaces. CHI 2019.

3. 박현아, 태문영, 허영진, 이준환 (2019). 인공지능 대화형 에이전트의 지능적 속성에 대한 기대와 기대 격차.

한국 HCI 학회 논문지, 14(1), 15-22.

4. 이정명, 홍승혜, 최준호 (2019). 부분자율주행 체험환경에서 에이전트 인터랙션 방식이 운전자 경험에 미치는 영향 – 자기효능감과 에이전트 체화 효과를 중심으로-. The Journal of the Convergence on Culture

Technology, 5(1), 361-369.

5. 홍승혜, 최준호 (2020). 자율주행 환경에서 멀티모달 에이전트의 인터페이스가 신뢰감과 안전감에 미치는

영향 – 비주행과업 및 제어권 전환 맥락을 중심으로-. 디자인융복합연구, 19(2), 3-21.

6. SK Telecom – 이남민, 한보람, 박지혜, 이지현 (2018). T map X NUGU 음성 인터페이스 디자인 사례. T

아카데미 ‘T map X NUGU 디자인 사례로 알아보는 음성인터페이스 디자인’ 수업 자료.

7. 권상순 (2020). 커넥티드카의 현재와 미래. 오토저널 2019 년 12 월호. 한국자동차공학회.

8. 박형근 (2019). [POSRI 이슈리포트] 스마트카 시대 자동차 新밸류체인. 포스코경영연구원.

9. 삼정 KPMG 경제연구원 (2020). [Samjong Insight] 자율주행이 만드는 새로운 변화. 삼정 KPMG.

10. 제네시스 공식 홈페이지. https://www.genesis.com/kr/ko/genesis.html

11. 김동영 (2019). 자율주행 자동차 UX 이론 2 편. LISN Design.

http://jstudio.co.kr/news_single.html?category=Automotive%20UX&title=%EC%9E%90%EC%9C%A8%20%EC%A3%BC%ED%96%89%20%EC%9E%90%EB%8F%99%EC%B0%A8%20UX%20%EC%9D%B4%EB%A1%A0%202%ED%8E%B8

12. 김성훈 (2019). 자율주행 그 이상의 AI 기술…‘친구같은 車’ 미래로 달린다. 문화일보.

http://www.munhwa.com/news/view.html?no=2019122401033139176001

13. 장원식 (2020). [ET 단상]인공지능, 자동차 안으로 들어오다. 전자신문.

https://m.etnews.com/20200108000213?obj=Tzo4OiJzdGRDbGFzcyI6Mjp7czo3OiJyZWZlcmVyIjtOO3M6NzoiZm9yd2FyZCI7czoxMzoid2ViIHRvIG1vYmlsZSI7fQ%3D%3D 

14. 제네시스 공식 홈페이지. https://www.genesis.com/kr/ko/genesis.html

15. 코리나 아파치테 (2020). 아이를 태우니, 내 차가 조심스러워졌다. 동아비즈니스리뷰.

https://dbr.donga.com/article/view/1303/article_no/9480/ac/magazine

16. 한태만 (2018). 커넥티드카 서비스와 자동차 플랫폼 경쟁. 테크월드.

http://www.epnc.co.kr/news/articleView.html?idxno=79257

17. 현대자동차그룹 (2020). 오픈 플랫폼은 카라이프의 새로운 시대를 여는 핵심이다. HMG 저널.

https://news.hmgjournal.com/Group-Story/%EC%98%A4%ED%94%88-%ED%94%8C%EB%9E%AB%ED%8F%BC%EC%9D%80-%EC%B9%B4%EB%9D%BC%EC%9D%B4%ED%94%84%EC%9D%98-%EC%83%88%EB%A1%9C%EC%9A%B4-%EC%8B%9C%EB%8C%80%EB%A5%BC-%EC%97%AC%EB%8A%94-%ED%95%B5%EC%8B%AC%EC%9D%B4%EB%8B%A4-

18. 현대자동차그룹 (2019). 현대차그룹, 미래 모빌리티 생태계 전략 제시. HMG 저널.

https://news.hmgjournal.com/Group-Story/%ED%98%84%EB%8C%80%EC%B0%A8%EA%B7%B8%EB%A3%B9-%EB%AF%B8%EB%9E%98-%EB%AA%A8%EB%B9%8C%EB%A6%AC%ED%8B%B0-%EC%83%9D%ED%83%9C%EA%B3%84-%EC%A0%84%EB%9E%B5-%EC%A0%9C%EC%8B%9C


작가의 이전글 커넥티드 카의 시작, UX 관점에서 바라보기 Part2
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari