운전석의 풍경이 달라지고 있다
‘자동차 UX’라고 하면 우리는 내비게이션 화면이나 에어컨 버튼 위치를 떠올립니다. 버튼이 직관적인지, 터치가 편한지, 메뉴 구조가 명확한지 같은 문제들입니다. 그러나 자율주행과 인공지능 기술이 더해지면서 자동차는 완전히 다른 얼굴을 하고 있습니다. 이제 차는 단순한 이동 수단이 아니라, 인간과 알고리즘이 함께 판단을 공유하는 공간이 되고 있습니다. 운전자는 점점 뒤로 물러납니다. 대신 그 자리에 일을 하고, 쉬고, 영상을 보는 ‘사용자’가 남습니다. 차 안은 조작의 공간이 아니라, 일상을 살아가는 작은 방이 되어가고 있습니다.
따라서 UXer라면 이제 자동차에서 '운전 중 조작의 편리함'을 넘어, 운전이라는 개념이 모호해지는 미래를 상상해야 할 때입니다. 그러한 시대의 모빌리티 UX는 아마 차가 무엇인지를 다시 정의하는 역할까지 품게 되겠죠.
자율주행 기술은 이미 레벨 3에 진입했습니다. 특정 조건에서는 시스템이 주행을 담당하고, 인간은 개입 요청이 있을 때만 개입합니다. 이때 사용자의 역할은 ‘조작자’가 아니라 ‘감독자(supervisor)’로 바뀝니다.
여기서 중요한 질문이 등장합니다. 사용자는 과연 항상 상황을 이해하고 있을까요?
HMI 연구에서 자주 언급되는 개념이 바로 상황 인지(Situation Awareness)입니다. 시스템이 주행을 맡고 있을 때 사용자는 도로 상황, 시스템 상태, 위험 가능성을 얼마나 인지하고 있을까요? 사람이 운전대를 잡고 있을 때와 달리, 자율주행 상황에서는 주의가 분산되기 쉽습니다. 문서를 보거나 영상을 시청하는 동안 돌발 상황이 발생하면, 시스템이 제어권을 넘기는 순간 사용자는 충분히 준비되어 있을까요?
이 지점에서 UX는 제어권 전환(hand-over) 설계를 생각해야 합니다. 언제, 어떻게, 얼마나 빨리 사용자가 개입해야 하는지를 명확히 전달하지 않으면 안전과 직결됩니다.
자율주행 시스템에서 가장 중요한 요소 중 하나는 신뢰(calibrated trust)입니다. 신뢰가 과도하면 사용자는 시스템을 과신하고, 부족하면 시스템을 사용하지 않습니다.
최근 HMI 연구들은 자율주행 차량이 행동 전후에 의도를 설명하는 인터페이스를 제공할 때 사용자의 신뢰 수준과 반응 속도가 향상된다는 결과를 보여줍니다. 예를 들어 “앞 차량 속도 저하로 감속합니다”와 같이 시스템의 판단 이유를 명확히 제시하면, 사용자는 단순히 ‘움직임’을 경험하는 것이 아니라 ‘의도를 이해’하게 됩니다. 이러한 설명 가능성은 단순한 정보 제공이 아니라, 인간과 시스템 사이의 심리적 거리를 줄이는 장치입니다. UXer는 기계의 의도를 어떻게 번역할 것인가를 고민해야 합니다.
최근 자동차 실내는 물리 버튼이 줄어들고 대형 디스플레이가 대시보드를 가로지르는 구조로 변화하고 있습니다. 디스플레이는 상황에 따라 유연하게 정보를 재구성할 수 있는 ‘가변 인터페이스’입니다. 기능 통합 측면에서는 매우 효율적입니다. 그러나 HMI 관점에서 또 다른 문제가 발생합니다. 터치 기반 인터페이스는 공간 효율은 높지만, 시각적 탐색과 조작을 요구하기 때문에 인지 부하를 증가시킬 수 있습니다. 특히 주행 중에는 시선 분산과 조작 시간 증가가 사고 위험과 연결될 수 있습니다.
따라서 중요한 질문이 남습니다.
운전 중에 이 많은 정보를 안전하게 파악할 수 있을까?
모든 사용자가 동일한 인터페이스를 써야 할까?
개인화는 안전성과 충돌하지 않을까?
음성, 제스처, 시선 추적 인터페이스는 실제로 인지 부하를 줄일 수 있을까?
멀티모달 인터랙션 설계와 인지 자원 관리까지 고려해야 하죠.
AI가 탑재된 차량은 단순한 기계가 아니라 판단을 수행하는 행위자처럼 작동합니다. 이때 UX의 역할은 더 이상 기능을 배열하는 것이 아니라, 인간과 기계 사이의 역할 분담을 설계하는 것입니다.
언제 시스템이 주도권을 갖는가?
언제 인간이 개입해야 하는가?
그 전환은 얼마나 자연스러운가?
사용자는 시스템의 한계를 이해하고 있는가?
이 질문들은 기술의 발전과 함께 더 중요해집니다. 기술이 정교해질수록 인간은 더 멀어지기 쉽고, 멀어질수록 상황 인지는 떨어집니다. 하지만 UXer가 설계해야 할 대상은 여전히 사람입니다. 자율주행 시대의 모빌리티 UX는 ‘버튼을 어디에 둘 것인가’가 아니라, ‘사람은 이 안에서 어떤 존재가 되는가’를 묻는 일입니다.
운전자인가, 감독자인가, 승객인가, 혹은 동승자인가.
자동차 UX는 지금, 인간과 기술 사이의 역할 재정의를 요구받고 있습니다. 그리고 그 질문에 답하는 것이 UXer의 영역입니다.
참고 문헌
Giraldi, L. (2020). The future of user experience design in the interior of autonomous car driven by AI (pp. 46–51). In Proceedings from Design, User Experience, and Usability: UX Research and Design (Vol. 8). Springer.
Shi, E., & Frey, A. T. (2021). Non-driving-related tasks during level 3 automated driving phases: Measuring what users will be likely to do. Technology, Mind, and Behavior, 2(1).
Schneider, S., Hois, J., Rosenstein, L., Meschtscherjakov, A., & Tscheligi, M. (2021). ExplAIn yourself! Transparency for positive UX in autonomous driving. In Extended Abstracts of the 2021 CHI Conference on Human Factors in Computing Systems (CHI EA ’21). ACM.
S. Atakishiyev, M. Salameh and R. Goebel, "Incorporating Explanations into Human-Machine Interfaces for Trust and Situation Awareness in Autonomous Vehicles," 2024 IEEE Intelligent Vehicles Symposium (IV), Jeju Island, Korea, Republic of, 2024, pp. 2948-2955.
Grobelna, I., Mailland, D., & Horwat, M. (2025). Design of Automotive HMI: New Challenges in Enhancing User Experience, Safety, and Security. Applied Sciences, 15(10), 5572.
Ma, J., & Feng, X. (2024). Analysing the Effects of Scenario‑Based Explanations on Automated Vehicle HMIs from Objective and Subjective Perspectives. Sustainability, 16(1), 63.
You, F., Yan, X., Zhang, J., & Cui, W. (2022). Design Factors of Shared Situation Awareness Interface in Human–Machine Co‑Driving. Information, 13(9), 437.