UW Graduate Design Thesis 2020–2021
이 포스트는 '자율주행 자동차 시대에 대비한 새로운 인터페이스 디자인'을 주제로 한 디자인 논문 시리즈의 일부입니다.
안녕하세요! 저는 University of Washington, Seattle에서 디자인 석사를 공부하고 있는 이솔지입니다. 산업디자인을 전공했고, 현재는 시애틀에서 UX designer로 일하고 있습니다.
지난 포스트에서 무엇이 자율주행 자동차에서 치명적인 사고를 일으키는지 말했다. 한 마디로 정리하자면 인간과 기계와의 인지적 차이와 그로 인한 의사소통 실패가 사고의 원인이다. 오늘은 두 개체 간의 입장을 더 자세히 정리해보고자 한다.
먼저 기계 운전자와 인간 운전자가 도로 위에서 의사 결정을 하는 과정은 그리 다르지 않다. OODA(Observe-Orient-Decide-Act)라고 불리는 이 제어 루프(control loop)는 제어를 위한 순환적 과정을 보여주며, 미 공군에 의해 처음 고안되었다.
이 '관찰-적응-결정-행동'의 제어 루프를 자동차를 운전하는 운전자에 대입해보면 눈으로 보고 머리로 상황을 적용하고 판단하며, 손과 발로 차를 운전한다. 이 제어 루프 속에서 이제껏 인간은 모든 행동을 직접 했다. 다시 말해, 루프 속에 있었다. (in-the-loop). 하지만 자율주행 시스템의 상용화에 따라 이제 인간은 루프 밖에서 감독자의 역할을 하고(on-the-loop), 기계가 이 제어 루프를 인간 대신 수행하게 됐다. 또한 기계의 제어 루프는 아래 표와 같이 인간보다는 조금 더 복잡한 가지들을 가진다. 1. 여러 센서로 주변을 살피고 2. 차량 내 소형 컴퓨터와 클라우드로 현재 상황에 자신을 현지화시키고, 3. 그를 기반으로 다음 행동의 판단을 내리고 4. 차량을 움직인다.
자율주행차는 인간과 같은 시각정보를 얻기 위해 크게 세 가지의 센서를 사용한다. 카메라, Radar, 그리고 Lidar. (테슬라의 경우에는 LiDAR 센서를 빼고 카메라와 Radar만으로 깊이와 거리를 측정하는 기술을 선택했다.) 그리고 추가적으로 GPS 같은 위치 정보 시스템을 이용해 기존에 맵핑된 신호체계, 공사 구간 등에 대한 도움을 받는다. 세 가지 센서를 조합하는 이유는 아래 표와 그림과 같이 각 센서가 가시범위, 해상도 등 다른 특징을 가지고 있기 때문이다.
하지만 여전히 자율주행차가 인간과 같은 수준의 시각정보를 얻는 데는 한계가 있다. 센서들이 날씨나 외부요인에 의해 영향을 받아 부정확한 정보를 받아들이기도 하고, 이 모든 정보를 조합하고 정리하는데 아직까지는 인간만큼 일괄적이고 빠른 속도로 처리할 수 없다.
기계와 인간의 인지적 능력 차이에 더해 불안전한 자율주행을 유발하는 또 다른 요인은 두 객체 간 의사소통 실패이다.
운전자에게 제공할 정보
위에서 언급했듯이 자율주행 기술의 발전으로 이제 인간의 역할은 실제 운전자가 아닌 감독자에 가까워졌다. 루프 안에서 위에 있게 된 것이다. 다시 말해, 우리가 운전 중에 필요한 정보들 또한 달라졌다. 차량 내부에는 속도계, 사이드미러, 교통정보 등 운전을 위해 필요한 정보들이 아닌, 기계 운전자의 운행능력을 평가하는 지표가 더욱 중요하다.
테슬라에서 올해 새롭게 업데이트한 완전 자율주행 베타 버전 인터페이스에 대한 이용자들의 반응이 그 예이다. 오른쪽 그림은 운전자를 위한 화면이라기보다는 기술 개발자가 보는 날 것 그대로의 화면에 가깝다. 디자이너의 관점으로 봤을 때는 전혀 아름답거나 직관적이라고 말할 수 없는 디자인이다. 하지만 테슬라 유저들의 반응은 긍정적이었다. 왜냐하면 이 화면을 통해 운전자들은 자동차가 현재 주변 상황정보를 어떻게 받아들이고 어떤 행동을 취하려 하는지 실시간으로 판단할 수 있었기 때문이다. 그에 따라 감독자로서의 인간 운전자는 잘못된 기계의 판단에 빠르게 대처할 수 있었다.
운전자와 소통하는 매체
전달할 정보 못지않게 중요한 것이 소통 방식이다. 기술의 발전에 따라 물리적 키, 버튼뿐만 아니라 핸드폰, 손 제스처, 목소리 등으로도 자동차와의 의사소통이 가능해졌다. 하지만, 아직까지 어떤 인터페이스가 가장 효과적인지에 대한 연구는 더 필요하다.
또한, 더 근본적인 문제가 있다. 자율주행 차에 관심 있는 사람이라면 '자율주행모드/ 오토 파일럿'이라는 단어가 이슈가 된 것을 알 것이다. 이러한 용어에서 운전자가 기대하는 자율주행 수준은 내가 주의를 기울이지 않고 이메일 확인, 전화 통화 등 사소한 볼일을 보는 동안 자동차가 내 대신 운전을 이어가는 것이다. 하지만 실제 자율주행 모드를 사용해 본 운전자라면 모든 사고에 대한 책임은 운전자에게 있다는 책임 전가 메시지를 보았을 것이다. 즉, 현재 자율주행은 그 단어가 전달하는 의미와 달리 주행 보조 시스템의 수준이다.
아래 자율주행 레벨 표를 참고하자면, 레벨 0은 인간 운전자가 어떤 도움 없이 모든 운전을 소화하는 수준. 레벨 5는 운전석이 필요 없을 정도로 완전히 자율화된 수준이다. 현재 테슬라, BMW, 현대 등 상용화된 자율주행 모드를 탑재한 차들은 레벨 1-2 수준이다. 여전히 운전자의 전방 주시와 함께 핸들 위에 손을 올려 둘 것을 권고하기 때문이다. 하지만 우리가 자율주행 모드는 실행할 때 기대하는 수준은 최소 레벨 4이다. 우리가 OODA 제어 루프에서 완전히 벗어났다는 사실과는 다른 기대가 운전자가 감독자로서의 업무를 소홀하게 만들고 자율주행 차 사고가 발생한다.
인간과 자동차의 운전을 정리하자면 오른쪽 표와 같다. 두 객체의 기본적인 차량 운전 방식은 OODA 루프를 따르고 동일하다. 하지만 각 행위를 수행하는 과정은 기계가 훨씬 복잡하다.
특히 관찰/시각에 대해서는 아직 많은 논란이 있다. 인간은 오랜 시간의 학습을 통해 순간적인 상황에 대한 판단과 행동을 (눈-뇌-손/발) 5초 안에 결정한다. 하지만 기계는 같은 시각 정보를 얻기 위해 여러 경로를 통한 다각도의 분석을 필요로 할뿐더러, 이 과정이 아직 충분히 학습되지 않아 오류와 딜레이가 있다.
또 하나의 이슈는 달라진 인간의 차 안에서의 역할을 어떻게 보여줄 것인가이다. 이제 자율주행 기술의 발달과 함께, 완전 자율 자동차 상용화 이전까지 인간 운전자는 운전의 주체가 아닌 루프 밖 감독자로서 역할을 수행하게 될 것이다. 하지만 우리는 완전 자율 자동차에 너무 열광하여 그 중간 다리에 대한 고민을 소홀히 하고 있다. 감독자로서의 인간에게 필요한 정보와 인터페이스 매체를 찾는 연구가 더 필요하다.
아직 배우는 과정이고, 많이 부족한 글이지만 읽어주셔서 감사합니다. 더 많은 이야기를 나누고 싶거나 비슷한 분야의 전문가를 아신다면 연락 부탁드립니다! soljilee@uw.edu (이솔지)
참고문헌:
Dickey Singh's essays-VISUAL PERCEPTION, IN HUMANS, ANIMALS, MACHINES, AND AUTONOMOUS VEHICLES
Tulga Ersal et al.,2019-Connected and automated road vehicles: state of the art and future challenges
DRIVE Labs: How We’re Building Path Perception for Autonomous Vehicles- https://blogs.nvidia.com/blog/2019/04/30/drive-labs-path-perception/