Android 기반 차량 플랫폼 내 ‘두뇌’는 어디에, 어떻게 올라갈까?
앞선 글에서 Android Automotive OS(AAOS)가 왜 SDV 시대의 중요한 플랫폼 후보가 되고 있는지 조명해 보았습니다.
차량이 더 이상 고정된 제품이 아니라, 지속적으로 업데이트되고 확장되는 시스템이 되면서, 안정적인 운영체계(OS)의 중요성이 커졌고 그 대안 중 하나로 Android 기반 구조가 부상하고 있다는 이야기였죠.
그렇다면 이제 자연스럽게 다음 질문이 이어집니다.
"플랫폼은 준비되었다면, 그 위에 자율주행과 AI라는 ‘두뇌’는 어떻게 올라가는 걸까?"
많은 분들이 이렇게 생각하실 수 있습니다.
“자율주행도 소프트웨어니까 Android 위에서 그냥 같이 도는 거 아닌가요?”
실제로는 그렇게 단순하지 않습니다.
자율주행과 AI는 차량 소프트웨어 중에서도 가장 계산량이 크고, 가장 안전과 직결되며, 가장 실시간성이 중요한 영역이기 때문입니다. 그래서 AAOS 위에 이 기능들을 얹는 구조는 생각보다 정교하게 나뉘어 설계됩니다.
1. 자동차 안에는 이미 ‘두 개의 세계’가 존재합니다.
차량 소프트웨어 구조를 이해하기 위해 먼저 한 가지를 떠올려 보시면 좋겠습니다.
자동차 안에는 사실상 두 개의 서로 다른 세계가 공존합니다.
첫 번째는,
운전자와 직접 만나는 세계입니다.
디스플레이 화면, 내비게이션, 음악, 음성비서, 차량 설정 화면 등이 여기에 속합니다. 이 영역은 사용성, 디자인, 연결성, 업데이트 편의성이 중요합니다.
두 번째는,
차를 실제로 움직이고 판단하는 세계입니다.
센서를 읽고, 주변을 인식하고, 경로를 계획하고, 제어 명령을 내리는 영역입니다. 자율주행, ADAS, 차량 제어 알고리즘이 여기에 포함됩니다. 이 영역은 실시간성, 안정성, 안전 규격 준수가 절대적으로 중요합니다.
AAOS는 주로 첫 번째 세계, 즉 사용자 경험과 서비스 중심의 영역을 담당합니다. 반면 자율주행과 핵심 AI 판단 로직은 두 번째 세계, 즉 안전·실시간 중심 영역에서 동작하죠.
그래서 자율주행/AI 소프트웨어 구조는
“AAOS 위에 그대로 얹는다”기보다는,
AAOS와 나란히 존재하면서 긴밀히 연결되는 구조에 가깝습니다.
2. 차량 컴퓨팅(HPC)은 하나지만, 소프트웨어는 층으로 나뉩니다.
요즘 차량에는 HPC(High Performance Computer)라 불리는 고성능 컴퓨팅 유닛이 들어갑니다. 겉으로 보면 하나의 강력한 컴퓨터처럼 보이지만, 그 안에서는 소프트웨어가 여러 층으로 나뉘어 동작합니다.
아래쪽에는 하드웨어를 직접 다루는 저수준 영역이 있습니다. 운영체제 커널, 드라이버, 하이퍼바이저 같은 구성 요소가 여기에 해당합니다.
그 위에는 두 개의 큰 소프트웨어 영역이 나뉘어 올라갑니다. 한쪽은 AAOS 기반 영역입니다. 여기에는 차량 UI, 인포테인먼트, 앱, 음성 인터페이스, 클라우드 연동 서비스 등이 올라갑니다. 이 영역은 비교적 유연하고, 업데이트 주기가 빠르며, 사용자 경험 중심으로 발전합니다.
다른 한쪽은 자율주행/AI 영역입니다.
카메라, 레이더, 라이다 데이터를 처리하고, 객체를 인식하고, 주행 경로를 계획하며, 제어 명령을 생성하는 소프트웨어가 여기에 속합니다. 이 영역은 안전 규격을 충족해야 하고, 지연이 거의 허용되지 않으며, 예측 가능한 동작이 중요합니다.
이 두 영역은 같은 HPC 안에 있지만, 소프트웨어적으로는 격리되어 있으면서도 연결된 구조를 이룹니다.
3. AAOS는 ‘보여주는 두뇌’, 자율주행 스택은 ‘판단하는 두뇌’
비유를 하나 들어볼까요?
AAOS가 담당하는 영역은 운전자와 대화하는 ‘겉으로 드러난 두뇌’에 가깝습니다.
운전자에게 상황을 설명하고 경로를 시각화해 보여주고 음성으로 안내하고 차량 설정을 조정하게 해 줍니다
반면 자율주행/AI 스택은 차량 내부에서 조용히 계산하는 ‘숨겨진 두뇌’입니다.
앞차의 속도를 예측하고 보행자의 움직임을 추정하고, 차선을 인식하고 다음 몇 초간의 주행 경로를 계획합니다
AAOS는 이 판단 결과를 사용자에게 전달하는 창구 역할을 합니다. 예를 들어 자율주행 시스템이 “전방 공사 구간으로 차선을 변경해야 한다”라고 판단하면, 그 정보는 AAOS 영역을 통해 디스플레이에 시각화되고 음성 안내로 전달됩니다.
즉 AAOS와 자율주행 스택은 위아래 관계라기보다, 판단 영역과 표현 영역의 협업 구조라고 보는 편이 더 정확합니다.
4. 안전과 격리: 왜 자율주행은 AAOS와 분리되어야 할까요?
여기서 중요한 질문이 하나 나옵니다.
“같은 컴퓨터 안에 있는데, 왜 굳이 나눠야 할까?”
이유는 명확합니다. 안전 때문입니다.
AAOS 영역에서는 앱이 추가되고, UI가 바뀌고, 기능이 빠르게 업데이트됩니다. 이런 유연성은 사용자 경험 측면에서는 장점이지만, 자율주행 영역에는 그대로 적용하기 어렵습니다. 자율주행 소프트웨어는 작은 변화도 철저한 검증과 시험을 거쳐야 하기 때문입니다.
그래서 실제 시스템에서는 하이퍼바이저나 컨테이너 기술 등을 활용해 두 영역을 논리적으로 분리합니다. AAOS 쪽에서 문제가 생기더라도, 자율주행 제어 영역에는 직접적인 영향을 주지 않도록 설계합니다.
이 구조 덕분에 차량은 한쪽에서는 유연하게 서비스와 UI를 업데이트하면서도, 다른 한쪽에서는 안정적인 자율주행 기능을 유지할 수 있습니다.
5. AI는 어디에서 도는지? AAOS 안이 아니라 ‘AI 런타임 영역’입니다
많은 분들이 생성형 AI나 음성 AI가 AAOS 앱처럼 돌아간다고 생각합니다. 일부는 맞지만, 핵심 AI 연산은 보통 별도의 AI 런타임 영역에서 동작합니다.
예를 들어
- 운전자와 대화하는 음성 AI
- 운전자 상태를 분석하는 인캐빈 AI
- 주변 상황을 예측하는 자율주행 AI
이런 기능들은 대규모 신경망 연산을 필요로 합니다. 그래서 NPU나 GPU를 활용하는 AI 전용 런타임이 별도로 구성되고, AAOS는 그 결과를 받아 사용자 인터페이스로 전달하는 역할을 합니다.
즉 AAOS는 AI를 ‘직접 계산하는 곳’이라기보다, AI 결과를 사용자 경험으로 바꿔주는 중간 허브에 가깝습니다.
6. 이 구조가 의미하는 것: 차량은 ‘계층화된 지능 시스템’이 됩니다
정리해 보면, AAOS 위에 자율주행/AI가 얹히는 구조는 단순한 수직 구조가 아닙니다.
하나의 차량 안에,
- 사용자 경험을 담당하는 계층
- AI 판단을 담당하는 계층
- 안전과 제어를 담당하는 계층
이 나뉘어 있으면서, 서로 데이터를 주고받는 형태입니다.
이 구조 덕분에 차량은 점점 계층화된 지능 시스템이 됩니다. 위쪽에서는 사용자와 자연스럽게 상호작용하고, 아래쪽에서는 복잡한 환경을 실시간으로 이해하며 판단합니다.
AAOS 위에 자율주행/AI 소프트웨어가 얹힌다는 말은, Android가 자율주행을 직접 담당한다는 뜻이 아닙니다. 오히려 Android는 자율주행이라는 거대한 지능 시스템을 사람에게 이해시키고, 연결해 주는 플랫폼 역할을 합니다.
그리고 이 구조는 앞으로 더욱 중요해질 가능성이 큽니다. 자율주행과 AI가 고도화될수록, 그것을 어떻게 사용자 경험으로 풀어낼지가 차량 경쟁력을 좌우하기 때문입니다.
다음 글에서는 자율주행과 AI를 어떻게 고도화할지, 전략 및 방안에 대해 생각을 공유드려보고자 합니다.