2주 전인 지난 12월 20일 토요일 저녁, 샌프란시스코에 대규모 정전사태가 있었습니다. 변전소 화재로 시 전체 가구의 30%인 13만 가구가 암흑에 잠겼고 도심의 생명선인 신호등마저 일제히 작동을 멈췄습니다. 이 암흑의 도로에서 두 자율주행차의 명암이 극명하게 나뉘었습니다. 그 혼돈의 현장에서, 구글의 자회사인 알파벳에서 만든 자율주행택시인 웨이모(Waymo)와 일론 머스크의 자율주행차인 테슬라(Tesla)는 전혀 다른 생존 전략을 노출했습니다.
웨이모는 멈춰 섰고, 테슬라는 움직였습니다. (Waymo froze, Tesla drove)
어떤 자율주행차가 더 상황 대처를 잘한 것일까요?
웨이모는 초정밀 지도를 기반으로 도시의 모든 지형지물을 사전에 파악하고, 신호등이라는 사회적 약속을 절대적인 규칙으로 받아들입니다. 이는 극도의 안전을 지향하는 방식입니다. 하지만 정전으로 신호등이 꺼지자, 웨이모는 '확신할 수 없는 상태'에 빠졌습니다. 규칙이 사라진 교차로에서 시스템이 택한 최선의 대안은 '정지(Fail-safe)'였습니다.
개별 차량의 입장에서는 사고를 방지하기 위한 가장 안전하고 합리적인 선택이었을 것입니다. 그러나 이 보수적인 판단은 집단적 재앙을 초래했습니다. 수많은 무인 택시들이 도로 한복판에 멈춰 서면서, 도로를 막는 '바리케이드'가 되어버린 것입니다. 이는 구조화된 데이터와 규칙에만 의존하는 AI가 겪는 전형적인 '예외 상황(Edge Case)'의 한계입니다. 질서가 존재하는 환경에서는 압도적인 신뢰를 주지만, 질서 자체가 붕괴했을 때 시스템 전체가 마비되는 '인프라 리스크'를 드러낸 셈입니다.
반면, 테슬라는 전혀 다른 길을 걸었습니다. 일론 머스크가 호언장담했듯, 테슬라는 정전 상황에서도 주행을 지속했습니다. 테슬라의 완전자율주행(FSD ; Full Self-Driving)시스템은 정교한 규칙보다는 수많은 주행 데이터를 통째로 학습시킨 신경망(Neural Network) 방식입니다. 테슬라의 AI는 신호등이 꺼진 혼란스러운 상황조차 이미 수많은 데이터 속에서 경험한 '현실의 일부'로 받아들입니다. 규칙이 없어도 주변 차량의 흐름과 보행자의 움직임을 시각 정보로 파악해 유연하게 대처합니다.
하지만 여기에는 중요한 전제가 하나 있습니다.
웨이모 운전석에는 사람이 앉지 않는 완전자율주행 택시인 반면, 현재 테슬라의 시스템은 완전자율주행차이긴 하지만 운전석에 사람이 앉아 있어야 하는 '감독형(Supervised)'이라는 점입니다.
운전석에 앉은 사람이 시스템의 불완전성을 보완하고 최종 책임을 지기에 가능한 과감함으로, 암흑의 도로에서도 안전하게 운행이 가능했던 것입니다.
테슬라가 보여준 적응력은 놀랍지만, 그것이 완전한 무인 상태에서도 동일한 안전성을 보장할지는 여전히 물음표로 남습니다. 규칙을 어기는 '유연성'과 사고를 유발하는 '무모함' 사이의 경계가 모호하기 때문입니다.
샌프란시스코 정전 사태로 인하여 우리는 "진정한 자율주행 지능이란 무엇인가?"를 되묻게 됩니다. 단순히 규칙을 잘 지키는 것이 지능일까요? 아니면 규칙이 없는 곳에서 새로운 질서를 만들어내며 나아가는 것이 지능일까요? 웨이모의 멈춤은 사회적 책임의 문제로 귀결되었고, 테슬라의 주행은 기술적 자신감과 인간 의존성이라는 양면성을 보여주었습니다.
자율주행 기술은 이제 '극한의 상황에서 어떻게 행동할 것인가'라는 윤리적, 기술적 시험대에 올라 있습니다. 안전을 위해 멈춰 서서 도시를 마비시킬 것인가, 아니면 위험을 감수하고서라도 흐름을 이어갈 것인가.
앞으로의 AI는 '안전하게 멈추되 도로를 막지 않는 법'을 배워야 할 것입니다. 즉, 개별의 안전(Self-safety)을 넘어 전체 시스템의 안전(Systemic safety)을 고려하는 사회적 지능이 필요한 시점입니다.
기술은 결국 인간의 삶을 이롭게 하기 위해 존재하며, 그 완성은 공학적 수치가 아니라 '신뢰할 수 있는 공존'에서 이루어져야 한다는 명제가 되어야 함을 의미한다고 할 수 있습니다.