NVIDIA, 알파마요 모델 공개와 Lemonade, FSD 보험
2026년 1월, 자율주행 업계에서 결이 다른 두 뉴스가 같은 방향을 가리켰다. NVIDIA는 체인-오브-쏘트(CoT) 추론 기반의 자율주행 모델 Alpamayo를 공개하며 "설명 가능한 자율주행"을 내세웠다(Nvidia launches Alpamayo, open AI models that allow autonomous vehicles to ‘think like a human’, TechCrunch). 같은 주, 보험사 레모네이드는 테슬라 FSD가 켜진 구간에 한해 마일당 보험료를 약 50% 낮추는 상품을 출시했다(Lemonade launches an insurance product for Tesla Full Self-Driving customers, TechCrunch).
하나는 모델 발표, 하나는 보험 상품이다. 그런데 둘이 겨누는 지점은 같다. 자율주행의 다음 국면은 "얼마나 잘 달리느냐"가 아니라 "누가 실행했고, 그 결과를 누가 책임지느냐"라는 것이다.
보험은 이를 가격으로 번역했고, NVIDIA는 모델 설계의 중심 화두로 끌어올렸다. 자율주행은 이제 엔진 경쟁이 아니라, 책임의 운영체제(Responsibility OS) 경쟁으로 이동 중이다.
인간 운전의 장점은 의외로 기술이 아니라 사회적 단순성에 있다. "운전했다"는 행위의 주체가 명료하다. 사고가 나면 법과 보험은 운전자라는 고정된 주체를 중심으로 책임을 배치한다.
자율주행은 이 단일 주체를 해체한다. 실행이 여러 층위로 나뉜다.
설계/학습: 어떤 데이터와 목적함수로 모델이 만들어졌는가
정책/배포: 어떤 업데이트와 규칙이 적용되었는가
운용/감독: 운전자는 언제 개입해야 했고 실제로 했는가
관측/기록: 무엇이 기록되었고 무엇이 누락되었는가
사후/보상: 사고 후 어떤 절차로 원인이 규정되고 손실이 배분되는가
여기서 중요한 포인트는 "책임이 사라진다"가 아니다. 책임은 사라지지 않는다. 다만 분해되고, 사건마다 다른 방식으로 재조립된다. 오늘은 운전자 책임, 내일은 소프트웨어 책임, 모레는 운영 조건 책임. 사용자는 위임했다고 생각하지만, 책임의 귀속은 위임만큼 깔끔하게 이동하지 않는다.
이 엇갈림이 자율주행의 사회적 난제를 만든다.
자율주행에서 책임은 이런 패턴으로 움직인다.
성공할 때: "AI가 안전하다"는 칭찬이 시스템으로 모인다.
문제가 생길 때: 책임은 다시 인간, 기업, 규제로 흩어진다.
분쟁이 커질 때: "누가 통제할 수 있었는가"가 중심 질문이 된다.
레모네이드의 보험 상품이 보여주는 것이 바로 이 진동이다. 이 상품은 "차량" 단위가 아니라 "주행 구간" 단위로 위험을 나눈다. 같은 사람이 같은 차를 타더라도, FSD가 켜진 구간과 꺼진 구간의 위험을 다르게 매긴다. 보험이 이렇게 움직인다는 것은, 자율주행의 다음 전장이 기술 데모가 아니라 귀속(attribution)이라는 뜻이다. "방금 그 조향과 제동은 누가 했는가?"를 회계적으로 분리할 수 있어야 책임도, 가격도, 제도도 성립한다.
그런데 테슬라 FSD는 여전히 '감독형'이다. 운전자의 주시와 개입이 필요하다. '자율주행 구간'이라는 라벨이 곧바로 '책임 이동'을 보장하지는 않는다. 할인은 시스템이 책임을 가져간다는 증거가 아니라, 책임을 나누는 실험의 시작일 뿐이다.
보험사는 기술을 믿는 산업이 아니다. 보험은 "진실"을 판정하기보다 손실을 누가 떠안을지 구조화하는 산업이다. 그래서 보험이 자율주행에 들어오면 논쟁의 중심이 바뀐다.
"정말 안전한가?"(기술 질문)
→ "사고가 나면 누가 얼마를 내는가?"(제도 질문)
레모네이드가 테슬라와 협력해 FSD 활성화 여부, 소프트웨어 버전, 센서 정밀도까지 위험 산정에 쓰겠다고 한 것은 이 맥락이다. 보험은 책임의 경계를 '데이터로 측정 가능한 지점'에 맞춰 재설계하려 한다. 보험이 원하는 것은 설득력 있는 설명이 아니라 분쟁에서 작동하는 증거다.
여기서 역설이 생긴다. 자율주행이 발전할수록 인간은 덜 개입한다. 그러나 인간의 개입이 줄어들수록, 사고가 나면 사람들은 더 강하게 묻는다. "그럼 누가 책임지나?" 기술은 주체를 흐리게 만들고, 사회는 주체를 더 강하게 요구한다.
NVIDIA가 Alpamayo를 "체인-오브-쏘트 추론 기반"으로 소개하며 설명 가능성을 강조한 것은 단순한 마케팅이 아니다. 여기서 흔한 오해가 있다. "설명을 잘하면 안전해진다"는 생각이다. 그러나 설명은 안전 그 자체가 아니다.
설명가능성은 자율주행이 사회 시스템에 진입하기 위한 책임 인프라에 가깝다. "왜 그렇게 했는가"는 인간을 설득하기 위한 수사가 아니라 다음과 같은 실무적 요구와 직결된다.
사고 후 원인 규명
재현 가능한 검증(시뮬레이션, 리플레이)
규제기관 제출용 안전 케이스
보험 클레임과 소송에서의 책임 귀속
CoT의 핵심은 "말이 그럴듯하다"가 아니라 "사후에 검증 가능한 형태로 의사결정 과정을 남길 수 있다"는 데 있다. 자율주행이 에이전트로서 실행을 맡는 순간, 그 실행은 단지 행위가 아니라 법적·경제적 효과를 발생시키는 사건이 된다. 그때 필요한 것은 성능 그래프가 아니라, 사건을 다룰 수 있는 기록과 근거다.
그렇다면 이 책임 인프라는 누구를 위한 것인가?
감독형 자율주행의 가장 난감한 문제는 "운전자"의 의미가 바뀐다는 점이다. 운전자는 점점 운전하지 않고, 대신 시스템의 실행을 "승인"하는 존재가 된다. 그런데 승인이라는 행위가 정당성을 갖추려면 두 가지 조건이 필요하다.
통제권이 실질적으로 존재할 것: 개입할 수 있어야 한다.
이해 가능성이 제공될 것: 무엇을 승인하는지 알아야 한다.
문제는 자율주행이 고도화될수록 운전자가 시스템의 판단을 실시간으로 이해하기 어려워진다는 점이다. 시스템이 0.3초 만에 내린 판단을 인간이 실시간으로 검토하고 승인한다는 것은 허구에 가깝다. 그럼에도 사고가 나면 책임은 "감독 의무"라는 이름으로 운전자에게 되돌아오기 쉽다.
이는 책임의 비대칭을 만든다. 권한(이해와 통제)은 약한데 책임만 강해지는 구조다. 이 비대칭을 줄이려면, 시스템은 승인을 요구하는 만큼 승인을 정당화하는 정보를 함께 제공해야 한다. 인간이 모든 판단을 실시간으로 이해할 필요는 없다. 하지만 적어도 사후에 이해하고 검증할 수 있어야 책임 배분이 성립한다.
설명가능성이 제도적 증거로 기능하는 동시에, 사용자의 승인을 정당화하는 장치로도 기능해야 하는 이유다.
자율주행의 승부처를 "인지-판단-제어"로만 놓으면 논쟁이 끝나지 않는다. 실제 사회 도입에서 결정적인 것은 사후 처리다.
사고 시 누가 무엇을 제출하는가 (로그, 버전, 정책)
누가 어떤 기준으로 원인을 규정하는가
누가 어떤 속도로 보상하는가
업데이트는 어떤 절차로 배포되는가
재발 방지는 어떻게 검증되는가
여기서 아직 해결되지 않은 문제가 있다. 예를 들어, 사고 후 소프트웨어가 업데이트되면 책임은 어떻게 소급되는가? 사고 당시 버전과 현재 버전이 다르면, 원인 규명은 어느 버전을 기준으로 하는가? OTA(무선 업데이트)가 일상화된 자율주행에서, 버전 관리와 책임 귀속의 관계는 아직 제도적으로 정리되지 않았다.
레모네이드가 텔레메트리 기반으로 위험을 산정하겠다는 것은 보험이 이 사후 처리 구조를 선점하려는 움직임이다. NVIDIA가 CoT를 설명가능성과 결합해 말하는 것은 모델이 "행동을 잘 생성"하는 수준을 넘어 "조사·규제·보험이 요구하는 증거"를 함께 생성해야 한다는 방향이다.
자율주행은 "사고를 0으로" 만들지 못한다. 대신 사회는 자율주행에게 요구한다. 사고가 났을 때 책임을 처리할 수 있는 시스템이 되어 달라고.
두 뉴스는 같은 결론을 가리킨다.
레모네이드의 'FSD 구간 보험료 할인'은 자율주행이 더 안전하다는 최종 판정이 아니다. 자율주행이 사회로 들어오면서 보험이 책임을 구간 단위로 분해해 가격을 붙이는 실험을 시작했다는 신호다. NVIDIA의 CoT 자율주행 모델은 설계가 "더 잘 달리기"만으로는 부족하고, 감사 가능성과 근거 생산이라는 책임 인프라를 포함해야 한다는 방향을 정식 의제로 올린다.
결국 경쟁은 "누가 더 빠른 차를 만드느냐"가 아니라 "누가 더 신뢰할 수 있는 책임 OS를 구축하느냐"다.
자율주행은 도로 위의 AI가 아니다. 사회가 책임을 배분하는 방식을 다시 쓰는 실험이다. 그리고 그 실험에서 살아남는 것은 "나는 운전할 수 있다"를 증명하는 시스템이 아니라, "내가 운전한 결과를 책임질 수 있다"를 증명하는 시스템이다.