brunch

You can make anything
by writing

C.S.Lewis

by 현대캐피탈 May 11. 2022

AI가 판단하는 교통사고 '몇 대 몇'

인공지능을 이용한 교통사고 분석 시스템

교통사고가 발생하면 누구의 과실인지, 피해자와 가해자의 과실이 어느 정도인지 과실비율을 가려야 한다. 불과 10년 전 블랙박스, CCTV 등과 같은 사고 현장을 정확하게 판단할 자료가 부족하던 때는 ‘목소리 큰 사람이 이긴다’는 말이 있을 정도였다. 도로 한복판에서 운전자는 물론 동승자까지 합세하여 차량 흐름을 방해하며 다투는 모습을 자주 보았을 것이다. 도로나 차량에 남아있는 사고 증거를 충분히 확보하기 어려울 때는 올바른 과실비율 산정이 힘들기 때문이다. 최근 들어 블랙박스, CCTV는 물론 과실비율 산정 기법도 발전해 사고 현장에서 다투는 모습은 많이 줄었지만, 아직도 과실비율을 줄이기 위해 억지를 부리는 가해자도 종종 볼 수 있다. 그렇다면 이를 AI(인공지능)가 판단한다면 모두가 인정할 수 있을까?




#1. 교통사고는 줄었지만 과실비율 산정 분쟁은 늘었다?



과실비율 산정은 '과실비율 산정 원칙'에 따라 '과실의 산정 요인'을 살펴 경찰, 보험사에서 판정한다. 결과에 이의가 있어 분쟁이 생기면 심의를 하고 법원까지 가기도 한다. 2021년 자동차 사고는 370만 건으로 감소 추세지만 당사자 간 과실비율 분쟁은 빠르게 증가하고 있다. 지난달 20일 손해보험협회에 따르면 지난해 자동차 사고 과실비율 분쟁심의위원회가 접수한 심의 청구는 11만 3,804건으로 2020년 대비 9.3% 증가했다. 4년 전 2017년과 비교하면 증가율이 85.3%에 달했지만 보험사에 보고된 자동차 사고 발생량에는 큰 변화가 없다고 한다.


과실비율 분쟁이 증가하는 이유는 운전자들이 앱이나 인터넷에서 관련 정보를 쉽게 접할 수 있기 때문이라고 손해보험업계는 분석하고 있다. 도로 한복판에서 목소리 높여 다투는 일은 줄었지만, 보험사 보상직원이 판정한 과실비율에 승복하지 않는 비율은 오히려 높아졌다는 말이다. 가해자와 피해자 구분은 일반적으로 사고 현장에 출동한 조사 담당 경찰관이 결정한다. 과학적 분석이 필요하면 국립과학수사연구소 등 관련 기관에 의뢰해 가해자를 가려내기도 하며 소송이 제기됐을 때는 법원이 가해자와 피해자를 판단한다.


경찰의 조사 내용과 결과를 바탕으로 손해보험사 보상직원이 과실비율을 정한다. 과실비율은 100을 기준으로 60 대 40, 70 대 30, 80 대 20등으로 산출된다. 과실비율이 '50'을 넘는다면 가해자가 된다. 경찰이 출동하지 않았을 때는 각자 가입한 보험사의 보상직원들이 자동차보험 약관의 부속서류 '자동차 사고 과실비율 인정기준'에 따라 과실의 많고 적음을 따진다.




#2. AI가 교통사고 과실비율을 산정한다면?



현재는 모두 사람이 과실 산정비율을 정하고 있지만 AI가 이를 대신할 수 있을까? 사람보다 정확하게 측정할 수 있을까? 필자가 판단하기에는 과실비율 산정은 사람보다 빨리할 수 있지만 정확도는 아직 의문이다. AI 과실비율 산정 품질은 교통사고 현장 정보를 얼마나 정확하게 입력하는가에 달려있다. 수집한 데이터를 판단할 법, 규정, 판례 등에 따라 분석, 산정하는 프로그램을 정교한 알고리즘을 통해 구성해야 하며 딥러닝의 고도화를 바탕으로 산정 품질을 높여야 한다. 


현재 손해보험협회가 제공하는 '과실비율 정보 포털'을 보면 AI 과실 산정 현주소를 알 수 있다. '나의 과실비율 키워드 검색'을 클릭하면 여러 유형의 사고 상황 예시와 기본 과실에 검색자의 가감 요소를 선택하면 적용 과실을 제시해 준다. 쌍방이 인정하는 데이터를 입력하면 짧은 시간 안에 과실비율을 상정할 수 있다. 그러나 이 또한 가해자, 피해자가 인정하는 데이터가 입력되지 않으면 분쟁이 생기는 것은 마찬가지다. 특정하기 어려운 애매하고 섬세한 상황을 세세하게 정하기 어렵고, 사고 상황 데이터를 입력하는 순간 이미 운전자 쌍방의 주관이 개입하였기 때문이다. 


AI를 이용한 교통사고 과실 산정의 고도화는 오히려 현재의 블랙박스, CCTV와 함께 24시간 365일 사고 상황 자료를 수집하는 일이 더 중요하다. 필자는 각국의 손해보험사들이 힘을 모아 교통사고 감시용 인공위성이 해답이 될 수 있다고 생각한다. 이를 통하여 교통사고 분쟁도 줄이고 보험 서비스의 질을 획기적으로 높일 수 있다. 위성 발사 및 관리 비용은 보험사고용 이외에 다른 상업용 목적으로 활용하면 충분한 경제성이 있을 것이다.




#3. 상용화의 장벽


자동차 이미지 ©현대자동차 G80


AI를 이용한 교통사고 과실비율 산정은 결과에 대하여 설명할 수 있어야 한다. 의사결정, 판단에 대한 AI 설명 가능성이다. 교통사고 과실비율 산정 등은 사실상 재판과 같은 영역이다. 또 금융에서의 신용평가나 의료에서의 질병 진단·치료와 같이 데이터와 알고리즘으로 판단하는 AI 의사결정은 개인에게 큰 영향을 미친다. 그래서 판사, 보험사 직원, 은행원, 의사들은 의사결정, 판결, 진단에 대하여 설명할 의무를 지닌다. AI가 주어진 데이터와 알고리즘으로 신속하고 정확하게 판단을 하였지만 왜 그런 결정이 나왔는지 설명해 주지 못하면 실제 상용 서비스를 하기 어렵다.


현재 법률서비스, 회계, 금융, 의료 현장에서는 AI 활용 연구가 상당히 진전됐지만, 현장 보급에는 어려움을 겪고 있다. 그 이유 중 하나는 AI 설명 가능 여부다. 딥러닝 기술은 본질에서 판단 과정을 설명할 수 없는 블랙박스 문제를 지니고 있다. 풀어야 할 숙제다. 설명 가능한 AI 기술이 확보된다고 해서 반드시 모든 문제가 해결된다고도 할 수 없다. 기술 형태, 기술을 적용하는 분야, 상황, 사용 대상까지 고려하여 어느 범위까지 AI 판단 과정을 설명할 것인지에 대해 규정할 수 있는 법 제도가 필요하기 때문이다.


인공지능을 총망라하는 자율 자동차가 사고를 내면 누가 과실을 판단하느냐가 인공지능 분야의 화두다. 2018년 3월 미 애리조나주 템피시에서 자율주행 자동차가 보행자를 치어 숨지게 한 사건이 있었다. 승차 공유 서비스를 제공하는 U사의 차량 시범 운행 과정에서 발생한 사고였다. 피해자 일레인 허즈버그는 자율주행차량으로 인한 첫 희생자로 기록됐다. 허즈버그 사망 이후 법적 책임을 누구에게 물어야 할 것인가가 주요 화두가 되었다. 이 사건은 AI로 인명피해 사고 발생 시 과실치사죄 적용 가능성부터 근본적 AI 존재 이유까지 많은 논란을 야기했다. 자율주행 자동차의 과실을 물으려면 사고 상황만큼 자율 자동차의 AI 내부를 들여다봐야 한다. 알고리즘 등 프로그램 설계가 잘못된 점을 찾아봐야 하기 때문이다.




자율주행 자동차 사고는 별도의 자율주행 사고 전문 AI가 판단해야 한다는 말까지 나오는 실정이다. 당분간 교통사고 과실비율 산정을 AI가 대신하는 영역은 인간이 얼마나 정확한 사고 상황 데이터를 입력하고 스스로 고도화하는 딥러닝의 알고리즘에 달려있다. 산정 결과에 대한 AI 설명 수준은 아직 한계가 있지만, 사회적 분쟁과 사회적 비용을 줄이기 위하여 더욱 발전시켜 나가야 한다고 생각한다.



브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari