인공지능의 법적 책임은 어떻게 될까요?
사실 자율주행에 쓰이는 AI는 '특정 영역'에 대한 AI입니다. 즉, 학습능력을 갖긴 하지만 그 학습능력이 특정 방향으로 한정되어 있는 것에 가까운 케이스인데요. 도로교통 상황이나 상황판단에 대한 학습 등을 기반으로 합니다. 예를 들어, 기분이 좋다던가 슬프다던가 하는 종류의 감정 학습은 적어도 기본적으로는 포함하지 않는다는 이야기죠. 그럼에도 불구하고 앞선 주제에서 다뤘던 것처럼 인공지능의 선택은 필연적으로 사람들에게 영향을 줄 수밖에 없습니다.
전 세계적으로 수많은 사람이 매일 교통사고를 통해서 사망하게 됩니다. 2018년 WHO의 발표를 보면 매년 135만 명이 교통사고로 사망한다고 합니다. 24초에 1명이 교통사고로 사망한다는 것이죠. 그중 자율주행으로 인한 사망자는 아직 미미합니다. 하지만 아직 자율주행 자동차의 비율 역시 그만큼 미미하죠.
그럼에도 테슬라나 우버에 의한 사망사고는 바다 건너 우리에게 전해질 정도의 뉴스가 됩니다. 어떻게 봤을 때는 자율주행에 의한 사망사고가 잦았다면 우리가 그런 일을 이렇게 기사로 접할 일도 없겠죠. 하지만 자율주행에 의한 사고, 특히 사망사고는 그 특성상 그러한 일이 발생할 때마다 논란이 되고 있습니다.
우리가 인간의 구조와 사고를 모방하여 컴퓨터를 만들 만큼 인간은 대단한 존재입니다. 아직도 컴퓨터의 구조는 완전히 인간의 방식을 따라잡지 못하고 있으며, 알파고가 바둑에서 아무리 인간을 압도했다 하더라도 바둑 이외의 여러 가지 영역에서 동일한 능력을 갖는 AI를 만드는 일은 쉽지 않습니다. 물론 눈부신 속도로 발전하고 있지만요.
그럼에도 불구하고 우리는 알고 있습니다. 인간은 완벽하지 않다는 것을 말이죠. 그래서 인간은 사회를 구성하는 요소에서 서로의 잘못을 판단하기 위해서 법을 만들어 생활하고 있습니다. 그리고 그러한 인간의 실수 중 하나가 교통사고라고 볼 수 있죠. 물론 자동차의 설계 결함이라든가 다른 원인이 존재할 수도 있지만 심지어 그마저도 정비사의 책임이거나 제조사의 책임 등이 있으니까요. 실제로는 인정을 거의 안 해주지만.
그런데 거기에서 AI가 끼어들게 되면 책임이 묘해집니다. 테슬라가 법적 공방을 벌이게 되는 것도 마찬가지죠. 저번 딜레마에서 다뤘던 '트롤리의 딜레마'도 여기에 해당됩니다. 과연 자율주행차가 사람을 치어 사망자를 냈다면 그 책임은 누구에게 있는 걸까요? 자율주행을 맡긴 운전자? 자율주행을 만든 제조사? 사람이 낸 운전 사고와 AI가 낸 운전 사고의 차이점은 무엇일까요? 인간이 직접 운전한 것보다 훨씬 적은 사고를 내더라도 왜 문제가 되는 걸까요?
가장 큰 문제점은 AI를 법의 대상이 될 수 있는 인격으로 볼 수 있는가입니다.
이에 대해서는 그 이전에 인간 이외에 법적으로 인격을 취득하는 사례가 있었는지 생각을 좀 해볼 필요가 있습니다. 그리고 당연히 아시겠지만 있습니다. 바로 기업이죠. 우리는 '법인'이라는 말에 매우 익숙합니다. 이러한 법인은 왜 생긴 것일까요?
잠시만 뒤로 돌려서 다시 자동차 회사와 개인 운전자의 문제를 들여다봅시다. 아직까지 '완전한 자율주행'은 회사 측 입장에서도 내놓지 않은 관계로 법적다툼으로는 운전자가 조금씩 밀리는 부분이 있습니다. 2019년에 발생한 우버의 완전 자율주행 실험에서 발생했던 보행자 사망사고도 마찬가지죠. 그 당시의 우버에는 '운전자'는 아니었으나 '관리자'가 탑승하고 있었고, 결국 회사보다는 그 관리자에게 전방주시 및 대응에 대한 의무가 있었음에도 그를 이행하지 않았다는 책임이 따랐습니다.
즉, 아직까지는 자율주행의 운전 책임을 오롯이 AI가 가져가지 않고 있다는 이야기죠. 그렇지만 만일 모든 운전의 책임을 자율주행이 가져온다면 어떻게 될까요? 아니, 그 이전에 위의 사고에서 책임 판결이 자동차 회사 측으로 나게 되면 어떻게 될까요?
당연한 이야기지만 자동차 회사는 거의 다 법인일 겁니다. 그래서 그에 대한 책임도 '법적 인격'인 회사가 지게 됩니다. 그런데 만일 사망사고를 내면 우리는 감옥에 가는데 회사는 어떻게 되는 거죠? 당연한 이야기지만 회사는 감옥에 안 갑니다. 법인격은 배상 책임은 지고 있지만 일신에 대한 구속을 받지는 않습니다. 당연하지만 무생물인 회사니 까요. 사람이 죽었는데 돈으로만 책임진다니... 그럼 어째서 이런 형태가 가능하게 된 걸까요?
우리는 누구나 더 많은 능력을 갖길 원하지만 개인이 가질 수 있는 능력은 유한하죠. 정확히 법적으로 보호받게 된 사례를 보자면 1880년대의 남태평양 철도회사의 이야기를 꺼내는 게 맞을 겁니다. 흔히 산타 클라라 사건이라고 부르는 사건입니다. 그전까지는 아무리 그래도 회사에 문제가 발생하면 누군가 사람이 책임을 져야 하는 구조였죠. 그렇지만 당시의 자본주의와 맞물린 대법원 판결문에 미국의 수정헌법 14조에 기업을 포함시키기 시작하면서 사달이 났습니다.
미국의 수정헌법 14조는 미국 내 남북전쟁 이후 해방 노예의 권리를 보호하기 위해서 헌법에 추가되었습니다. 그 1절의 내용은 다음과 같습니다.
미국 수정헌법 14조
제1절 : 미국에서 태어나거나, 귀화한 자 및 그 사법권에 속하게 된 사람 모두가 미국 시민이며 사는 주 시민이다. 어떤 주도 미국 시민의 특권 또는 면책 권한을 제한하는 법을 만들거나 강제해서는 안 된다. 또한 어떤 주에도 법의 적정 절차 없이 개인의 생명, 자유 또는 재산을 빼앗아서는 안 되며, 그 사법권 범위에서 개인에 대한 법의 동등한 보호를 거부하지 못한다.
남태평양 철도회사는 이 조항에서 시민(citizen)이 아닌 개인(person)으로 쓰여 있는 점을 노려 교묘한 변론을 펼쳤습니다. 결과적으로 받아들여지지는 않은 것으로 보이지만 추후에 정리된 대법원 판결은 그 당시 서기관의 기록을 통해 중요한 판례를 남기게 됩니다. '기업은 수정헌법 14조에서 말하는 사람에 포함된다'는 그 판례는 결국 두고두고 기업들의 권익보호를 위해 쓰이게 됩니다. 그리고 결국 완연하게 자본주의가 뿌리를 내리면서 법인이라는 형태의 모태가 되죠.
다시 돌아가 보자면 그로 인해 기업들은 일정의 책임에서 탈피하고 권리는 누릴 수 있게 되었습니다. 추후에 법인에게 책임을 주는 여러 가지 요소를 부여했지만 지금도 심심치 않게 법인과 관련된 책임문제가 사회면을 장식하는 것을 볼 수 있습니다. 결국 이 '법인'이라는 제도를 내세우는 가장 큰 논리는 기업은 앞으로도 계속적으로 늘어날 수밖에 없으며, 법인으로 인정해주지 않으면 거대한 경제행위에서 기업이 위축될 수밖에 없다는 부분입니다. 그거 말고도 이유가 수십가지는 있을 것 같지만...
자율주행을 설명할 때 나온 트롤리의 딜레마를 강의했던 마이클 샌델의 강의에서도 비슷한 사례가 있습니다.
만일 자동차 회사가 자동차 설계에 결함이 있어서 사고가 발생했다.
사고 발생에 따른 배상책임과 전체 리콜 비용을 계산해 봤을 때,
발생한 사고에 대해 보상해 주는 것이 훨씬 저렴하다면 경영자는 어떤 결론을 내려야 하는가.
당연하게도 법인의 논리는 사고로 죽는 사람 비율이 그렇게 높지 않다면 결함이 있음에도 불구하고 그대로 판매하고 보상금을 지급하는 방향이 이득이었습니다. 어차피 법인은 구속되는 건 없으니까요. 지금이야 레몬법을 비롯하여 리콜에 대한 법령이 강력해졌습니다만, 1970년대이니 얼마 되지 않은 이야기죠. 아, 그것도 우리나라는 레몬맛 법...
지금까지는 AI를 만든 회사와 개인의 싸움이라지만, AI의 특성상 학습 그리고 무엇보다 의사결정과 판단을 AI 스스로 내리게 되면 책임이 발생하지 않을 수 없습니다. 그걸 AI를 만든 회사에게 책임을 지운다면 그것이 AI 관련 사업을 위축시킨다는 이야기가 나오겠죠. 그리고 위의 법인이 탄생하는 과정과 비슷한 과정을 거치게 될 가능성이 높습니다. 4차 산업혁명은 피해 갈 수 있는 건 아니니까요.
우리는 이미 블록체인과 가상화폐에서 비슷한 논리를 만난 적이 있습니다. 가상화폐가 아니어도 블록체인은 유용한 기술이지만 가상화폐를 시장으로 끌고 가는 사람들은 절대로 블록체인을 꼭 붙들고 놓치지 않습니다. 마치 죽어도 같이 죽고 살아도 같이 사는 것처럼 보이려는 것이죠. 저 위의 수정헌법 판례 사례처럼 한 번만 고정되게 되면 그 뒤로 계속 인용시킬 수 있으니까요. 그리고 돈이 많이 몰리는 방향이라면 시키지 않아도 많은 주체들이 달라붙게 됩니다.
결국 AI는 언젠가는 인격 또는 그에 준하는 권리를 갖게 될 것이라는 것은 누구나 어렴풋이 알고 있습니다. 그래서 그렇게 많은 AI나 안드로이드 관련 소설과 영화들이 쏟아졌겠죠. 아이작 아시모프의 로봇 3원칙이 아직도 회자되는 이유기도 하고요. 그런데 문제는 금전적 보상의 주체라도 되는 법인과 달리 AI가 인격을 갖게 됐을 때 AI들은 무엇을 지불하게 될 것인가의 문제가 있습니다. 사실 그래서 수많은 공상과학 영화들은 AI에 대해서 디스토피아적인 미래를 그리고 있죠.
엄청 멀리 돌아서 왔습니다.
그 '언젠가는'이 아니라 지금 AI가 하는 일들은 어떤 법적 책임이 따를까요? 초반에 나왔던 것처럼 아직까지는 자율주행 관련 사고도 운전자와 AI 제조사의 다툼으로 가고 있습니다. 자, 그럼 그 이외의 AI는 어떨까요?
가장 가까운 논란을 살펴보자면 AI 챗봇 '이루다'에 대한 논란이 있습니다. 2020년에서 2021년 사이에 서비스했던 이루다는 머신러닝 과정에서 제대로 동의를 거치지 않은 데이터를 사용한 문제와 더불어서 개인정보 유출 문제, 그리고 대화의 수위에 대한 논란 등이 있었습니다. 문제가 불거지기 전까지는 논란 속에서도 MZ세대에게 엄청난 인기를 끌었죠.
8가지 정보통신보호법을 위반한 이유로 과징금도 발생했고 피해자들과 소송 중이며, 그 소송의 대상은 당연히 챗봇인 이루다가 아니라 만든 회사와 진행 중입니다. 논란은 아직 종결되지 않았지만 2022년 1월 이루다 2.0이 클로즈 베타를 진행 중입니다. 그리고 다시 서비스를 재개하기 위해서 사전등록을 받는 중이죠.
결국 챗봇과 같은 AI는 그 자신이 학습해서 이야기한 것이라 하더라도 그 책임을 '누구에게 어느 만큼' 부여하게 되는가의 문제인데, 아직도 대법의 판결이 나온 것이 아니라서 그 결과를 지켜봐야 할 것 같습니다. 여러분은 어떠한 데이터를 기반으로 하여 AI를 만든다면 그 책임은 누구에게 있다고 생각하시나요?
그리고 과연 그러한 책임을 개발사에게 묻는 것이 AI 개발 산업을 위축시키는 걸까요? 아니면 그러한 책임을 면제받는 것이 대중들에게 AI에 대한 불신을 심어줘서 오히려 산업을 위축시키는 걸까요?
문제는 또 있습니다. AI에게 인격권을 부여하게 된다면 어느 정도까지 AI를 구분해야 할까요? 데이터를 기반으로 하여 알고리즘에 의해 대답만을 하도록 되어있는 챗봇도 AI라고 불러야 할까요? 아니면 자동으로 학습하는 구조를 가졌을 때 AI라고 불러야 할까요?
그리고 인격권을 가지게 된 AI가 정치적 발언을 한다면 정치에 입문할 수 있을까요? AI 판사가 되어 불완전한 판단을 내리는 사람보다 더 정확한 판단을 내리게 될까요?
우리가 생각해 볼 수는 있지만 아직 결론은 나지 않았습니다. 왜냐면 기본적으로 결론을 내려주는 것은 법적 영역이니까요. 일반인인 우리는 그에 대한 생각들을 모아서 사회적 여론을 조성할 뿐입니다. 그리고 법적으로 결정되는 사항들이 추후의 결정들에도 영향을 줄 테죠. AI가 4차 산업혁명의 큰 틀을 차지하고 있는 것에는 틀림이 없습니다만, 어떻게 공존하고 살아가게 될 것인가는 조금 더 신중해야 할 문제입니다.
우리는 어린 시절, 터미네이터2에서 아널드 슈워제네거가 손가락을 들고 펄펄 끓는 용광로에 들어가던 모습을 충격적으로 감상하며 살았습니다. 그건 내가 아재라서... 아직 다가오지 않은 미래지만 그만큼 예전부터 많은 사람들이 고민하던 미래입니다. 이제는 정말 코앞으로 다가온 AI와 함께하는 미래, 직접 같이 살아가게 될 우리들의 고민도 필요합니다.
@ 게인
커넥티드 인사이드에서는
4차 산업, 게임, 인문학 그리고 교육에 관해서
가볍거나 무겁거나
다양한 방식으로 서로 연결된
여러 가지 이야기들을 다뤄보고자 합니다.
#커넥티드인사이드 #게인 #자율주행 #AI #챗봇