AI가 주도하는 미래

⑧ AI의 결정, 누가 책임지는가

101480_165005_2345.png


지난 회차에서 우리는 AI의 판단 과정을 인간이 이해할 수 없는 ‘블랙박스’ 문제에 대해 이야기했다. 이번에는 여기서 한 걸음 더 나아가, AI가 내린 결정의 결과에 대해 “과연 누가 책임을 져야 하는가”를 묻고자 한다.


AI가 의료 현장에서 진단을 내리고, 금융에서 대출 심사를 돕고, 차량의 주행 경로를 스스로 결정하는 시대가 되었다. 문제는 AI가 내린 판단이 잘못되어 치명적인 사고로 이어졌을 때 그 책임의 화살을 누구에게 돌릴 것인가다.


예를 들어보자. 의료 AI가 수많은 데이터를 학습해 희귀 질환을 진단했는데, 그 판단이 틀려서 환자에게 피해가 발생했다고 가정해 보자. 이때 책임은 AI의 진단을 믿고 최종 승인한 의사에게 있을까? 오류가 있는 알고리즘을 만든 개발사에 있을까? 아니면 그 판단의 근거를 이해하지 못한 채 시스템을 도입한 병원의 문제일까?


이처럼 AI가 스스로 판단하는 구조에서는 전통적인 법 개념이 뿌리째 흔들리기 시작한다. 우리의 현행 법체계는 인간의 ‘고의(나쁜 의도)’와 ‘과실(부주의)’을 전제로 설계되었다. 하지만 AI는 그저 확률과 통계의 논리에 따라 작동할 뿐, 인간적인 의미의 ‘의도’를 갖지 않는다. AI가 실수를 했다고 해서, 알고리즘에 수갑을 채우거나 감옥에 보낼 수는 없는 노릇이다.


이처럼 법적 책임의 소재가 불분명해지는 현상을 우리는 ‘책임의 공백(Responsibility Gap)’이라 부른다. 기술은 KTX처럼 질주하는데, 법과 제도는 완행열차를 타고 쫓아가는 형국이다.


기술을 만드는 입장에서, 필자는 이 문제를 바라보는 관점을 바꿔야 한다고 생각한다. 이제는 ‘누구를 처벌할 것인가’에 골몰하기보다, ‘어떻게 책임을 나누고 피해를 구제할 것인가’의 문제로 접근해야 한다. AI를 실제로 운용하는 ‘사용자’의 주의 의무, 시스템의 안전성과 신뢰성을 보장해야 하는 ‘개발사’의 기술적 책임, 그리고 예기치 못한 피해에 대응할 수 있는 보험 같은 ‘사회적 안전망’이 톱니바퀴처럼 맞물려 돌아가야 한다.


이것은 단순히 법률만의 영역이 아니다. 앞서 언급한 ‘설명 가능한 AI(XAI)’ 기술의 발전이 곧 책임의 투명성과 직결된다. AI가 왜 그런 결정을 내렸는지 추적할 수 있어야, 책임을 나누는 기준도 명확해질 수 있기 때문이다.


결국 AI 시대의 신뢰는 ‘놀라운 정확성’이 아니라 ‘합리적인 책임의 구조’에서 비롯된다. AI가 인간의 결정을 대신하는 시대일수록, 그 결정의 이유와 결과를 함께 감당할 준비가 필요하다. 기억해야 한다. AI가 우리의 삶을 대신 판단해 줄 수는 있어도, 그 판단의 책임까지 대신 져줄 수는 없다는 사실을.


▶김영기 위고컴퍼니 대표이사


*[AI가 주도하는 미래] 9회차 주제는 ‘16.3배의 격차 : AI는 기회인가 새로운 벽인가’입니다.


출처 : E동아(https://edu.donga.com) 김재성 기자



지난호 바로보기

① 우리가 설계한 세상, 보이지 않는 벽

https://brunch.co.kr/@bd5cc1b54b684c2/4

② ‘AI 네이티브’와 ‘디지털 이주민’: 끝나지 않는 세대 전쟁

https://brunch.co.kr/@bd5cc1b54b684c2/5

③ AI가 그리는 새로운 지도, 부의 격차

https://brunch.co.kr/@bd5cc1b54b684c2/6

④ AI 시대의 새로운 계약: 우리는 무엇을 준비해야 하는가

https://brunch.co.kr/@bd5cc1b54b684c2/7

⑤ 요약 세대의 비극: 질문 없는 정답

https://brunch.co.kr/@bd5cc1b54b684c2/8

⑦블랙박스 사회: AI는 어떻게 생각하는가

https://brunch.co.kr/@bd5cc1b54b684c2/10




keyword
작가의 이전글AI가 주도하는 미래