AI 마이너리티 리포트: 전자 예정설과 오차항의 윤리

알고리즘이 지배하는 세상, 자유의지는 어디에 숨어 있는가

by Johan Na

경제학자 게리 베커는 범죄를 도덕적 타락이 아닌 ‘합리적 선택’의 결과로 해석했다. 그의 범죄경제학 모델에 따르면, 인간은 범죄로 얻을 기대이익과 처벌로 인한 기대비용을 저울질하는 존재다.
이때 기대비용은 ‘검거되어 유죄 판결을 받을 확률’과 ‘형벌의 강도’를 곱한 값으로 결정된다. 따라서 국가의 과제는 이 기대비용이 범죄의 이익을 압도하도록 제도를 설계하여 범죄를 ‘비싼 행위’로 만드는 것, 즉 억지에 있다.
오늘날 AI 기반 위험 예측 시스템은 이 억지의 논리를 극한까지 밀어붙인다. 그리고 바로 이 지점에서 고전적인 신학 논쟁이 되살아난다. 만약 알고리즘이 개인의 데이터를 통해 미래 행동을 높은 확률로 예견할 수 있다면, 인간의 자유의지는 설 자리가 있을까? 영화 〈마이너리티 리포트〉에 등장하는 ‘사전 범죄(PreCrime)’ 시스템은 단순한 공상이 아니다. 그것은 예측 기술이 형벌 체계와 결합할 때 발생하는 규범적 긴장을 예리하게 포착한 우화다.
1. 예정과 선택: 신학적 원형의 귀환
이 딜레마는 기독교 역사 속의 오래된 논쟁 구조를 그대로 닮아 있다.
장 칼뱅의 이중 예정설은 구원과 멸망이 신의 절대적 주권 아래 미리 정해져 있다고 본다. 결정적인 점은 칼뱅에게 있어 예정은 신의 예지의 결과가 아니라, 그 원인이라는 사실이다. 즉, 신의 작정이 인간의 행위에 논리적으로 선행하며, 인간의 행위는 구원의 원인이 아니라 정해진 운명의 징표에 불과하다.
반면 아르미니우스는 신의 예지가 인간의 자유를 소거하지 않는다고 맞섰다. 신은 미래를 알지만, 인간은 은총에 응답하거나 거부할 수 있는 실질적 선택 능력을 가진다는 것이다. 후대의 존 웨슬리는 이를 ‘선행 은총’ 개념으로 발전시켜, 모든 인간에게 운명을 선택할 가능성이 열려 있음을 강조했다.
핵심 쟁점은 이것이다. “완전한 예측 가능성은 자유를 논리적으로 배제하는가?” 신학이 오랫동안 씨름했던 양립 가능성과 자유의 실재성 문제는, 이제 데이터와 알고리즘이라는 기술철학의 언어로 다시 쓰이고 있다.
2. 전자 예정설: 확률적 심판의 시대
AI 위험평가 시스템은 이 신학적 구조를 세속화된 형태로, 그러나 훨씬 강력한 방식으로 반복한다. 미국 사법 시스템에서 활용된 콤파스(COMPAS)는 피고인의 전과, 사회경제적 배경, 주거 환경 등을 입력받아 재범 위험도를 수치로 산출한다. 2016년 프로퍼블리카(ProPublica)의 분석은 이 시스템이 흑인 피고인에게 더 높은 위험 점수를 부여하는 경향이 있음을 폭로하며 광범위한 논쟁을 촉발했다.
여기서 신학적 언어와 기술적 언어는 구조적으로 대응한다. 신의 전지는 빅데이터의 집적으로, 예정은 확률적 예측값으로, 최후의 심판은 알고리즘에 의한 위험 관리로 치환된다.
이러한 ‘전자 예정설’은 형법의 보호적 기능을 극대화하려는 시도다. 보호적 기능이란 범죄로부터 사회 질서와 법익(생명, 신체, 재산 등)을 수호하는 역할을 뜻한다. AI는 과거의 죄에 대한 응보가 아니라 미래의 피해를 방지하는 ‘사회 방위’에 초점을 맞추며, 이로써 처벌은 도덕적 비난이라기보다 위험을 관리하는 정책 수단으로 변모한다. 예측값은 필연이 아닌 확률에 불과하지만, 제도가 이를 근거로 보석을 불허하거나 형량을 가중하는 순간 개인은 “이미 계산된 존재”가 되어버린다.
3. 오차항(ε): 자유의지가 숨 쉬는 틈새
그렇다면 계산된 운명 속에서 자유의지는 어디에 위치하는가?
통계적 계량모형에는 항상 ‘오차항(ε, 입실론)’이라는 것이 존재한다. 어떤 결과값(Y)을 설명하기 위해 수많은 변수(X)를 대입하더라도, 그 식에는 언제나 설명되지 않는 나머지, 즉 오차항이 더해져야 한다.
어떤 정교한 예측 모형도 인간 행동을 100퍼센트 설명하지는 못한다. 모형이 설명하지 못하고 남겨둔 이 잔여(residual)는 측정 불가능한 우연성이며, 동시에 인간의 자유의지가 숨 쉴 수 있는 틈새다.
기술은 이 오차항을 ‘0’으로 수렴시키기 위해 변수를 확장하고 모델을 고도화한다. 그러나 통계학적으로 완전한 0의 오차항은 불가능하다. 나아가 〈마이너리티 리포트〉에서 주인공 존 앤더튼이 시스템의 예측 경로를 벗어난 사건은 더 깊은 역설을 시사한다. 예측 자체가 행위자의 조건에 개입하여 결과를 바꿀 수 있다는 것, 즉 예측과 행위 사이의 상호작용이다. 자유의지를 형이상학적 실체로 보지 않더라도, 예측 불가능성의 잔여는 언제나 남는다.
4. 효율성의 역설: 위협받는 법의 방패
AI 사법은 판사의 주관적 편향을 줄이고 법적 안정성을 강화할 수 있다는 점에서 매력적이다. 그러나 이것이 지배적 기준이 될 때, 형법의 또 다른 핵심 축인 보장적 기능이 위협받는다.
형법의 보장적 기능은 국가의 자의적인 형벌권 행사로부터 국민의 자유와 권리를 보호하는 기능이다. 프란츠 폰 리스트가 “형법은 범죄자의 마그나 카르타”라고 표현했듯이, 이 기능은 형법을 국가 권력으로부터 개인을 지키는 방패로 작동하게 한다. “법률 없으면 범죄 없고 형벌 없다”는 죄형법정주의는 개인이 행한 과거의 행위에 대해서만 책임을 물을 것을 요구한다.
그러나 AI의 위험 기반 판단은 이 원칙과 세 가지 방식으로 충돌한다.
첫째, 책임 원칙의 훼손이다. 보장적 기능은 ‘행위’에 대한 책임을 묻지만, AI는 ‘성향’과 ‘미래 위험’을 근거로 제재를 가한다. 아직 하지 않은 일에 대해 책임을 지우는 셈이다.
둘째, 경로 의존성의 강화다. 불리한 사회경제적 데이터가 위험 점수를 높이고, 이것이 다시 처벌로 이어지면 구조적 불평등이 제도적으로 고착된다.
셋째, 갱생 가능성의 축소다. “90% 재범 위험”이라는 낙인은 인간을 고정된 상수로 환원하며, 개인의 도덕적 개선 가능성을 전제로 하는 법의 인격적 신뢰를 무너뜨린다.
신학에서 ‘회심’이 예정을 넘어서는 가능성이라면, 법에서의 ‘갱생’은 오차항이 열어주는 변화의 공간이다. 확률을 운명으로 취급하는 제도는 이 가능성을 봉쇄함으로써 형법의 보장적 기능을 마비시킬 위험이 있다.
나가며: 우리는 얼마만큼의 오차를 허용할 것인가
AI 판사는 정의를 자동화하지 않는다. 다만 형법의 보호적 기능(사회 안전)을 위해 계산을 정교화할 뿐이다. 그러나 법과 민주주의는 효율성만으로 작동하지 않는다. 그것은 때로 위험을 감수하더라도 개인을 보호하려는 보장적 기능(인권 보호)과의 위태로운 균형 위에 서 있다.
완전한 효율성은 오차항을 제거하려는 충동을 낳는다. 그러나 인간을 기계 부속품이 아니라 존엄한 주체로 대우한다는 것은, 데이터가 포착하지 못한 가능성—행동의 변화, 책임의 자각, 회복의 의지—을 위한 여백을 남겨둔다는 뜻이다.
AI 시대의 핵심 질문은 예측의 정확도가 아니다. 확률을 운명으로 간주하려는 유혹 앞에서도, 우리는 여전히 개인을 선택하고 책임지는 주체로 대우할 것인가이다. 오차항(ε)은 단순한 통계적 찌꺼기가 아니다. 그것은 인간의 자유와 법의 보장적 기능을 지키기 위해 우리 사회가 반드시 남겨두어야 할 성소(聖所)다.

매거진의 이전글드라마 김 부장의 박하진(명세빈)의 전략은 왜 실패했나