AI와 과학적 범죄예측 그리고 범죄학:생물학적 범죄이론
2002년 영화 마이너리티 리포트의 주인공은 아직 범죄를 저지르지 않았지만, 미래에 그럴 것이라는 예측만으로 체포된다. 이 영화는 인간의 자유의지를 정면으로 겨눈다. 기술이 미래의 범죄를 예측하고, 사회는 그 예측에 따라 사람을 구금하거나 처벌할 수 있는가? 불과 몇 년 전까지만 해도 허무맹랑한 이야기로 들렸지만, 지금 우리는 점점 그 세계에 가까워지고 있다.
사실 인간은 오래전부터 범죄를 과학적으로 예측하고 예방하려는 시도를 해왔다. 대표적인 인물이 19세기 이탈리아의 의사이자 범죄학자 체자레 롬브로조다. 그는 범죄자를 선천적으로 타고난 퇴행적 존재(atavist)라고 보며, 두개골의 형태, 안면 비대칭, 귀의 크기 같은 신체적 특징으로 범죄 성향을 구별할 수 있다고 믿었다. 이후 20세기에는 범죄자의 체형이나 유전적 요인을 분석하는 다양한 생물학적 이론이 등장했고, 현대에 이르러서는 뇌 영상 기술과 신경과학이 결합된 신경범죄학(neurocriminology)이 주목받고 있다. 전두엽의 기능 저하, 편도체 비활성, MAOA 유전자 등이 반사회적 행동과 관련 있다는 연구는 뇌 기반 범죄예측의 가능성을 제시하는 듯 보인다.
하지만 이러한 시도들은 언제나 결정론적 함정과 낙인의 위험을 안고 있었다. 롬브로조 이론은 사회적 맥락을 무시한 채 외형만으로 범죄자를 규정했고, 이는 우생학적 차별(나치의 유대인 학살)로 이어졌다. 현대 신경범죄학 역시 뇌 기능과 유전자를 범죄발생의 메커니즘으로 인식하게 할 수도 있다는 우려를 안고있다. 이는 책임 능력을 흐리고, 특정 개인을 ‘잠재적 범죄자’로 낙인찍는 윤리적 문제를 야기할 수 있다. 결국 과학적 예측은 도구일 뿐, 법과 윤리의 기준을 대신할 수 없다는 교훈을 남겼다.
AI는 이미 전 세계에서 범죄 예방의 도구로 활용되고 있다. 특정 지역의 범죄 발생 확률을 예측하거나, 재범 가능성이 높은 피의자를 분류하는 일은 더 이상 특별한 일이 아니다. 여기에 뇌과학이 결합되면 이야기는 더 깊어진다. 뇌의 전두엽 기능이 충동 억제와 밀접하게 관련되어 있다는 사실, 편도체의 비정상적 반응이 공감 결여와 관련된다는 연구들은 범죄 성향을 과학적으로 ‘예측’할 수 있다는 신호로 해석되곤 한다. 이 둘이 결합될 때, 우리는 AI 시대의 마이너리티 리포트를 눈앞에서 마주하게 된다.
이런 기술은 과연 공정하고, 정당하며, 안전한가?
이미 해외에는 ‘예측형 범죄관리 시스템’이 실험 중이다. 대표적인 사례는 미국의 COMPAS 시스템이다. 이 알고리즘은 피고인의 나이, 범죄 이력, 가정환경 등의 정보를 입력해 재범 위험 점수를 산출하고, 이를 근거로 보석이나 가석방 여부가 결정된다. 문제는 이 점수가 흑인에게 불리하게 작동할 수 있다는 점이다. 실제로 같은 조건의 백인보다 흑인이 더 높은 점수를 받을 가능성이 크고, 결과적으로 이는 시스템화된 차별로 이어질 수 있다.
영국의 Prevent 프로그램은 더욱 직접적이다. 이 시스템은 테러를 사전에 방지하겠다는 명분으로, 급단적이고 위험한 사상을 가진 사람을 식별하고 사전 개입에 나선다. 문제는 이 역시 ‘실제 범죄’가 아니라 ‘위험한 생각’에 개입한다는 점이다. 표현의 자유, 사고의 자유가 국가와 국민의 안전 두 가치의 우위에 대한 논쟁이 계속되고 있다.
기술이 이토록 정밀하고, 빠르고, 객관적이라면 인간 판사나 검사가 필요 없을 것처럼 보일지도 모른다. 증거를 분석하고 판례를 비교하고, 통계적으로 가장 적절한 형량을 산출하는 일까지 AI가 해낸다면, 인간은 왜 필요한가? 그러나 여기서 중요한 질문이 나온다. “이 사건의 맥락은 무엇이었는가?”, “그 사람에게 감형의 사유는 있었는가?”, “진정한 책임은 누구에게 있는가?” 이런 판단은 여전히 사람만이 할 수 있다.
AI는 “이 사람은 5년형이 적절합니다”라고 말할 수 있지만, “왜 5년이어야 하는가?”라는 도덕적 질문에는 답하지 못한다. 정의는 단순히 형량의 적절성을 판단하는 것이 아니라, 인간의 고통과 선택, 후회와 변화 가능성까지 고려하는 일이다. 마사 누스바움은 『정치적 감정』에서 “감정 없는 정의는 성립할 수 없다”고 말한다. 법은 공감 없이 완성되지 않는다.
‘법적 책임’은 ‘인간의 자율성(자유의지)’를 기초로 한다. 그렇다면 ‘자율성이라는 철학적 개념이 과연 과학적으로 정당한가?’, ‘인간의 행동이 실제로는 유전자, 환경, 뇌 구조 등 외적 요인에 의해 강하게 결정된다면, 자율성을 전제로 한 법적 책임 개념은 과학적으로 무의미한 것이 아닐까?’라는 질문이 떠오른다.
이 물음은 AI 시대, 그리고 뇌기반 예측 시스템이 떠오르는 지금의 법학에서 반드시 짚고 넘어가야 할 쟁점이다.
철학에서 말하는 자율성은 흔히 오해되듯 절대적인 자유의지를 의미하지 않는다. 그것은 “완전한 자유”라기보다, 합리적으로 사고하고 선택할 수 있었는가, 다시 말해 책임을 질 수 있는 판단 능력이 있었는가에 집중한다. 비록 인간의 행동은 과학적으로 완벽하게 설명되지 않더라도, 우리는 사회적 규범을 유지하기 위해 책임 능력을 가정할 수밖에 없다. 이는 법이 작동하기 위한 일종의 ‘제도적 전제’다. 형사법학자 스티븐 모스(Stephen Morse)는 이를 “자율성은 사실이라기보다 규범적 구성이다”고 표현한다.
중요한 건, 설명과 책임은 다르다는 점이다. 과학은 인간의 행동을 예측하고 설명하려고 하지만, 법은 그 행동을 도덕적·사회적 기준에 따라 평가하고 책임을 묻기 위한 구조다. 따라서 자율성이 과학적으로 불완전하다는 이유만으로, 우리가 형사책임이라는 제도를 포기할 수는 없다. 법은 언제나 인간의 불완전함 위에 세워지며, 그 안에서 인간에게 책임을 묻는다는 것은 여전히 유효한 사회적 선택이다.
그렇다고 AI의 역할이 의미 없다는 뜻은 아니다. 범죄예측 기술은 유용한 도구다. 다만, 문제는 그 ‘도구’를 어떻게 활용할 것인가에 있다. 수사기관이 이 기술을 참고자료로 활용하거나, 재범위험군에 대한 치료적 개입을 설계할 때 AI는 큰 도움이 될 수 있다. 그러나 AI가 재판의 주체가 되거나, 인간의 자유를 제한하는 결정권자가 된다면 우리는 본질적으로 다른 사회에 들어서게 된다. 그것은 법이 아니라 통제 시스템이다.
정밀한 예측은 희망처럼 보인다. 범죄를 예방하고, 피해자를 보호하며, 사회의 위험을 줄일 수 있기 때문이다. 하지만 그 예측이 한 개인을 ‘미래의 범죄자’로 낙인 찍고, 아직 저지르지 않은 행동을 근거로 처벌하거나 감시하는 데 사용된다면, 그것은 오히려 ‘정의’를 해치는 기술이다.
완벽하게 공정한 기계는 없다. 기술은 정밀해질 수는 있지만, 정의로워질 수는 없다. 공정성은 기술의 정확도가 아니라, 그 판단을 끊임없이 의심하고 검토하려는 인간의 태도, 곧 비판적 성찰 능력에 의해 유지된다.
이것이야말로 법이 인간을 인간답게 다루기 위해 존재해온 이유다.
AI는 증거를 분류하고, 데이터를 분석하며, 유사 판례를 빠르게 찾아낼 수 있을 것이다. 하지만 그것이 인간을 이해할 수 있다는 뜻은 아니다. 타인의 고통을 헤아리고, 상황의 맥락을 고려하며, 변화 가능성을 신뢰하는 일은 여전히 인간만이 할 수 있다. 법은 그런 판단을 전제로 작동한다.
따라서 아무리 기술이 발전하더라도, AI는 인간의 인간에 대한 판단을 완전히 대신할 수 없을 것이다. 우리가 정의라고 부르는 것은, 누군가를 규정짓는 연산이 아니라, 끝까지 이해하려는 노력의 총합이기 때문이다.
<참고>
COMPAS : 미국의 '노스포인트'社가 개발한 빅데이터 분석 인공지능. 유사한 다른 범죄자들의 기록과 특정 범죄자의 정보를 빅데이터 분석해 범죄자의 재범가능성을 계량화한다. 미국의 위스콘신 주 법원에서는 이 인공지능이 계량한 재범가능성을 형량 결정에 참고한다. [나무위키]