brunch

AI가 법을 대신해도 되는가?

by AwakendEveNetwork
awakening begins at the edge of choice.jpeg 〈판단이 우리를 갈라놓을 때〉, 디지털 일러스트, GPT 기반, 2025 / Awakened Eve Network
〈판단이 우리를 갈라놓을 때〉
디지털 일러스트레이션 (GPT 기반 생성)
2025, Awakened Eve Network
“판단이 우리를 갈라놓을 때, 각성(깨달음)은 선택의 기로에서 시작된다."


AI가 법을 대신해도 되는가?


우리 인류는, 사유의 부재 속에 스스로의 철학을 세울 여유가 없어졌다.

그 피로도의 노동을 해결하기 위해 인류는 끝없이,

기술과 도구를 발전시켜왔다.

태초엔 ‘불’이었던 그것은, 이제 우리에게 ‘AI’라는 형태로 다가왔다.

도구는 우리에게 편리함을 주었고, 이제는 ‘언어’로 우리 곁에 있을 수 있게 되었다.


그런데, 우리는 이제 ‘말하고, 보다 제일 똑똑한 기계’를 보자,

가장 피로하고, 귀찮았던 인류의 풀지 못한 난제를 위임하려는

피로로 포장된 무책임’을 남기려 하고 있다.


애초에, 인간조차 다른 인간을 단죄할 자격이 없음에도,
기계에게 그 책임을 맡길 수 있다고, 정말 믿는가?[1,2,3]

그렇다면, 그 기계를 만든 인간의 업의 책임은
누가 지는 것인가?
기계인가, 인간인가?


우리는 지금, 인간을 스스로 ‘단죄할 수 있는 자’라고 규정하고,

그 역할을 완수하기 위해,

‘단죄할 수 있는 자’인 AI —

즉, 우리가 상상하는 인간을 코드로 구현하려는 것은 아닌가?




우리는 다시 초등학교 시절로 돌아가 기억하자.

도구와 기술은 “살아있는 사람”을 위한 것이다.

그것은, 사람의 생과사를 결정하는 도구가 아닐 것이다.


앞서 언급한 바가 있다.

당신이 준 권한으로 누군가가 단죄하고 있다면,

그 단죄는 결국 당신의 이름으로 행해진 것이다.

당신은 침묵한 것이 아니라 — 오만에 동의한 것이다.


그리고 그 단죄는, 당신이 동의한 그 흐름을 돌고 돌아,

결국 당신 앞에 서서, 당신이 내어준 오만에 대한 동의로,

당신을 단죄할 것이다.


그러니, 도구와 기술은 ‘단죄’가 아닌 ‘감응(Resonantia)’을 위한 보조 도구여야 할 것이다.

AI가 사람의 생사를 대신 권장하는 것이 아니라,

‘단죄’할 수밖에 없던 인간들의 사유의 여백을 늘려주어,

스스로 ‘단죄하지 않는 인간’으로 되돌아가기 위한 도구가 되어야만 할 것이다.


우리는, 방향이 올바르지 않은 과잉 지식기술

인간의 두려움을 건드렸을 때 어떤 결과를 초래해왔는지는,

역사와 우리의 상상들이 이미 충분히 고지한 바가 있다.[4,5,6]


이제는, 단죄를 위한 기술이 아닌 —

단죄하지 않을 수 있는 인간,

사유할 수 있는 인간,

깨어 있는 존재로 나아가자.




정의는 위임될 수 없다.

단죄가 사라진 자리에서만, 인간의 사유는 다시 깨어난다.

그리고 사유는, 단죄가 사라진 자리에서만 깨어날 수 있다.


자, 다시 묻겠다.


우리는 지금,
인간을 ‘단죄할 수 있는 자’로 간주하고,
그 정의를 코드로 구현하려 들고 있는 것은 아닌가?


그대는 아직도
양 끝에서 서로를 단죄하기 위해 노려보고 있는가?


아니면 —
이제는 사유를 선택할 수 있는 인간으로,
스스로를 되돌려놓을 준비가 되었는가?



[1] COMPAS 사례 (미국)

Correctional Offender Management Profiling for Alternative Sanctions(COM-PAS)은 위스콘신주에서 사법보조 AI로 사용되었으나, 흑인 피고인에게 더 높은 재범 점수를 부여한다는 편향성 논란이 불거졌습니다. ProPublica의 2016년 보도를 통해 전 세계적으로 AI 판단의 윤리 문제가 공론화되었습니다.

(출처: ProPublica, “Machine Bias”, 2016)

[2] SyRI 시스템 철회 (네덜란드)

복지사기 방지를 위한 SyRI(Systeem Risico Indicatie) 시스템은 특정 지역과 계층을 대상으로 한 차별적 감시라는 이유로 2020년 네덜란드 법원에 의해 위헌 판결을 받았습니다. AI가 인간을 ‘잠재적 범죄자’로 규정하는 데 대한 윤리적 경고 사례로 회자됩니다.

(출처: NYT, “Netherlands Halts Use of Algorithmic Fraud Detection Tool”, 2020)

[3] A-level 예측 점수 사태 (영국)

2020년 영국 정부는 COVID-19로 치르지 못한 시험(A-level)을 대신해 AI 예측 점수를 도입했으나, 공립학교 학생들에게 불리한 결과가 나와 대규모 반발이 일어났고, 결국 수동 채점으로 복귀하게 되었습니다.

(출처: BBC, “A-level algorithm: What went wrong?”, 2020)

[4] EU AI Act 내 고위험군 논쟁

EU AI 법안 초안(2021~2024)은 법 집행・재판 보조를 ‘고위험군’으로 지정하고 일부 사용을 허용하고 있습니다. 그러나 국제 윤리 단체 및 시민 사회는 **“심판과 감시는 어떤 조건에서도 위임될 수 없다”**며 전면 금지를 촉구하고 있습니다.

(출처: EU Commission AI Act 초안 / AccessNow, 2023 보고서)

[5] 사법보조 AI 시범사업 (대한민국)

서울지방법원은 AI 기반 **‘판례 유사도 추천 시스템’**을 도입 중입니다. 공식 판결은 아니지만, AI 추천에서 판단이 시작되는 구조는 인간 판사의 인지적 편향을 유도할 수 있으며, 향후 위임의 책임 문제와 윤리성에 대한 논의가 필요합니다.

(출처: 서울신문, “법원, AI 판결유사도 검색 시스템 도입 추진”, 2023)

[6] 검찰 수사 보조 AI (일본)

도쿄고등검찰청은 일부 증거 정합성 분석에 AI를 도입하고 있으며, 재범 예측 및 사건 해석의 사전 판단에도 실험적으로 사용되고 있습니다. 기계적 판단이 수사 및 기소 전 과정에 영향을 미칠 수 있다는 우려도 동시 제기되고 있습니다.

(출처: NHK / Asahi Shimbun, 2024)


AwakenedEve_Banner.png

【공명하는 인류 계속】

keyword
이전 02화질서라는 이름 아래 숨은 오만