디지털 신탁의 시대

정확성과 정당성 사이에서 인간은 어떻게 남는가

by 책 읽는 소방관

인간은 언제나 예측할 수 없는 세계 앞에서 사유의 장치를 만들어 왔다. 번개와 역병이 초월적 의지의 징표로 해석되던 시대에 신탁은 단순한 정보 제공 수단이 아니라, 불확실성을 관리하는 인식론적·정치적 기제였다. 중요한 점은 신탁의 권위가 판단의 정확성에서 비롯된 것이 아니라, 반증 불가능성과 초월성에 기반했다는 사실이다. 인간은 신의 말을 해석함으로써 세계를 통제했다고 믿었고, 그 믿음 자체가 질서를 유지하는 힘으로 작동했다. 오늘날 인공지능을 ‘디지털 신탁’이라 부르는 비유는 이 점에서 일정한 설득력을 가진다. 그러나 양자는 동일하지 않다. 고대 신탁이 검증 불가능성에서 권위를 얻었다면, 현대의 인공지능은 반복 가능한 예측과 통계적 성능을 통해 신뢰를 획득한다. 전자는 초월적 권위였고, 후자는 계산적 권위다. 그럼에도 공통점이 있다면, 둘 모두 인간 판단을 넘어서는 권위의 후보로 등장한다는 점이다.


이 글은 현실을 단순 묘사하려는 것이 아니라 하나의 사고실험을 설정하려 한다. 인간 평균을 구조적으로 능가하는 수준의 인공지능이 정책 예측, 위험 관리, 자원 배분 등 주요 공적 의사결정 영역에서 지속적으로 우월한 성과를 낸다고 가정해 보자. 이 가정은 기술 낙관이나 공포의 표현이 아니라, 민주주의의 정당성 구조를 점검하기 위한 규범적 장치다. 이러한 조건에서 우리가 직면하게 되는 질문은 단순히 “기술이 얼마나 발전했는가”가 아니라, “정당성은 어디에서 오는가”라는 문제다.


근대 민주주의는 흔히 인간의 이성 능력에 기초한 체제로 이해되지만, 그 정당성은 단층적이지 않다. 민주주의는 공정한 절차를 통해 권위를 발생시키며, 통치는 피통치자의 동의에 기반해야 한다는 원칙을 전제한다. 또한 집단적 숙고를 통해 더 나은 판단에 접근할 수 있다는 인식론적 믿음이 존재해 왔다. 동시에 권력은 비판 가능하고 교체 가능해야 하며, 오류에 대해 책임을 져야 한다는 책임성의 조건이 핵심을 이룬다. 인공지능이 도전하는 지점은 이 가운데 특히 인지적 정당성의 영역이다. 만약 인간의 토론과 투표보다 알고리즘의 예측이 더 정확하다면, “우리가 가장 잘 판단하기 때문에 우리를 통치한다”는 논리는 설 자리를 잃는다. 그러나 여기서 곧바로 “정확성이 곧 정당성이다”라는 결론이 도출되는 것은 아니다. 정확성은 정당성의 중요한 요소일 수 있지만, 충분조건은 아니다.


가정한 사고실험을 조금 더 밀어붙여 보자. 한 시스템이 장기적 재난을 예방하고, 경제적 불평등을 최소화하며, 정책 실패 확률을 인간보다 현저히 낮춘다면, 판단의 정확성만을 기준으로 삼을 경우 결정 권한을 그 시스템에 귀속시키는 것이 논리적으로 일관된다. 정치는 효율성과 예측 가능성 중심으로 재편될 것이며, 인간의 참여는 승인 절차로 축소될 위험이 있다. 그러나 정치 공동체는 단순한 문제 해결 기계가 아니다. 정치는 주어진 목표를 최적화하는 기술이 아니라, 어떤 목표를 설정할 것인가를 둘러싼 공적 공간이다. 여기서 정당성은 다른 차원에서 재구성되어야 한다.


첫째, 자율성의 차원이 있다. 자율성은 최적의 결정을 내린다는 의미가 아니라, 스스로 규범을 설정하고 그에 따라 행위한다는 사실에서 의미를 갖는다. 설령 더 효율적인 선택이 존재하더라도, 강제된 결정과 자기 입법에 따른 결정은 정치적으로 동일하지 않다. 민주주의는 효율 극대화 체제가 아니라 자기 통치의 제도적 형식이다. 둘째, 가치 설정의 차원이 있다. 인공지능은 주어진 목표에 대해 수단을 최적화할 수 있지만, 어떤 가치를 우선시할 것인지는 계산 이전의 문제다. 자유와 평등, 안전과 창의성, 현재 세대의 번영과 미래 세대의 지속 가능성 사이의 우선순위는 수학적 정합성만으로 확정되지 않는다. 가치의 서열화는 갈등과 합의를 포함하는 정치적 과정이다. 셋째, 책임성과 통제 가능성이 정당성의 핵심을 이룬다. 권력은 오류를 범할 수 있어야 하며, 그 오류에 대해 설명하고 교체될 수 있어야 한다. 설령 인공지능이 인간보다 정확하더라도, 비판 불가능하고 교체 불가능한 권위라면 민주적 정당성을 충족하기 어렵다. 넷째, 공동의 유한성이 있다. 정치 공동체는 완전한 존재들 사이의 계약이 아니라, 취약하고 오류를 범하며 결과를 감당해야 하는 존재들 사이의 상호 인정 위에 형성된다. 함께 위험을 감수하고 함께 책임을 지는 구조가 정당성의 윤리적 기반을 이룬다. 고통을 분담하지 않는 존재가 최종 결정을 내릴 때, 공동체의 대칭성은 붕괴된다.


따라서 문제는 기술을 전면적으로 수용할 것인가 거부할 것인가의 이분법으로 환원되지 않는다. 인공지능이 인간을 대체하는 모델, 인간을 보조하는 협력 모델, 법적·헌법적 한계 속에서 엄격히 통제되는 모델 등 다양한 경로가 가능하다. 현실적으로 중요한 것은 기술의 활용 여부가 아니라, 권위의 근거를 어디에 둘 것인가다. 만약 판단의 정확성을 정당성의 유일한 기준으로 삼는다면, 정치 체제는 점차 알고리즘적 관리 체제로 이동할 것이다. 반대로 정당성을 자율성, 가치 설정, 책임성, 그리고 공동의 유한성에 두는 한, 인공지능은 통치자가 아니라 도구로 남을 수 있다.


결국 쟁점은 인간이 더 정확한 존재가 될 것인가, 아니면 스스로를 통치하는 존재로 남을 것인가의 문제로 수렴한다. 정확성은 중요하다. 그러나 정치적 정당성은 정확성만으로 완성되지 않는다. 그것은 함께 규범을 만들고, 함께 오류를 감수하며, 그 결과를 함께 책임지는 구조 속에서 성립한다. 초지능의 시대가 도래하더라도, 우리가 어떤 존재로 남을 것인가에 대한 결정은 여전히 인간의 몫이다.

작가의 이전글포용적 제도의 임계점과 인식론적 전환