AI 규제와 알고리즘 규제의 법철학적 세 갈래 분석

"결정의 자동화"와 "선택 환경의 조작"의 개념을 중심으로

by 날개

AI와 알고리즘이 야기하는 규제 문제는 단순히 기술적 난제를 넘어선 근본적인 법철학적 질문을 제기한다. AI 규제가 "결정의 자동화"에 초점을 맞추어 인간의 자율성과 존엄을 방어하려 한다면, 알고리즘 규제는 "선택 환경의 조작"에 집중하여 시장 권력의 남용과 공정성을 회복하려 한다. 이러한 두 규제 철학의 분기는 서구 법철학의 오랜 전통인 '자연법론'(Natural Law Theory), '법실증주의'(Legal Positivism), '법해석주의'(Interpretivism)의 세 갈래 관점에서 분석될 때 그 깊이가 명확해진다.


우선, 자연법론의 관점에서 볼 때, AI 규제는 명백히 인간의 본질적 존엄성과 양도 불가능한 기본권이라는 상위 규범에 뿌리를 둔다. 자연법론은 법의 효력이 인간 이성에 기반한 도덕성, 정의와 같은 보편적 원리에 의존한다고 본다. AI가 인간의 생명, 신체, 직업 선택, 사법적 판단 등 고위험 영역에서 '결정을 자동화'할 때, 이는 인간의 통제력 상실과 AI 편향에 의한 부당한 차별이라는 위험을 내포한다. 자연법적 관점에서 이러한 자동화는 인간의 이성적 자율성(rational autonomy)을 침해하며, 보편적 정의와 공정이라는 자연법적 요청에 반한다. 따라서 EU의 AI Act(AIA)가 잠재의식적 조작 AI를 허용 불가 위험(unacceptable risk)으로 원천 금지하는 것은 인간 존엄이라는 자연법적 핵심 가치를 실정법으로 구현하려는 시도라고 해석될 수 있다. 여기서 AI 규제는 인간을 목적으로 대우해야 한다는 칸트적 정언 명령의 디지털 시대적 발현이며, 기술의 잠재적 위험으로부터 인간의 본질을 보호하는 예방적 정의(preventive justice)의 실천이다.


반면, 알고리즘 규제가 다루는 "선택 환경의 조작" 문제는 법실증주의와 그 한계에 대한 논의와 깊이 연결된다. 법실증주의는 법을 특정한 사회적 사실(권위 있는 입법 기관의 제정)에 의해 성립된 실정법(positive law)으로 간주하며, 도덕적 판단과 법의 효력을 분리한다. 알고리즘 규제의 대상인 추천 시스템, 표적 광고, 중독 설계는 기존의 경쟁법, 소비자보호법, 공정거래법과 같은 실정법의 틀 내에서 규율되어 왔다. 법실증주의적 관점에서, 알고리즘의 조작은 실정법이 설정한 공정 경쟁 질서나 소비자 권리 보호라는 규칙을 위반했을 때 비로소 문제 된다. DSA(Digital Services Act)가 초대형 플랫폼(VLOPs)에게 체계적 위험 평가 및 완화 의무(DSA, 제34조)를 부과하고 표적 광고 투명성을 요구하는 것은, 플랫폼의 기술적 행위가 기존 시장 질서라는 실정법적 구조를 어떻게 왜곡하는지에 대한 경험적 관찰에 기초한 것이다. 그러나 법실증주의는 알고리즘이 실정법의 명확한 위반 없이 교묘하게 이용자의 행동을 조작하고 사회적 담론을 왜곡할 때, 즉 법의 '틈새'(lacuna)가 발생할 때 그 한계를 드러낸다. 이 지점에서 규제는 실정법의 강제성(coercion)을 넘어선 사회적 책임(social responsibility)이라는 새로운 실정법적 의무를 플랫폼에 부과하며 진화한다.


이러한 두 전통의 한계와 중첩을 해소하고 새로운 규범적 정당성을 부여하는 역할을 법해석주의(Interpretivism)가 수행한다. 롤스(J. Rawls)나 드워킨(R. Dworkin)으로 대표되는 법해석주의는 법을 단순한 규칙의 집합이 아니라, 해당 사회의 제도적 역사와 도덕적 목적을 반영하는 '정의의 원칙'(principle of justice)에 기반하여 해석되어야 한다고 본다. AI 규제와 알고리즘 규제의 분리된 영역은 법해석주의적 관점에서 '공동체가 추구해야 할 정의로운 질서'라는 거대한 맥락 속에서 통합적으로 이해된다.


AI 규제는 법해석주의적 관점에서 '존중과 동등한 대우의 원칙'(principle of equal concern and respect)을 자동화 환경에서 어떻게 실현할 것인가를 묻는다. AI의 편향성(bias)은 기술의 중립성을 넘어, 사회에 내재된 역사적 불평등을 시스템적으로 복제하고 강화한다. 따라서 AIA가 데이터 거버넌스, 투명성, 인간 감독을 요구하는 것은, AI가 특정 사회 집단에 대한 차별 금지라는 공동체의 근본적인 정의 원칙을 훼손하지 않도록 법을 '최선의 도덕적 빛'(best moral light) 아래 해석하고 적용하려는 시도이다.


한편, 알고리즘 규제는 '민주적 정당성과 공론장의 건전성'이라는 법해석주의적 가치를 플랫폼 환경에서 재구성하는 문제이다. 알고리즘에 의한 선택 환경의 조작은 소비자의 사적 선택을 넘어, 정보의 흐름과 사회적 담론이라는 공적 영역에까지 침투한다. DSA의 체계적 위험 관리는 플랫폼이 표현의 자유, 민주주의, 공정 경쟁이라는 공동체의 근본 가치를 훼손하지 않도록 그 행위의 정당성을 적극적으로 해석하고 입증하도록 요구하는 것이다. 즉, 법해석주의는 DSA를 단순한 시장 규제를 넘어, 디지털 시대의 새로운 헌법적 질서를 확립하려는 노력으로 이해하게 만든다.


결론적으로, AI 규제와 알고리즘 규제는 서로 다른 영역에 집중하지만, 자연법론의 인간 존엄 보호를 최종 목표로 삼고, 법실증주의적 접근을 통해 시장과 기술의 위험에 대한 실정법적 구속력을 확보하며, 최종적으로 법해석주의의 틀 안에서 공동체의 정의와 평등이라는 상위 원칙을 구현하려는 통합적 법철학적 과제이다. AI는 '존중받아야 할 인간'이라는 목적론적 존재의 방어를, 알고리즘은 '정의로운 질서 속에서 자유롭게 선택하는 환경'이라는 사회적 조건의 방어를 각각 담당하며, 이 두 축이 디지털 시대의 규범적 균형을 이루는 핵심 동력이다.

작가의 이전글AI 규제와 알고리즘 규제의 철학적 분기점과 규제설계