[진리 탐구 07] 칸트 vs 공리주의
서울 도심의 어느 교차로. 한 대의 자율주행차가 시속 60km로 달리고 있다. 탑승자는 한 명의 대학생. 학기 말 과제를 제출하기 위해 서둘러 도서관으로 향하던 길이다. 그런데 갑자기 보도 위에서 한 무리의 아이들이 도로로 뛰어들었다. 제동 거리는 턱없이 짧다.
AI는 0.5초 안에 결정을 내려야 한다.
왼쪽으로 틀면 차는 건물 벽에 충돌해 탑승자는 사망할 것이다.
그대로 직진하면 다섯 명의 아이가 목숨을 잃는다.
그 순간, 자동차의 알고리즘은 어떤 선택을 내려야 할까?
그리고 더 중요한 질문이 있다. 이 결정을 누가 내려야 하는가?
프로그래머인가, 정부인가, 아니면 데이터를 학습한 AI 스스로인가?
이 장면은 단순한 상상이 아니다. 이미 세계 곳곳에서 자율주행차의 윤리적 딜레마는 실제 정책 논의로 이어지고 있다. MIT 미디어랩이 진행한 Moral Machine 실험은 200개국 2백만 명 이상이 참여하여, "누구를 살릴 것인가"에 대한 윤리적 직관을 조사했다. 국가와 문화마다 결과는 달랐다. 어떤 사회는 젊은이를, 어떤 사회는 노인을 우선시했다. 어떤 사회는 법을 지키는 보행자를 우선했고, 다른 사회는 다수의 생명을 구하는 것을 선택했다. 즉, AI의 윤리적 결정은 단순한 기술 문제가 아니라, 인간 사회의 가치관과 직결된 문제였다.
그러나 자율주행차만이 아니다.
- 의료 현장에서는 의료 AI가 환자의 생존 가능성을 계산해 치료 우선순위를 추천한다. "노인 환자보다 젊은 환자를 먼저 살릴 것인가?"라는 질문은 이미 의료윤리위원회의 현실적 과제다.
- 법정에서는 판사 대신 AI가 재범 가능성을 예측하고, 양형 기준을 제시한다. "전과 기록과 데이터 패턴이 높은 위험을 가리킨다면, 우리는 그 사람을 더 가혹하게 다루어도 되는가?"라는 의문이 뒤따른다.
- 채용 과정에서도 청년들이 마주하는 현실은 냉혹하다. 수많은 이력서가 AI 필터링을 거쳐 탈락하거나 통과한다. "내 삶의 가능성이 몇 줄의 데이터로 평가받는다면, 나는 인간으로서 존엄을 지킬 수 있는가?"라는 질문이 청년들의 마음을 무겁게 한다.
이 모든 사례에서 공통적으로 등장하는 것은 ‘AI의 판단이 인간의 삶을 좌우한다’는 사실이다. 그 판단은 때로 효율적이고, 때로는 무자비하다. 그렇다면 우리는 AI에게 어떤 윤리적 나침반을 쥐여주어야 할까?
철학은 이 질문 앞에서 다시 소환된다.
칸트는 말한다. "인간은 결코 수단이 될 수 없고, 언제나 목적 그 자체여야 한다." → 자율주행차는 다수를 살리기 위해 한 사람을 희생시켜서는 안 된다는 목소리다.
벤담과 밀은 반박한다. "행위의 옳고 그름은 그 결과가 가져오는 행복의 크기로 판단된다." → 다섯 명을 살릴 수 있다면, 한 명의 희생은 정당화될 수 있다는 계산이다.
AI는 지금 이 두 철학 사이의 한가운데 서 있다.
특히 이 논쟁은 청년 세대에게 더욱 절박하다.
그들은 AI 채용 시스템을 통과해야 취업할 수 있고, AI 학습 데이터 속에서 ‘평가 대상’으로 살아가며, AI 의사결정의 수혜자이자 피해자가 된다. 동시에, AI 산업의 주도적 개발자이자 윤리적 설계자가 되기도 한다. 즉, 청년은 AI 윤리의 실험대이자 설계자인 이중적 위치에 서 있는 것이다.
그렇다면 질문은 더 명확해진다.
자율주행차의 핸들은 과연 누구의 철학으로 설계되어야 하는가?
의료와 법률, 채용 현장에서 AI의 판단은 존엄을 우선해야 하는가, 효율을 우선해야 하는가?
그리고 무엇보다, 청년 세대는 이 거대한 윤리적 선택 앞에서 어떤 목소리를 내야 하는가?
이 글의 여정은 바로 그 물음에서 시작한다.
칸트와 공리주의라는 두 철학자의 대립은 추상적 이론이 아니라, AI가 매일 던지는 선택의 순간 속에서 다시 살아난다. 그리고 그 철학적 논쟁은 곧 오늘날 청년 세대가 스스로의 삶과 사회의 미래를 어떻게 설계할 것인지를 가늠하는 길잡이가 될 것이다.
18세기 말 유럽의 철학적 무대는 두 개의 거대한 목소리로 가득 차 있었다. 한쪽에는 도덕의 절대성을 외친 칸트가 있었고, 다른 한쪽에는 행복과 효용을 기준으로 삼은 공리주의자들(벤담과 밀)이 있었다. 두 입장은 서로를 날카롭게 비판하면서도, 이후 수백 년 동안 서양 윤리철학의 기초를 이루었다. 오늘날 AI 윤리 문제를 논할 때에도 우리는 여전히 이 두 철학의 언어를 빌려 토론한다.
칸트(1724~1804)는 쾨니히스베르크라는 작은 도시에서 평생을 살았지만, 그의 사유는 전 세계 도덕철학의 지형을 뒤흔들었다.
그가 던진 핵심 명제는 단순하다. “인간은 결코 수단이 아니라, 언제나 목적 그 자체여야 한다.”
칸트는 도덕을 결과가 아니라 의지와 원칙에서 찾았다. 누군가를 돕는 행위가 선한 것은 그 결과가 행복을 가져오기 때문이 아니라, 그것이 옳은 원칙에 따른 행위이기 때문이다. 그는 이를 정언명령(Categorical Imperative)이라 불렀다.
대표적인 정식은 이렇다.
1. “네 행위의 준칙이 언제나 동시에 보편적 입법의 원리로 타당할 수 있도록 행위하라.”
2. “인간을 단지 수단으로 대하지 말고, 언제나 목적 그 자체로 대하라.”
칸트에게 도덕은 타협할 수 없는 절대적 원칙이었다. 수많은 이해관계나 결과적 효용이 앞에 놓여 있어도, 인간의 존엄은 양보할 수 없는 기준이었다.
이 사유는 오늘날에도 강력한 울림을 준다. 예컨대 자율주행차의 사고 상황에서 “다섯 명을 살리기 위해 한 명을 희생시켜도 되는가?”라는 질문에 칸트는 단호히 말한다. “아니다. 인간을 단순히 수단으로 삼아서는 안 된다.” 즉, 다수를 살리기 위해 소수를 희생시키는 계산은 존엄의 원칙에 어긋난다는 것이다.
칸트의 입장은 오늘날 인권 담론과 긴밀히 연결된다. 국가가 어떤 정책을 추진하더라도, 기업이 어떤 결정을 내리더라도, 그 안에 인간을 ‘수단’으로만 취급하는 순간 도덕적 정당성은 무너진다는 것이다.
이에 맞선 철학은 공리주의(Utilitarianism)였다.
제러미 벤담(1748-1832)과 존 스튜어트 밀(1806-1873)은 도덕의 기준을 행위의 결과에서 찾았다. 인간은 쾌락을 추구하고 고통을 피하는 존재이며, 따라서 도덕의 목적은 가능한 많은 사람들에게 가능한 큰 행복을 가져다주는 것이라는 논리였다. 벤담은 이를 “최대 다수의 최대 행복”으로 표현했다.
벤담은 심지어 쾌락과 고통을 계산하려 했다. 강도, 지속성, 확실성, 범위 같은 요소를 고려해 행복을 산술적으로 계산할 수 있다고 믿었다. 마치 수학 공식처럼 선악을 판별할 수 있다고 본 것이다.
밀은 여기에서 한 걸음 더 나아가, 쾌락에도 질적 차이가 있다고 주장했다. 단순히 육체적 즐거움보다 지적이고 도덕적인 즐거움이 더 고차원적이라는 것이다. 그는 이를 통해 공리주의가 단순히 “숫자 계산”에 그치지 않고, 삶의 질적 향상과도 연결될 수 있음을 강조했다.
공리주의적 관점에서 보면, 자율주행차는 다섯 명의 아이를 구하기 위해 한 명의 탑승자를 희생시키는 것이 정당하다. 다섯의 행복과 생명이 하나보다 크기 때문이다. 의료 현장에서도 마찬가지다. 한정된 자원을 배분할 때 더 많은 생명을 구하는 쪽이 윤리적으로 옳다고 본다.
칸트와 공리주의는 도덕의 출발점에서부터 갈린다.
- 칸트: 행위의 동기와 원칙이 중요하다. 결과는 변덕스럽고 통제할 수 없기에, 오직 의무와 존엄만이 도덕의 근거다.
- 공리주의: 행위의 결과가 중요하다. 아무리 고결한 동기로 행동했더라도 결과가 파괴적이라면 그것은 도덕적이라 할 수 없다.
두 철학은 서로 보완되기도 하지만, 때로는 날카로운 대립을 이룬다. 예컨대 전쟁에서 무고한 시민을 희생시켜 더 큰 전쟁을 막을 수 있다면, 공리주의는 이를 긍정할 가능성이 높다. 반면 칸트는 어떤 상황에서도 시민을 수단으로 삼는 행위를 정당화하지 않는다.
이 고전적 논쟁은 AI 의사결정 앞에서 새롭게 살아난다.
자율주행차는 단순한 교통수단이 아니라, 철학적 판단을 내리는 장치다. 의료 AI는 환자의 생명과 죽음을 저울질한다. 판결 알고리즘은 재범 가능성을 근거로 형량을 제시한다.
이때 우리는 반드시 물어야 한다.
AI는 칸트의 원칙처럼, 개인의 존엄을 최우선해야 하는가?
아니면 공리주의적 계산처럼, 더 많은 행복을 위해 일부 희생을 감수해야 하는가?
특히 청년 세대에게 이 질문은 실존적이다. 그들은 취업 과정에서 AI 알고리즘에 의해 평가받고, 사회 곳곳에서 데이터화된 존재로 살아간다. 동시에 AI 연구와 개발을 주도하며 새로운 세대의 윤리적 기준을 설계하는 주체가 된다. 즉, AI 윤리 논쟁은 단순히 학문적 사유가 아니라 청년 세대의 삶의 조건을 결정하는 철학이 된다.
임마누엘 칸트의 이름을 떠올리면 가장 먼저 등장하는 문장은 아마도 이것일 것이다.
“네가 행위하는 준칙이 언제나 동시에 보편적 입법의 원리로 타당할 수 있도록 행위하라.”
그의 도덕 철학의 뼈대를 이루는 정언명령(Categorical Imperative)이다.
칸트가 살았던 18세기 프로이센은 정치적 격변과 계몽주의 사상이 뒤섞이던 시기였다. 교회 권위는 여전히 강력했지만, 과학혁명과 계몽주의가 인간 이성의 힘을 강조하며 세계관을 바꾸고 있었다. 이런 시대에 칸트가 내세운 도덕 철학은 단순한 학문적 이론이 아니라, 혼란스러운 사회 속에서 인간이 어떤 기준으로 살아야 하는지를 묻는 실존적 응답이었다.
칸트의 철학의 핵심은 바로 조건 없는 의무다.
그는 모든 상황과 결과를 넘어, 보편적이고 변하지 않는 도덕 법칙이 존재한다고 보았다. 사람들은 때로 자신의 이익이나 상황적 유불리에 따라 행동한다. 그러나 그런 행위는 진정한 도덕적 행위가 아니다.
예를 들어, 내가 이웃을 도운 것이 단순히 그가 나중에 나를 도와줄 것이라 기대해서라면, 그것은 이익에 따른 계산이지 도덕적 행위가 아니다. 도덕적 행위란 오직 “그것이 옳기 때문에” 실행되는 것이다.
이 점에서 칸트는 기존의 경험론적·결과주의적 윤리관을 단호히 거부했다. 행복이나 효용 같은 결과는 언제든 변할 수 있고, 사람마다 다르게 해석될 수 있다. 그러나 의무에 따른 행위는 변하지 않는다. 그는 이를 정언명령이라는 이름으로 불렀다.
정언명령은 모든 합리적 존재가 지켜야 할 보편적 규칙이다. “거짓말하지 말라”, “약속을 지켜라”, “인간을 존중하라” 같은 원칙은 어떤 상황에서도 타협될 수 없다. 만약 내가 거짓말을 정당화한다면, 그 순간 “거짓말이 허용된다”는 보편 법칙이 세워지게 되고, 결국 신뢰라는 공동체의 기반은 무너진다. 그러므로 보편적 입법 가능성을 잣대로 삼아야 한다는 것이다.
칸트의 또 다른 핵심 정식은 이렇다.
“인간을 단지 수단으로 대하지 말고, 언제나 동시에 목적 그 자체로 대하라.”
여기서 칸트는 인간의 존엄을 절대적 기준으로 세웠다. 사람은 단순히 어떤 목표를 이루기 위한 도구가 될 수 없다. 예컨대 직장에서 상사가 직원을 단순히 생산성의 도구로만 여길 때, 그는 칸트적 의미에서 도덕을 위반하는 것이다. 인간은 그 자체로 존엄한 존재이기에, 항상 존중받아야 한다.
이 사유는 현대 사회 곳곳에서 중요한 기준으로 작동한다. 헌법이 보장하는 인간의 기본권, 인권 선언, 의료 윤리의 원칙들이 모두 이 칸트적 철학을 근거로 삼고 있다. “한 인간의 생명과 존엄은 다수의 편의보다 우선한다.”
이것이 칸트 윤리학의 출발점이다.
자율주행차 사고 상황을 떠올려 보자. 만약 차량이 불가피하게 충돌해야 한다면, 다섯 명의 보행자를 구하기 위해 한 명의 탑승자를 희생시켜야 하는가?
공리주의라면 아마 “다섯이 하나보다 크다”는 결론을 내릴 것이다. 하지만 칸트는 다르다. 그는 인간을 숫자의 연산으로 판단하는 것을 거부한다. 어떤 개인도 단순히 더 큰 수를 위한 희생의 수단으로 대체될 수 없기 때문이다.
의료 현장에서도 비슷한 딜레마가 있다. 한정된 자원을 배분할 때, 젊은 사람을 살릴 확률이 높다는 이유로 노인의 생명을 포기하는 것은 칸트적 기준에서 용납되지 않는다. 모든 인간은 나이, 건강 상태, 사회적 위치와 상관없이 존엄한 존재이기 때문이다.
청년 세대에게 이 문제는 특히 실감난다. 취업 과정에서 AI 알고리즘은 방대한 데이터를 분석해 합격자와 탈락자를 가른다. 그러나 만약 AI가 단순히 학점, 자격증, 특정 키워드만으로 사람을 평가한다면, 그것은 인간을 전체적 존엄이 아닌 기능적 수단으로 취급하는 셈이다. 칸트는 이 같은 상황을 강력히 비판할 것이다. 인간을 데이터의 조합으로 환원하는 순간, 도덕은 사라지고 기술만 남게 된다.
오늘날 청년들은 끊임없이 평가받는다. 대학 입시, 취업, 사회적 관계 속에서 ‘점수’와 ‘수치’로 환원된다. AI 채용 시스템은 이 과정을 더욱 가속화한다.
칸트의 철학은 여기서 분명한 메시지를 던진다.
“너는 점수가 아니라 인간이며, 수단이 아니라 목적이다.”
이 원칙은 청년 세대가 자신의 삶을 바라보는 방식에도 깊은 울림을 준다. 경쟁 사회 속에서 자신을 ‘스펙’이나 ‘스코어’로 환원하는 순간, 인간 존엄의 본질은 사라진다. 그러나 칸트는 말한다. 아무리 시스템이 인간을 평가하려 해도, 인간은 단순한 숫자가 아니며, 그 자체로 목적이라는 것이다.
이 메시지는 청년 세대가 AI 시대의 불안과 압박 속에서도 자기 정체성을 지키는 힘이 될 수 있다.
칸트의 철학은 단지 “이론”이 아니라, 오늘의 청년에게 존엄을 잃지 않고 살아가는 실천적 기준을 제공한다.
물론 칸트의 철학은 언제나 찬양만을 받지는 않았다.
“인간 존엄은 절대적”이라는 그의 입장은 현실의 복잡한 상황에서 지나치게 엄격해 보일 수 있다. 예를 들어, 전쟁 중 한 사람을 희생시켜 수천 명을 구할 수 있다면, 그래도 희생을 거부해야 하는가? 칸트의 대답은 “그렇다”이다. 하지만 이는 현실 정치나 위기 상황에서는 지나치게 경직된 기준처럼 보인다.
이 때문에 칸트의 철학은 이후 공리주의와의 논쟁을 통해 보완되어 왔다. 절대적 존엄의 원칙은 인간 사회가 결코 포기할 수 없는 기준이지만, 동시에 현실의 다양성과 결과를 고려하는 목소리 역시 필요하다.
AI 윤리 논쟁도 마찬가지다. AI가 무조건 “개인의 존엄”만을 기준으로 판단한다면, 다수의 안전이 위협받을 수도 있다. 그렇다고 단순히 다수의 행복만을 계산하는 것도 위험하다. 칸트의 사유는 여전히 오늘의 기준을 세우는 첫 번째 기둥이지만, 그것만으로는 충분하지 않다. 그러나 그는 우리에게 분명한 원칙을 남겼다. “모든 인간은 존엄하다.” 이 단호한 선언은 여전히 AI 시대의 도덕적 나침반으로 빛난다.
칸트의 윤리학은 한마디로 요약할 수 있다.
“존엄은 타협할 수 없는 기준이다.”
오늘날 청년들이 AI 시스템과 경쟁 사회 속에서 자신을 잃지 않기 위해, 가장 먼저 붙잡아야 할 철학적 기둥은 바로 이 원칙이다.
AI가 점수로 당신을 평가할 때,
기업이 효율성만을 강조할 때,
정치가 다수의 이익만을 내세울 때,
칸트는 청년들에게 묻는다.
“너는 단지 수단이냐, 아니면 목적 그 자체냐?”
이 질문에 스스로 “나는 목적이다”라고 답하는 순간, 철학은 청년 세대의 삶 속에서 다시 살아난다.
18세기 말, 제러미 벤담은 당시 영국 사회의 복잡한 문제를 바라보며 이렇게 선언했다.
“가장 큰 수의 사람들에게 가장 큰 행복을 주는 것이 곧 선이다.”
그는 도덕을 추상적 개념이나 절대적 원리에서 찾지 않았다. 대신, 인간이 본능적으로 쾌락을 추구하고 고통을 피하려 한다는 단순한 사실에서 출발했다. 그렇다면 윤리의 기준은 분명하다. 사회 제도나 정책, 개인의 선택이 얼마나 많은 사람들에게 즐거움과 유익을 주는가로 평가할 수 있다.
벤담은 이 원칙을 ‘공리(utility)’라는 개념으로 정식화했다. 그는 마치 수학자가 공식을 계산하듯, 행복과 고통을 측정하려 했다. 쾌락의 강도, 지속성, 확실성, 범위를 따져 ‘쾌락 산술’(hedonic calculus)이라는 틀을 만들기도 했다. 도덕을 측정 가능하고 계산 가능한 기준으로 바꾸려는 이 시도는 당시로서는 혁명적이었다. 법률, 정치, 경제 제도에 적용할 수 있는 ‘실용적 도덕학’이 탄생한 것이다.
그러나 존 스튜어트 밀은 벤담의 단순 계산법에 의문을 던졌다.
“모든 쾌락이 동일한가?”
밀은 아니라고 답했다. 그는 벤담식 공리주의가 지나치게 기계적이며, 인간의 정신적·문화적 가치를 무시한다고 보았다. 예컨대 맛있는 음식을 먹는 즐거움과 위대한 예술을 감상하는 기쁨을 같은 수준에서 비교할 수 있을까? 밀은 “질적으로 더 높은 행복”이 있다고 보았다.
그는 이렇게 말한다.
“돼지가 되는 만족보다, 불만족한 인간이 되는 편이 낫다. 어리석은 자의 행복보다, 불만족한 소크라테스가 되는 편이 낫다.”
이는 단순히 즐거움의 양을 넘어서, 인간다운 삶에 어울리는 질적 가치가 있음을 강조한 것이다. 교육, 문화, 자유 같은 요소는 단기적 쾌락보다 훨씬 더 깊은 행복을 낳는다. 따라서 공리주의는 단순한 수학적 계산이 아니라, 인간의 존엄과 정신적 성장을 포함하는 폭넓은 행복 이론으로 발전했다.
공리주의가 가진 가장 큰 장점은 현실 적용 가능성이다. 정치, 법, 경제 등 다양한 영역에서 “최대다수의 행복”이라는 기준은 매우 유용하다.
의료 정책에서 한정된 예산을 어떻게 분배할 것인가?
자율주행차의 알고리즘은 어떤 결정을 내려야 하는가?
사회적 갈등 상황에서 누구의 권리를 우선시해야 하는가?
이런 문제에 직면했을 때, 공리주의는 실용적이고 직관적인 기준을 제공한다. 예를 들어, 백신 배분을 고민할 때, 가장 많은 사람의 생명을 구하는 방식이 곧 공리주의적 선택이 된다. 정책 결정자들이 공리주의를 매력적으로 여겨온 이유가 여기에 있다.
오늘날 공리주의는 AI 의사결정과 깊은 관련을 맺는다. AI는 방대한 데이터를 분석해 “어떤 선택이 가장 많은 사람에게 이익을 주는가”를 계산한다.
예컨대 자율주행차 알고리즘은 충돌 상황에서 “다수를 살릴 것인가, 한 명을 보호할 것인가”를 판단해야 한다. 의료 AI는 제한된 병상이나 자원을 어떻게 분배할지를 계산한다. 심지어 사법 AI는 판결 데이터에서 형량의 일관성을 높이기 위해 다수의 선례를 반영한다.
이 모든 과정은 공리주의적 계산 모델에 가깝다. 인간의 직관이나 윤리적 망설임보다, 효율과 다수의 행복을 극대화하려는 알고리즘적 선택이 앞서기 때문이다. AI 시대는 벤담이 꿈꿨던 “쾌락 산술”의 또 다른 버전, 즉 ‘디지털 공리주의’의 실험장이라고 할 수 있다.
그러나 바로 이 지점에서 청년 세대는 불안을 느낀다.
AI 채용 시스템은 “최적의 인재”를 선발하기 위해 학력, 경력, 점수, 키워드를 기준으로 한다. 그 과정에서 개인의 특수한 사정이나 보이지 않는 가능성은 무시된다. 효율성과 다수의 이익을 극대화하려는 논리는 결국 개인의 존엄과 독창성을 놓치게 된다.
한 청년이 말했다.
“AI 면접에서 탈락했을 때, 제가 부족한 사람이라는 결론보다는 그냥 ‘데이터에 맞지 않는 사람’이라는 낙인이 찍힌 것 같았어요.”
이 경험은 단순히 채용 실패의 좌절이 아니라, 인간이 하나의 변수로만 취급되는 현실에 대한 불안이었다.
공리주의는 다수를 위한 합리적 기준처럼 보이지만, 그 속에서 소수의 권리와 개인의 존엄은 종종 희생된다. 청년 세대는 바로 이 불균형을 가장 먼저 체감하고 있다.
공리주의가 직면한 가장 큰 비판은 바로 소수의 희생을 정당화할 수 있다는 점이다.
예컨대 한 마을에 열 명이 살고 있는데, 아홉 명이 행복해지기 위해 한 명을 희생시킨다면?
공리주의적 계산은 이것을 합리적으로 보일 수 있다. 그러나 우리는 본능적으로 그 선택이 옳지 않다고 느낀다.
칸트의 철학이 “한 인간의 존엄은 수로 환원될 수 없다”고 말하는 이유가 바로 여기 있다. 공리주의는 현실적 문제 해결에는 강력하지만, 인간 존엄의 절대적 가치를 보장하지 못하는 취약점이 있다.
그럼에도 불구하고 청년 세대에게 공리주의는 여전히 중요한 교훈을 남긴다.
사회적 의사결정에서 다수의 행복을 고려하는 태도.
정책과 제도를 평가할 때 실질적 결과를 따지는 실용성.
개인의 선택을 넘어 공동체 전체의 효용을 고민하는 시각.
이는 청년들이 개인적 자유와 존엄만이 아니라, 공동체 전체의 행복과 균형을 함께 고려해야 함을 일깨운다. AI 시대의 딜레마 속에서도 “나는 어떤 선택이 가장 많은 사람의 행복을 보장할 수 있는가?”라는 질문은 여전히 유효하다.
따라서 공리주의는 청년들에게 ‘사회적 책임’을 묻는 철학으로 작동한다. 다만 그것이 소수의 희생을 정당화하지 않도록, 칸트적 존엄의 원칙과 함께 조화되어야 한다.
벤담의 단순한 계산법, 밀의 질적 행복론, 그리고 오늘날 AI의 효율성은 모두 공리주의의 연장선에 있다. 공리주의는 사회적 문제 해결에 실질적 기준을 제공하며, 특히 AI 시대에 가장 널리 활용되는 윤리 모델이 되었다. 그러나 동시에 그것은 인간 존엄이라는 보편적 가치를 위협할 수도 있다.
청년 세대는 이 철학을 통해 배운다. “공리주의는 유용하지만, 그것만으로는 부족하다.”
다수의 행복을 고려하되, 소수의 권리와 인간 존엄을 지켜내는 균형. 이것이 공리주의가 오늘날 우리에게 남기는 가장 큰 메시지다.
한 국제 포럼의 무대. 주제는 “AI 시대, 윤리적 딜레마를 어떻게 해결할 것인가.”
청중석에는 대학생과 청년 연구자들이 빼곡히 앉아 있다. 무대에는 세 개의 의자가 놓여 있고, 그 위에 두 철학자가 등장한다. 한쪽에는 절도 있고 단호한 눈빛의 칸트, 다른 한쪽에는 현실적이고 설득력 있는 어조의 공리주의자(벤담과 밀의 통합된 화자). 사회자가 선언한다.
“오늘 토론은 인공지능의 의사결정에서 윤리적 기준을 세우는 문제를 중심으로 진행됩니다. 각 철학자께서는 자신의 입장을 말씀해 주시죠.”
먼저 사회자가 문제를 제시한다.
“첫 번째 사례입니다. 자율주행차가 도로 위에서 피할 수 없는 사고 상황에 직면합니다. 다섯 명을 구하려면 한 사람을 희생시켜야 하는 경우, AI는 어떻게 결정해야 할까요?”
“답은 명확합니다. 다섯 명의 목숨이 한 명의 목숨보다 더 큰 행복을 보장합니다. AI는 최대다수의 최대행복을 추구해야 합니다. 수학적으로도, 사회적으로도, 다섯 명을 살리는 선택이 옳습니다. 인간은 언제나 다수의 이익을 고려해야 합니다. AI의 장점은 바로 이런 냉정한 계산을 인간보다 더 정확히 수행할 수 있다는 점입니다.”
청중의 일부가 고개를 끄덕이며 수긍한다. 효율적이고 명쾌한 답처럼 들리기 때문이다.
그러나 칸트는 단호하게 고개를 젓는다.
“아니오. 인간은 단순한 수단이 아닙니다. 설령 다섯 명을 구한다 해도, 그 한 사람을 ‘희생시킬 수 있는 수단’으로 취급한다면 그것은 도덕법칙을 위반하는 것입니다. 한 사람의 존엄은 다섯 사람의 행복과 비교해 저울질될 수 없습니다. AI가 인간을 계산식의 숫자로만 다룬다면, 그것은 이미 인간의 본질을 파괴하는 것입니다.”
청년 청중들 사이에서 술렁임이 일어난다. ‘효율 vs 존엄’의 대립이 또렷해졌다.
사회자가 두 번째 사례를 제시한다.
“중환자실에 병상이 하나뿐입니다. 두 명의 환자가 있는데, 한 사람은 80세 노인이고 다른 한 사람은 20대 청년입니다. AI가 누굴 먼저 치료해야 할까요?”
“이 경우도 공리주의는 명확한 답을 줍니다. 20대 청년을 살리는 것이 더 많은 행복을 창출합니다. 그는 앞으로 수십 년을 살아가며 사회에 기여할 수 있고, 그의 삶에서 비롯되는 유익은 훨씬 크지요. 사회 전체의 행복을 고려한다면, 미래의 삶이 더 긴 쪽을 선택하는 것이 합리적입니다.”
칸트는 얼굴을 굳힌 채 말한다.
“이것이 바로 공리주의의 치명적 한계입니다. 인간의 생명을 ‘가치의 양’으로 평가하는 순간, 우리는 이미 윤리적 기준을 잃습니다. 노인의 생명은 청년의 생명만큼 존엄합니다. 생명의 길이가 짧다고 해서, 사회적 기여가 적다고 해서, 그 존엄이 줄어드는 것이 아닙니다. 인간은 그 자체로 목적이기에, AI는 결코 ‘누가 더 유용한가’를 기준으로 결정해서는 안 됩니다.”
청년 청중 중 한 명이 손을 들어 질문한다.
“하지만 칸트 선생님, 현실에서는 언제나 선택을 해야 합니다. 모든 생명을 동시에 구할 수 없다면, 결국 어떤 기준을 세워야 하지 않나요?”
칸트는 잠시 청년을 바라보다가 대답한다.
“맞습니다. 선택은 불가피할 수 있습니다. 그러나 그 선택은 ‘누가 더 가치 있는가’가 아니라, 보편적 원칙에 입각해야 합니다. 예를 들어 무작위 추첨이나 공정한 절차는 가능하지만, 결코 인간을 ‘계산 가능한 도구’로 환원해서는 안 됩니다.”
사회자가 세 번째 사례를 꺼낸다.
“최근 AI 판사가 시범 운영되고 있습니다. 데이터에 기반해 판결을 내리는 방식입니다. 다수의 사건에서 일관된 판결을 내릴 수 있다는 점에서 효율적이라는 평가도 있습니다. 하지만 개인 사정이나 맥락은 반영하기 어렵다는 지적이 있는데요, 이에 대해 어떻게 보십니까?”
“AI 판결은 인간의 편향을 줄이고, 더 많은 사람에게 예측 가능한 결과를 제공합니다. 이는 사회적 안정과 신뢰를 증진시키는 결과를 낳습니다. 개별 사정에 집착하다 보면 오히려 판결의 일관성이 무너지고, 사회 전체의 효용이 줄어듭니다. 다수에게 공정함을 보장하려면, AI의 효율적인 계산이 오히려 더 낫습니다.”
칸트는 목소리를 낮추되 더욱 단호하게 말한다.
“그러나 법은 단순히 ‘다수의 이익’만을 위해 존재하지 않습니다. 법은 각 개인의 권리를 존중하는 원칙이어야 합니다. AI가 통계적 평균에 따라 판결한다면, 개별 인간의 독특한 상황과 존엄은 무시됩니다. 인간을 단지 데이터 집합 속 점 하나로 다룬다면, 그것은 정의의 이름으로 불의를 저지르는 것입니다.”
이때 청중석에서 한 청년이 일어나 목소리를 높인다.
“두 분의 말씀이 모두 이해됩니다. 하지만 저희 세대는 매일 AI와 함께 살아가고 있습니다. 취업에서, 학업에서, 심지어 연애와 일상적인 소비까지 AI가 추천과 결정을 내립니다. 우리는 효율을 따르지 않으면 뒤처지지만, 동시에 존엄이 무시되는 것도 느낍니다. 그렇다면 저희는 어떻게 균형을 잡아야 합니까? ‘행복을 위한 계산’과 ‘존엄을 위한 원칙’ 중 무엇을 따라야 합니까?”
사회자가 두 철학자에게 시선을 돌린다.
“청년이여, 세상은 결국 선택과 결과로 움직입니다. 다수의 행복을 고려하는 태도는 사회를 더 안정적이고 지속 가능하게 만듭니다. 당신이 내리는 작은 선택조차도, 주변 사람들의 행복에 영향을 미칩니다. 그러니 최대다수의 행복을 잊지 말고 살아가십시오.”
“그러나 잊지 말아야 합니다. 아무리 많은 사람의 행복을 가져온다 해도, 한 사람의 존엄을 희생하는 순간, 그 행복은 불완전합니다. 네가 어떤 상황에서도 ‘사람을 단순한 수단으로 취급하지 않는다’는 원칙을 지킬 수 있다면, 너의 선택은 언제나 옳을 것입니다.”
토론장은 잠시 조용해진다. 청년들은 서로의 얼굴을 바라보며 깊은 생각에 잠긴다. 누군가는 공리주의자의 현실적 힘에 설득되었고, 누군가는 칸트의 절대적 존엄에 마음을 빼앗겼다. 그러나 분명한 것은, 두 철학자의 목소리가 AI 시대의 윤리 딜레마를 가장 첨예하게 드러냈다는 사실이다.
사회자가 마무리한다.
“오늘 토론은 승패를 가리기 위한 것이 아닙니다. 우리는 AI 시대라는 새로운 현실 속에서 여전히 인간의 존엄과 다수의 행복을 동시에 지켜야 합니다. 두 철학자의 목소리는 우리가 어디로 가야 할지를 고민하게 만드는 길잡이가 될 것입니다.”
2018년 미국 애리조나 주에서 발생한 우버 자율주행차 사고는 세계적으로 큰 충격을 주었다. 보행자가 도로를 건너던 중 자율주행차가 제때 멈추지 못해 인명 피해가 발생했기 때문이다. 이 사건은 기술의 미비 문제를 넘어, “AI가 위기 상황에서 누구를 보호해야 하는가”라는 윤리적 질문을 던졌다.
- 공리주의 관점에서는, AI는 최대 다수의 생명을 살리는 방향으로 프로그래밍되어야 한다. 예컨대 보행자 한 명보다 차량 안의 가족 다섯 명을 구하는 것이 합리적이라는 계산이 나온다.
- 그러나 칸트적 관점에서는, 보행자든 운전자든 그 누구도 단순한 ‘숫자’로 취급될 수 없다. AI가 특정 집단의 생명을 ‘덜 중요하다’고 판단하는 순간, 인간 존엄은 훼손된다.
이 충돌은 아직도 해결되지 않았다. 독일은 자율주행차 윤리 가이드라인에서 연령, 성별, 사회적 지위에 따른 차별을 금지한다고 못 박았다. 즉 칸트적 원칙을 최소한의 안전장치로 둔 것이다. 그러나 여전히 “실제로 프로그래밍 단계에서 어떻게 구현할 것인가”라는 문제는 남아 있다.
팬데믹 상황에서 의료 자원의 부족은 전 세계 의료진을 극한의 딜레마로 몰아넣었다. 이탈리아 북부에서 코로나19 환자가 폭증했을 때, 일부 병원은 중환자실 병상을 배분하기 위해 사실상 ‘우선순위 기준’을 세울 수밖에 없었다. 젊은 환자에게 더 많은 병상을 배정한 결정은, 공리주의적 관점에서는 합리적이었다. “남은 삶의 길이가 긴 사람을 살리는 것이 더 많은 사회적 행복을 만든다”는 논리다.
하지만 이런 결정은 노인과 장애인에게 깊은 상처를 남겼다. 칸트적 입장에서 보면, “모든 생명은 동일한 존엄을 지니며, 유용성에 따라 차별할 수 없다.” 병원 현장의 선택은 불가피했지만, 동시에 ‘누가 더 가치 있는가’를 묻는 위험한 질문을 노골화시켰다.
오늘날 한국에서도 의료 AI는 빠르게 확산 중이다. 암 진단, 희귀질환 예측 등에서 인간 의사의 도움을 넘어서려는 시도가 이루어지고 있다. 그러나 만약 AI가 ‘사회적 기여도’를 기준으로 치료 우선순위를 정한다면, 그 순간 우리는 존엄과 효율 사이에서 새로운 논쟁에 휘말리게 될 것이다.
한국을 포함한 여러 나라에서는 AI 판결 보조 시스템을 도입하려는 시도가 나타나고 있다. 미국에서는 ‘COMPAS’라는 프로그램이 보석이나 재범 위험 예측에 활용되었는데, 이후 흑인에게 불리한 편향을 강화한다는 사실이 드러나 사회적 파장을 불러왔다.
- 공리주의적 논리는 이렇게 말한다. “비록 일부 오차와 편향이 있더라도, AI는 전체적으로 더 일관적이고 효율적인 판결을 제공한다. 사회 전체적으로 안정과 예측 가능성을 높이는 효과가 있다.”
- 그러나 칸트적 논리는 단호하다. “단 한 명이라도 AI에 의해 잘못된 편견으로 판결을 받는다면, 이는 인간 존엄을 침해하는 행위다. 정의는 다수의 효용이 아니라, 각 개인의 권리를 존중하는 원칙에서 시작한다.”
청년 세대에게 이 문제는 피부에 와닿는다. AI가 채용 과정에서 ‘적합한 인재’를 판별하는 알고리즘이 이미 기업에 도입되고 있기 때문이다. 면접을 보기도 전에 ‘데이터 패턴’으로 탈락 여부가 결정된다면, 과연 개인의 개성과 존엄은 어떻게 보장될 수 있을까? 공리주의는 “기업과 사회의 효율성”을 내세우지만, 칸트는 “한 사람 한 사람을 도구로 취급하지 말라”고 경고한다.
이 모든 사례는 결국 청년 세대의 일상으로 이어진다. 자율주행차를 이용하고, 의료 AI 진단을 받고, AI 채용 시스템에 평가받는 사람들 대부분은 바로 지금의 청년들이다.
취업 준비 과정에서 “AI 채용 알고리즘이 더 많은 지원자를 공정하게 걸러낸다”는 말을 들을 때, 청년은 효율과 존엄 사이에서 갈등한다.
병원에서 AI가 “경제적 효과가 큰 치료법”을 먼저 제시할 때, 환자는 자신의 삶이 단순히 비용-편익 분석에 따라 평가되는 것 아닌가 하는 불안을 느낀다.
정치와 사회 영역에서도 AI는 빅데이터를 기반으로 여론을 분석해 정책을 추천하지만, 그 과정에서 개인의 목소리는 ‘평균값’으로만 남는다.
청년 세대는 이 질문 앞에 선다.
“우리는 효율을 따라야 하는가, 존엄을 지켜야 하는가? 아니면 둘 사이의 새로운 균형점을 만들어야 하는가?”
AI 윤리의 현장은 단순한 기술 문제가 아니라, 철학적 기준의 싸움터다. 자율주행, 의료, 사법, 채용 등 다양한 장면에서 공리주의의 효율성과 칸트의 존엄은 충돌하면서도 동시에 우리에게 새로운 균형을 요구한다.
AI는 이미 청년들의 삶에 깊숙이 들어왔다. 따라서 청년 세대가 이 문제에 철학적으로 접근하지 않는다면, 그들의 일상과 미래는 효율의 이름으로 존엄을 잃을 위험에 놓이게 된다.
AI 시대의 윤리 문제를 다루면서 우리는 늘 두 개의 거대한 축 사이를 오가게 된다. 한쪽은 칸트가 말한 “인간을 수단이 아닌 목적으로 존중해야 한다”는 절대적 존엄의 원리이고, 다른 한쪽은 벤담과 밀의 공리주의가 강조한 “최대 다수의 최대 행복”이라는 계산 가능한 원리이다. 문제는, 이 두 축이 서로 긴장할 때 AI가 내리는 결정에 어떤 기준을 둘 것인가이다.
예컨대 자율주행차의 사고 상황을 다시 떠올려 보자. 한 사람을 살리기 위해 다수를 위험에 빠뜨릴 수 있는가? 혹은 다수를 살리기 위해 특정 개인의 희생을 기계가 ‘합리적’으로 선택할 수 있는가? 이 물음은 단순히 기술적 알고리즘의 문제가 아니라, 우리가 어떤 사회적 윤리 질서를 선택할 것인가에 관한 문제다.
칸트의 관점에서라면, 개인의 존엄은 결코 계산의 대상이 될 수 없다. 한 사람을 희생해서 다수를 구하는 행위는 그 순간 특정 인간을 ‘수단’으로 취급하는 것이므로 도덕적으로 용납될 수 없다. 따라서 AI의 알고리즘에도 “어떠한 경우에도 인간의 존엄은 침해될 수 없다”라는 강력한 원칙을 새겨 넣어야 한다. 이는 의료 AI가 환자의 동의 없이 위험한 치료를 강행하지 못하도록 하는 제도적 장치와도 연결된다.
반면 공리주의적 입장에서 본다면, 사회 전체의 행복과 효율성이 더 중요한 가치로 등장한다. 개인의 희생이 불가피하더라도 그것이 사회 전체의 피해를 줄이고 더 많은 사람에게 이익을 준다면, 합리적 판단으로 정당화될 수 있다. 자율주행차가 충돌 상황에서 ‘한 명보다 다수’를 선택하는 알고리즘을 갖추는 것은 이 논리와 맞닿아 있다.
그렇다면 해답은 무엇일까? 이 질문에 대해 단일한 정답을 제시하기는 어렵다. 그러나 중요한 것은 두 축을 동시에 붙드는 ‘균형 프레임’이다.
- 존엄 없는 효율은 비인간적 사회를 낳는다.
- 효율 없는 존엄은 현실에서 작동하지 못한다.
AI 시대의 윤리는 이 두 가지 원리를 상황에 따라 조율하는 능력을 요구한다. 예를 들어 의료 AI의 경우, 환자의 존엄(자율적 동의)을 최우선으로 하되, 공리주의적 효율(빠른 진단, 다수 환자의 치료 접근성)을 보완적으로 설계할 수 있다. 사법 AI도 개인의 권리 보장(칸트적 존엄)을 전제로 하면서, 다수의 사회적 안전 확보(공리주의적 행복)를 함께 고려해야 한다.
이 균형의 과제는 특히 청년 세대에게 더 절실하다. 왜냐하면 지금의 청년들은 AI가 일상적 의사결정에 개입하는 첫 세대이기 때문이다. 취업 과정에서 AI 면접이 자신을 평가할 때, 의료 AI가 자신의 치료를 추천할 때, 사법 AI가 판결의 참고 자료를 제시할 때, 청년들은 직접 이 딜레마와 맞닥뜨린다. 그렇기에 청년들은 단순히 ‘기술의 사용자’가 아니라, 윤리적 균형을 요구하는 시민적 주체로 서야 한다.
즉, 청년들이 가져야 할 질문은 이것이다.
“AI의 효율을 무조건 신뢰해도 되는가?”
“인간 존엄이라는 원칙을 어디까지 지켜야 하는가?”
“현실적인 조율은 어떻게 가능한가?”
이 질문들을 끊임없이 던지고, 정책과 사회적 합의 과정에서 목소리를 내는 것이 곧 청년 세대의 철학적 책무다.
결국, AI 윤리의 미래는 ‘존엄과 행복의 균형’을 얼마나 정교하게 설계하느냐에 달려 있다. 이 균형은 단순한 이론적 조화가 아니라, 매 순간의 구체적 선택 속에서 구현된다. 칸트가 남긴 절대적 존엄의 목소리와 공리주의자들이 주장한 효율의 논리를 동시에 붙드는 태도, 그것이야말로 우리가 AI 시대에 지녀야 할 윤리적 나침반이다.
데카르트는 불확실한 세계 속에서 단 하나의 확실성을 찾기 위해 “나는 생각한다, 고로 존재한다”라는 문장을 남겼다. 이는 단순한 철학적 명제가 아니라, 인간이 스스로를 주체로 세우는 선언이었다. 그러나 21세기, AI가 방대한 데이터와 연산 능력으로 인간의 사고를 대신하거나 앞서는 시대에 들어서면서, 이 명제는 다시 질문을 받는다. “AI가 생각한다면, 인간은 여전히 ‘존재한다’고 말할 수 있는가?”
오늘날 AI는 단순한 계산을 넘어 학습하고, 예측하며, 심지어 창작을 시도한다. 논리적 추론은 물론, 예술과 언어까지 넘나들며 인간 고유의 영역을 침범한다. 이런 상황에서 청년 세대는 전례 없는 질문과 맞닥뜨린다. “인간의 생각은 AI의 계산과 무엇이 다른가?” 만약 모든 것이 데이터로 환원될 수 있다면, 데카르트의 “생각하는 주체”로서의 인간은 설 자리를 잃는 것처럼 보인다.
그러나 바로 이 지점에서 새로운 의미가 드러난다. AI가 아무리 정교하게 사고를 모방하더라도, 그것은 경험이나 감정, 윤리적 책임을 동반하지 않는다. 인간의 사고는 단순히 데이터를 분석하는 행위가 아니라, 가치와 의미를 부여하는 행위다. 청년 세대가 배워야 할 것은 “나는 생각한다”라는 문장이 더 이상 ‘인지적 기능’만을 뜻하지 않는다는 점이다. 그것은 “나는 질문한다, 나는 성찰한다, 나는 책임진다”라는 확장된 의미로 다시 읽혀야 한다.
AI 시대에 청년들은 이전 세대보다 훨씬 더 자주 윤리적 시험대에 오른다. AI 면접이 자신을 평가할 때, 자율주행차가 사고를 판단할 때, 의료 AI가 생사의 결정을 보조할 때—이 순간들은 단순히 기술을 활용하는 과정이 아니라, 존재론적 선택의 순간이 된다. “나는 생각한다”라는 말은 이제 “나는 기술의 판단을 비판적으로 검토하고, 그 책임을 인간으로서 감당한다”라는 태도로 바뀌어야 한다.
칸트가 말한 존엄의 철학은 청년들에게 “AI가 무엇을 계산하든, 인간은 타인을 수단이 아닌 목적으로 대우해야 한다”라는 원칙을 일깨운다. 공리주의가 던지는 행복의 철학은 동시에 “기술을 통해 최대 다수의 행복을 어떻게 보장할 수 있을까”라는 질문을 던진다. 두 철학의 긴장은 곧 청년들의 일상적 선택 속에서 살아 움직인다.
따라서 AI 시대에 청년들이 붙들어야 할 “나는 생각한다”의 새로운 의미는 세 가지다.
- 첫째, 질문하는 주체로서의 나. 단순히 정보를 소비하는 존재가 아니라, 그 정보의 진위를 묻고 함정을 비판하는 능력.
- 둘째, 성찰하는 주체로서의 나. 데이터와 효율의 논리 속에서도 인간의 존엄, 감정, 윤리를 되돌아보는 태도.
- 셋째, 책임지는 주체로서의 나. 기술이 대신할 수 없는 인간적 결정과 책임을 끝까지 감당하는 용기.
이 세 가지는 단순한 철학적 수사가 아니라, 청년들이 살아갈 사회를 지탱할 실질적 자산이다.
AI 시대의 청년들은 더 이상 “기술을 잘 활용하는 세대”에 머물러서는 안 된다. 오히려 “기술을 넘어서 철학적으로 사유하는 세대”가 되어야 한다. 데카르트가 불확실한 시대 속에서 인간 주체의 자리를 세웠듯, 청년들은 지금의 불확실한 사회 속에서 새로운 주체성을 세워야 한다.
따라서 우리는 다시 이렇게 말할 수 있어야 한다.
“나는 생각한다, 고로 나는 존재한다.”
이 문장은 이제 단순히 존재의 증명이 아니라, 기술 시대를 살아가는 청년의 자기 선언이다. 질문하고, 성찰하고, 책임지는 바로 그 순간에 청년은 기술을 넘어선 인간으로 존재한다.