06
생명의 무게를 계산하다
IBM의 Watson for Oncology는 수백만 건의 의료 논문과 임상 사례를 학습해 암 치료법을 제시한다. 국내에서도 '닥터앤서' 같은 AI가 의사들의 진단을 보조한다. 진단 정확도는 인간 의사를 능가하는 경우도 있다. 희귀 질환 환자에게 AI가 놓쳤던 치료 가능성을 찾아주기도 한다.
그러나 이런 상황을 상상해 보자. 70대 말기 암 환자에게 AI가 공격적 항암치료를 제안한다. 의학적으로 최적의 선택이다. 생존 확률을 몇 퍼센트라도 높이는 것이 데이터가 말하는 정답이다. 하지만 의사가 환자와 대화를 나눈다면 어떻게 될까. 환자는 "남은 시간을 고통 속에서 보내고 싶지 않다"라고 말할지도 모른다. 손자의 결혼식에 참석하고, 집에서 편안히 가족과 시간을 보내는 것이 그의 진짜 바람일 수 있다.
의사가 환자의 뜻을 존중해 완화치료를 선택한다면, AI의 관점에서는 비최적의 결정이다. 생존 확률을 높이지 못했고, 질병과의 싸움을 포기한 것처럼 보인다. 하지만 환자는 손자의 결혼식에서 웃을 수 있고, 가족들과 마지막 대화를 나눌 수 있으며, 평안히 눈을 감을 수 있다.
AI는 생명을 연장하는 법을 안다. 하지만 삶의 질이 무엇인지, 환자에게 무엇이 좋은 죽음인지는 계산할 수 없다. 의학적 정답과 윤리적 좋음 사이에는 데이터로 메울 수 없는 간극이 있다.
확률로 포장된 조언
대화형 AI에게 윤리적 딜레마를 물어보면, 세심하고 균형 잡힌 답변이 돌아온다. "거짓말을 해야 할까요?"라는 질문에 AI는 정직의 중요성을 설명하면서도, 예외적 상황에서의 고려사항을 덧붙인다. 모든 관점을 담고, 누구도 불쾌하게 하지 않으며, 사회적으로 안전한 답변이다.
그런데 이 답변은 어디서 온 것일까? AI는 수십억 개의 텍스트에서 '거짓말'과 '윤리'가 함께 등장하는 맥락을 학습했다. 철학자들의 논쟁, 종교 경전의 가르침, 일반인들의 토론이 모두 데이터가 되었다. AI는 가장 빈번하게 등장하는 입장을, 가장 적게 논란이 되는 방식으로 재구성한다.
이것은 윤리적 판단이 아니다. 통계적 중립이다. AI는 고민하지 않는다. 망설이지 않고, 후회하지 않으며, 자신의 답변에 대해 책임감을 느끼지 않는다. 한 사용자가 AI의 조언을 따라 중요한 결정을 내렸다가 후회했을 때, AI는 "죄송합니다. 더 나은 답변을 드리지 못했네요"라고 말한다. 그러나 그 사과에는 미안함이 없다. 문장만 있을 뿐이다.
규칙 너머의 영역
윤리는 상황 밖에서는 명확하지만, 상황 안에서는 흔들린다. 내 가족이 연루되면, 내 이익이 걸리면, 감정이 개입되면 원칙은 무너진다. 이 불일치가 인간의 한계이자, 역설적으로 인간다움이다. AI는 이 모순을 계산할 수 없다. 원칙은 프로그래밍되지만, 원칙을 저버리는 인간의 복잡함은 코드가 되지 않는다.
고민하지 않는 판단
한 학교의 진로상담 AI는 학생들의 성적, 적성검사 결과, 희망 직업을 분석해 최적의 진로를 제시한다. 한 학생은 의사를 꿈꿨지만, AI는 "의대 진학 확률 15%, 공대 진학 시 성공 가능성 78%"라고 계산했다. 수학적으로 합리적인 조언이었다.
그러나 진로교사라면 다르게 접근할 수 있다. 학생과 여러 차례 대화를 나누며, 단순히 성적 너머의 맥락을 읽어낼 수 있다. 어쩌면 그 학생은 고등학교 때 아픈 가족을 돌보며 의료인의 역할을 절실히 느꼈을 수도 있다. 혹은 자원봉사 활동에서 만난 환자들 때문에 꿈을 키웠을 수도 있다. 성적은 부족하지만, 동기는 확고할 수 있다.
반대의 경우도 있다. 성적은 우수하지만, 부모의 기대 때문에 의대를 지망하는 학생도 있다. AI는 "의대 진학 확률 92%"라고 계산하지만, 정작 학생은 음악을 하고 싶어 할 수도 있다. 수치상으로는 성공이 보장되지만, 그 길이 학생에게 진짜 좋은 선택인지는 알 수 없다.
AI는 성공 확률을 계산한다. 하지만 왜 그 길을 가고 싶은지, 실패해도 후회하지 않을지, 성공했을 때 행복할지는 알지 못한다. 교사의 판단에는 고민이 있다. '이 조언이 학생을 힘들게 하면 어쩌지', '잘못된 격려가 되면 어쩌지'라는 불안이 함께한다. 그 망설임이 오히려 조언을 신중하게 만든다.
윤리적 판단은 정답을 제시하는 게 아니라, 책임을 짊어지는 것이다. AI는 조언하지만 책임지지 않는다. 인간은 불완전하게 판단하지만, 그 결과와 함께 산다.
느낄 수 없는 좋음
철학자 아리스토텔레스는 윤리의 목표를 '에우다이모니아', 즉 인간의 번영 또는 좋은 삶의 실현으로 보았다. 그런데 '좋음'은 무엇인가? 그것은 단순한 쾌락도, 외적 성공도 아니다. 오히려 덕을 갖추고, 각 상황에서 적절한 판단을 내리는 것이다. 그것은 고정된 규칙이 아니라, 상황에 따라 미묘하게 달라지는 실천적 지혜다.
AI는 '옳음'을 계산할 수 있다. 규칙을 따르고, 원칙을 적용하며, 일관성을 유지한다. 하지만 '좋음'을 느낄 수 있을까? 환자가 평안히 눈을 감는 순간의 안도감, 학생이 꿈을 이뤘을 때의 기쁨, 용서했을 때의 해방감. 이런 것들은 데이터로 포착되지 않는다.
AI는 의사보다 빠르고 정확하다. 하지만 환자의 눈을 보고 '이 사람이 진짜 원하는 게 뭘까'를 고민하는 건 아직 사람이 할 일이다. 판사도 마찬가지다. 판례와 법리는 AI가 찾아준다. 하지만 피해자의 고통을 헤아리는 건 사람이 해야 한다.
남은 질문
인공지능은 정답을 잘 찾는다. 하지만 윤리적 판단은 언제나 정답보다 어려운 선택이다. 의학적으로 최선이 아니어도 환자를 위한 결정, 통계적으로 비합리적이어도 학생의 꿈을 응원하는 조언. 이런 것들은 계산이 아니라 고뇌에서 나온다.
인공지능이 '옳음'을 계산할 수 있을지 모르지만, '좋음'을 느낄 수 있을까?
윤리란 판단의 정확함이 아니라, 판단 후에도 마음이 흔들리는 능력 아닐까? 내 결정이 옳았을까 되묻고, 다르게 할 수 있었을까 후회하며, 그럼에도 책임을 지는 것. AI는 이 무게를 모른다.
AI가 의료, 법, 교육에서 인간을 돕는 것은 환영할 일이다. 정보를 정리하고, 가능성을 제시하며, 오류를 줄여준다. 하지만 최종 판단은 여전히 인간의 몫이어야 한다. AI의 계산을 참고하되, 맥락을 읽고, 감정을 헤아리며, 책임을 지는 것. 그것이 윤리적 존재로서 인간이 해야 할 일이다.
기계가 옳음을 계산하는 동안, 인간은 여전히 좋음을 고민해야 한다. 그 고민을 멈추는 순간, 우리는 윤리적 주체이기를 포기하는 것이다.