가능성의 기술, 경계의 철학
AI 시대가 오면 인문학, 특히 철학의 자리는 더 좁아질 거라는 말이 자주 나온다. 기계가 더 빨리 계산하고, 더 정확하게 요약하고, 더 그럴듯하게 말하게 되면 인간의 사유는 장식처럼 밀려날 것이라는 예상이다. 나는 오히려 반대로 생각한다. 기술이 강해질수록, 철학의 자리는 줄어드는 게 아니라 더 커질 것이다. 판단과 책임이 인간에게 남기 때문이다.
그렇다면 그 책임은 어디에서 시작될까? 분명 기술은 “무엇을 할 수 있는가”를 넓힌다. 하지만 기술이 “무엇을 해야 하는가”까지 정해 주지는 못 한다. 가능한 선택지가 늘어날수록, 무엇을 선택하고 무엇을 버릴지 더 자주 따져야 한다. 그때부터 문제는 기술이 아니라 판단이 된다. 그리고 판단을 다루는 도구가 윤리와 철학이다.
그런데 정작 많은 사람들은 철학을 이런 판단의 도구로 떠올리지 않는다. 사람들이 철학을 오해하는 방식도 여기와 연결된다. 철학은 종종 거창한 형이상학으로만 이해된다. 거대한 세계관을 세우고 우주의 비밀을 탁상공론으로 설명하는 학문처럼 보이기도 한다. 물론 형이상학도 철학이다. 그리고 과거 철학자들이 사유로 세계를 설명하려 했던 많은 시도는, 지금에 와서는 논리적으로도 과학적으로도 수정되거나 반박된 것이 많다. 그러나 철학의 가치는 정답의 보존이 아니라, 어디에서 생각이 흔들렸는지를 드러내는 데 있다. 철학은 어두운 방에서 손으로 더듬은 것을 점자로 새겨 둔 지도에 가깝다.
이러한 철학의 태도를 잘 보여 주는 인물 중의 하나가 소크라테스다. 소크라테스는 “너 자신을 알라”라고 말했다. 이 문장은 ‘네 주제를 알라’라는 말이 아니라, 네가 무엇을 모르고 있는지를 끝까지 확인하라는 말에 더 가깝다. 그런데 그렇게 하기 위해서 사람은 자신의 생각을 외부의 관점에 끊임없이 노출시켜야만 한다.
이런 관점에서 보면, 요즘 많은 사람들이 AI를 활용해 글을 다시 바라보는 장면은 꽤 흥미롭다. 이건 이미 AI와 철학의 만남이다. AI는 문장을 쉽게 만들어 낸다. 하지만 어떤 문장을 고를지, 어떤 어조로 말할지, 어디서 멈출지, 무엇을 끝내 선택할지는 AI가 혼자 결정하지 못한다. 더 정확히 말하면, 그 문장에 서명하고 정당화할 책임은 인간에게 남는다.
핵의 시대를 떠올려 보자. 맨해튼 프로젝트 이후 인류는 스스로를 단번에 자멸시킬 수도 있는 기술을 손에 쥐게 되었다. 그때 인류가 곧장 자멸하지 않았던 이유는 군사적 균형이나 외교의 계산만으로는 다 설명되지 않는다. 가능해졌다고 해서 곧장 허용되는 것은 아니라는 감각이 함께 자라났기 때문이다. 기술은 가능을 만들지만, 가능을 금기와 최후수단으로 분류하는 일은 전혀 다른 종류의 작업이다. AI도 결국 같은 길목에 서 있다.
이 이야기는 문화로 옮겨도 그대로 이어진다. 문화라는 꽃은 여유라는 토양 위에서 핀다. AI의 발전이 인간을 노동의 제약에서 풀어 준다면, 음악과 미술과 철학의 꽃이 만발할 가능성도 커질 것이다. 다만 그 가능성은 저절로 실현되지 않는다. 여유가 모두에게 배분되지 않으면, 문화는 만발하기보다 접근권의 유무를 조용히 가르는 더 비싼 신분증이 될 수도 있다. 그래서 AI 시대에 철학이 중요해지는 이유는 단지 ‘인간다움’을 지키기 위해서만은 아니다. 철학은 풍요의 토양을 어떻게 나눌지, 무엇을 효율과 성장, 생산성 같은 이름으로 최적화할지, 그리고 어떤 피해를 진보라는 말로 덮지 않을지 묻는 언어다.
결국 철학은 과거가 아니라 지금과 앞으로를 다루는 사유의 방법이다. 우리의 시대가 요구하는 것은 거창한 체계의 완성이라기보다, 전제를 점검하고 개념을 구분하고 책임의 경계를 그리는 사유의 습관이다. 그래서 과거 철학자들의 사상을 배우는 일은 ‘정답’을 외우는 것이 아니라, 그들이 사유한 길을 통과하는 일에 가깝다. 그 과정을 지나 결국 자기만의 철학을 세우게 된다. 그리고 더 나아가 그 철학이 누군가에게 읽히고, 반박되고, 이어지면서 세계 속에서 자리를 얻는다.
그런 의미에서 철학의 목표는 '재현'이 아니라 오히려 '생성'에 있다. 다만 철학이 말하는 생성은 요즘 기술이 말하는 생성과는 결이 조금 다르다. 기술의 생성이 결과물을 만들어 내는 것이라면, 철학의 생성은 질문과 책임의 틀을 새로 세우는 것에 가깝다. 이 차이를 분명하게 하기 위해 지금 우리는 철학을 다시 이야기하게 된다.
AI가 답을 더 빨리 내놓는 시대일수록, 인간에게 남는 일은 줄어드는 게 아니라 더 선명해진다. 무엇을 묻고, 무엇을 선택하고, 무엇을 금지할지. 그리고 그 선택의 이유를 말로 설명할 수 있을지. 내 글에 동의하지 않는다면 반박해도 좋다. 다만 그 반박이, 한 번 더 생각해 보려는 시도에서 나오길 바란다. 그 사유의 움직임 자체가 철학이니까.