brunch

AI 답변의 감옥에서 우리를 구원할 문해력

AI는 답하고, 인간은 결정한다

by 류한석

메스를 쥔 외과 의사가 수술실에 서 있고, 그의 앞에는 최첨단 AI 진단 시스템이 분석한 환자의 데이터가 펼쳐져 있다. AI는 99.8%의 확률로 특정 수술법이 최적의 결과를 낳을 것이라는 ‘정답’을 제시한다. 모든 데이터가 그 길을 가리키고, 계산 경로를 봐도 의심할 여지가 없는 것처럼 보인다.


하지만 의사는 모니터에서 눈을 떼고, 잠시 숨을 고른다. 그는 환자의 나이, 그의 가족, 삶에 대한 그의 의지, 수술 후 겪어야 할 고통의 무게를 생각한다. 데이터가 말해주지 않는 수많은 변수를 자신의 경험과 철학, 그리고 윤리의 저울 위에 올려놓는다. 이윽고 그는 결정한다.


계속되는 선택의 상황에서, 때로는 AI 제안을 따르고, 때로는 전혀 다른 길을 선택한다. 이 고독한 결단의 순간, 바로 여기에 AI 시대, 인간 지성의 본질이 있다. 우리는 기계가 제시하는 ‘정답(인 것처럼 보이는 답)’과 인간이 내려야 할 ‘판단’ 사이의 아슬아슬한 경계에 서 있다. 그리고 그 경계선을 명확히 인식하는 능력이야말로, 새로운 시대의 문해력이자 교양(지식, 정서, 도덕 등을 바탕으로 길러진 품성)이다.


확률적 최적해 vs. 규범적 결단


AI가 내놓는 결과는 엄밀히 말해 ‘확률적 최적해(Probabilistic Optimal Solution)’다. 주어진 데이터셋 안에서 통계적으로 가장 그럴듯한 패턴을 찾아 조합한 결과물일 뿐이다. 그것은 과거 데이터의 정교한 메아리이지, 미래를 향한 지혜로운 통찰은 아니다.


반면, 인간의 결정은 ‘규범적 결단(Normative Decision)’의 영역에 속한다. 이는 ‘무엇이 사실인가(What is)’의 문제를 넘어 ‘무엇이 옳은가(What should be)’ 혹은 ‘무엇이 가치 있는가(What is valuable)’에 대한 물음이다. 여기에는 데이터에 담기지 않은 가치, 윤리, 책임, 맥락, 공감의 차원이 개입된다.


가령, 비즈니스 전략을 AI에게 물었다고 가정하자. AI는 시장 데이터와 경쟁사 동향을 분석해 “단기 수익 극대화를 위해 인력 감축 및 저가형 신제품 출시”라는 ‘확률적 최적해’를 내놓을 수 있다. 논리적으로 빈틈없어 보인다. 하지만 리더는 이 ‘정답’을 그대로 받아들여서는 안 된다. 그는 ‘규범적 결단’의 세계로 들어가야 한다.


‘인력 감축이 조직의 장기적인 신뢰와 문화에 미칠 영향은 무엇인가?’, ‘저가형 제품 출시가 우리 브랜드의 핵심 가치를 훼손하지는 않는가?’, ‘이 결정이 우리 사회에 어떤 메시지를 던지는가?’ 이런 질문들에 답하기 위해서는 재무제표를 읽는 능력 이상의 것, 즉 역사와 철학, 정치, 경제, 사회, 문화, 인간 심리에 대한 깊은 이해, 다시 말해 ‘교양’이 필요하다. 답을 아는 것과 길을 선택하는 것은 전혀 다른 차원의 문제다.


판단의 근육을 키우는 3가지 렌즈


그렇다면 우리는 AI가 제시하는 눈부신 정답의 유혹 앞에서 어떻게 판단의 주도권을 지킬 수 있을까? 다음의 ‘판단을 위한 3가지 렌즈’가 AI 답변을 검토하고 자신만의 결정을 내리는 데 도움이 될 수 있다.


1. 맥락의 렌즈(The Context Lens): “AI가 보지 못하는 그림자는 무엇인가?”


AI 답변은 기본적으로 탈맥락적(decontextualized)이다. 사용자가 처한 특수한 상황, 조직의 미묘한 문화, 관계의 역사 같은 ‘보이지 않는 데이터’를 읽지 못한다(물론 질문에 어느 정도 맥락을 제공함으로써 AI 답변에 반영할 수는 있다. 하지만 모든 맥락을 제공하는 건 불가능하다). 그러므로 AI 답변을 받았다면 가장 먼저 던져야 할 질문은 이것이다. “이 답변이 나의 특수한 맥락 안에서도 여전히 유효한가?”


실용 팁: AI에게 받은 보고서나 제안서 초안을 그대로 사용하지 말고, ‘우리 회사의 지난 실패 사례를 고려했을 때’, ‘A 팀장의 리더십 스타일을 감안하면’, ‘현재 고객과의 신뢰 관계를 생각했을 때’와 같은 맥락적 주석을 직접 달아보자. 이 과정 자체가 죽은 정보에 생명을 불어넣는 판단의 시작이다.


2. 결과의 렌즈(The Consequence Lens): “첫 번째 파도 너머에는 무엇이 있는가?”


AI는 주로 1차원적인 목표 달성에 최적화되어 있다. 그러나 모든 결정에는 의도치 않은 2차, 3차의 파급효과가 따른다. 현명한 판단은 눈앞의 결과뿐 아니라 그 너머의 파장까지 내다보는 것이다.


실용 팁: AI가 A라는 해결책을 제시했다면, “만약 모두가 A라는 해결책을 채택한다면, 사회 전체에 어떤 부작용이 생길까?” 혹은 “이 결정으로 인해 가장 손해를 보는 사람은 누구일까?”와 같은 질문을 던져보자. 이는 사용자의 시야를 단기적 효율성에서 장기적 책임감으로 확장시킨다.


3. 반론의 렌즈(The Counterfactual Lens): “가장 강력한 반대 논리는 무엇인가?”


확증 편향은 인간의 가장 강력한 인지적 함정이다. 우리는 보고 싶은 것만 보고, 듣고 싶은 답만 듣는다. AI는 이 편향을 더욱 강화시킬 수 있다. 이때 의도적으로 반대편에 서보는 훈련이 필요하다.


실용 팁: AI에게 어떤 문제에 대한 해결책을 제안받았다면, 곧바로 다음과 같이 추가 질문을 던져보자. “지금 네가 제안한 아이디어의 치명적인 단점 3가지를 지적하고, 이 아이디어가 왜 실패할 수밖에 없는지에 대해 가장 설득력 있는 논리를 제시해 줘.” AI를 내 생각의 확성기가 아닌, 내 생각의 허점을 공격하는 가장 유능한 ‘레드팀(Red Team)’으로 활용하는 것이다. 이 과정을 통해 사용자의 최종 판단은 훨씬 더 견고해진다.


결단의 무게를 감당하는 인간의 존엄


다시 수술실의 의사로 돌아가 보자. 그가 AI의 99.8%짜리 정답 대신 다른 길을 선택하는 순간, 그는 기계가 결코 질 수 없는 ‘책임’을 지게 된다. 그 책임의 무게를 기꺼이 감당하려는 의지, 그것이 바로 인간의 존엄이다.


AI 시대, 인간의 가치는 단순히 더 많은 지식을 암기하는 능력에서 나오지 않는다. 오히려 수많은 지식들 사이에서 길을 잃지 않고, 데이터가 침묵하는 곳에서 가장 인간적인 질문을 던지며, 그 결과에 온전히 책임지는 능력에서 나온다.


기술이 우리를 어디로 데려갈지는 아무도 모른다. 하지만 분명한 것은, 그 여정의 방향을 결정하는 것은 언제나 우리 자신이라는 점이다.


기계는 언제나 가장 그럴듯한 답을 속삭일 것이다.
그 속삭임 속에서 자신만의 목소리를 지켜가는 일,
어쩌면 그것이 이 시대 우리에게 주어진
가장 인간적인 과제이자 축복이 아닐까.
keyword
이전 09화대환각시대, 진실을 찾아 항해하기