AI에게는 없는 것, 경험
"결혼 앞둔 커플이 제일 불안해하는 게 뭘까?"
커플 검사 서비스를 만들 때, 이 질문의 답을 AI에게 물어본 적이 있습니다. AI는 이렇게 답했어요. "결혼 전 커플은 흔히 갈등 해결 방식의 차이, 가족 관계, 장기적 목표의 불일치 등에 불안을 느낍니다."
틀린 말은 아닙니다. 교과서적으로 정확한 답이겠지요.
그런데 인간사는 참 흥미롭죠. 제가 실제로 지켜본 불안의 원천은 이런 거창한 것만 있는 건 아니었습니다. 결혼을 준비하던 친구가 어느 날 이렇게 말했어요. "애인이 냉장고에 반찬통을 아무 데나 쑤셔 넣는 걸 보고, 갑자기 우리가 '평생' 같이 살 수 있나 싶었어."
장기적 목표 같은 거창한 문제가 아니라, 반찬통 위치가 거슬릴 수 있습니다. 그게 이 친구에게는 정리정돈이나 배려 같은 상위 가치와 엮여 있기 때문이겠죠. 그리고 그 사소한 순간에 "평생"이라는 단어가 붙으면서 갑자기 무게가 달라질 수 있습니다.
AI의 답과 실제 경험 사이에는 갭이 있습니다. 같은 "결혼 전 불안"이라는 주제인데, AI는 상위의 카테고리를 나열합니다. 반면, 경험은 구체적이고 사소한 장면을 보여줍니다.
왜 이런 차이가 생길까요? 인지과학에서 흥미로운 이론이 있습니다. 체화된 인지(embodied cognition)라는 개념입니다.
전통적인 인지과학에서는 지식이 머릿속에 추상적인 기호로 저장된다고 봤습니다. "사과"라는 개념은 사과의 정의가 텍스트처럼 저장되어 있다는 거예요. 하지만 심리학자 로런스 바살루(Lawrence Barsalou)는 다른 주장을 했습니다. 그의 지각적 상징 체계(perceptual symbol systems) 이론에 따르면, 우리가 "사과"를 떠올릴 때 뇌에서 일어나는 일은 정의를 불러오는 게 아닙니다. 사과를 봤을 때의 시각 경험, 손에 들었을 때의 촉감, 베어 물었을 때의 맛과 소리 등. 이런 감각 경험이 부분적으로 다시 활성화됩니다.
실제로 뇌 영상 연구들이 이를 뒷받침합니다. 사람들이 동물에 대해 생각할 때는 시각 영역이 활성화되고, 도구에 대해 생각할 때는 운동 영역이 활성화됩니다. 개념을 떠올리는 것만으로도 그 개념을 경험했을 때의 뇌 영역이 다시 작동하는 거예요.
이게 왜 중요할까요? 이 이론이 맞다면, 지식은 경험에서 분리될 수 없습니다. "결혼 전 불안"을 진짜로 이해한다는 건, 그에 관한 논문을 읽었다는 게 아니라, 결혼 앞둔 친구의 떨리는 목소리를 듣거나, 동거 첫날의 어색함을 목격하거나, 냉장고에 반찬통을 아무데나 넣는 걸 보고 "평생"이라는 단어가 갑자기 무거워지는 순간을 경험했다는 겁니다.
AI는 "결혼 전 불안"에 대한 논문 수천 편, 블로그 수만 개, 상담 사례 수십만 건을 학습했을 겁니다. 텍스트의 양으로 따지면 어떤 인간보다 많이 "읽었"습니다. 그런데 AI는 반찬통을 냉장고에 집어넣는 애인을 본 적이 없습니다.
AI가 학습한 것은 텍스트입니다. 텍스트는 경험의 기록이지, 경험 자체가 아닙니다. "결혼 전 불안"이라는 단어를 수천 번 처리했지만, 그 단어가 가리키는 실제 감각, 예컨대 가슴이 조이는 느낌, 상대방의 사소한 습관이 갑자기 거슬리는 순간, 행복한데도 불안한 그 모순을 AI는 알지 못합니다.
그래서 AI에게 결혼 전 커플이 불안해하는 게 뭐냐고 물으면, 상위의 카테고리가 나옵니다. 재정, 갈등 해결 방식, 가치관 등. 이 또한 맞는 답입니다. 다만 커플 검사 리포트에 이런 카테고리를 그대로 넣으면, 읽는 사람이 "아, 이건 나 얘기다"라고 와닿기는 어렵습니다. 왜냐하면 사람은 카테고리로 불안해하지 않거든요. 구체적인 장면에서 불안해합니다. 반찬 통이 어질러져 있는 냉장고 앞에서, 상대의 1분 간격으로 울리는 새벽 알람 소리에, 퇴근 후 유튜브만 들여다보는 어색하게 흘러가는 시간 속에서 불안을 경험합니다.
여기서 중요한 반전이 있습니다.
AI가 경험의 질감(다른 말로는 qualia, 감각질이라고도 합니다)을 스스로 만들어낼 수는 없지만, 경험을 가진 인간이 그 질감을 언어로 전달하면 AI는 그걸 놀라울 정도로 잘 활용합니다.
커플 검사 리포트를 만들 때, 저는 AI에게 이렇게 말했습니다. "동거를 막 시작한 커플이 가장 먼저 부딪히는 건 거창한 가치관 차이가 아니야. 냉장고 정리 방식, 설거지 타이밍, 수면 시 방의 온도 같은 사소한 생활 습관이야. 그런데 이 사소한 차이가 '이 사람과 평생 이렇게 사는 건가?'라는 질문으로 확대되면서 불안이 생기는 거지."
이 경험적 디테일을 전달한 뒤, AI가 만든 리포트는 완전히 달랐습니다. "생활 습관 차이"라는 항목이 "처음 함께 사는 공간에서 발견하는 작은 차이들"이 되었고, 거기에 "이런 차이는 관계의 문제가 아니라 함께 살기 시작했다는 증거"라는 따뜻한 프레이밍이 붙었습니다.
AI가 이 문장을 만들어낸 건 맞지만, 이 문장이 가능해진 건 제가 경험적 디테일을 전달했기 때문입니다. 경험이 없었다면, 저는 AI에게 "생활 습관 차이에 대해 써줘"라고만 할 수 있었을 거예요. 그러면 AI는 다시 교과서적인 카테고리를 나열했겠죠.
경험은 AI에게 줄 수 있는 가장 강력한 원재료입니다. 때로는 논문에서 읽은 지식을 학습시키는 것보다 직접 목격한 장면 하나가 AI의 결과물을 더 크게 바꿉니다. 왜냐하면 경험에서 나온 디테일은 구체적이고, 감각적이고, 진짜이기 때문입니다.
이전 글에서 "왜"를 묻는 능력, 맥락을 전달하는 능력을 이야기했습니다. 이번 글에서 세 번째 요소를 추가합니다. 바로 경험입니다.
AI 시대에 역설적인 일이 벌어지고 있습니다. 정보는 넘쳐나는데, 경험의 가치는 오히려 올라가고 있습니다.
누구나 AI에게 "결혼 전 불안에 대해 알려줘"라고 물을 수 있습니다. 하지만 냉장고 반찬통 이야기를 AI에게 전달할 수 있는 사람은 직접 그 장면을 본 사람뿐입니다. 그리고 그 디테일이 결과물의 수준을 결정합니다.
결국 AI를 잘 쓰려면, AI 기술을 공부하는 것만으로는 부족합니다. 사람을 만나고, 현장을 관찰하고, 직접 부딪혀본 경험이 있어야 합니다. 그 경험이 AI에게 전달할 수 있는 재료가 되니까요.
다음 글에서는 이 경험을 AI에게 어떻게 효과적으로 전달할 수 있는지를 이야기해보겠습니다. 머릿속에 있는 경험적 지식을 꺼내서 언어로 만드는 건, 생각보다 쉽지 않거든요.
Barsalou, L. W. (1999). Perceptual symbol systems. Behavioral and Brain Sciences, 22(4), 577–660.