데이터가 넘치는 시대, 그러나 '느낌'은 사라진 시대
대학원생 시절, 처음으로 참여했던 실험은 ASMR 동영상이 가진 감성을 체계적으로 구분하는 실험이었다.
사람이 영상을 시청하는 동안 생체반응을 측정하고, 영상을 보면서 어떤 감성을 느꼈는지 설문을 받는 방식이었다. 피험자는 모니터 앞에 조용히 앉아 꽤나 집중하며 영상 콘텐츠를 시청했다. 실험이 끝난 후 설문지를 펼쳤을 때, 그는 '편안하고 긍정적'이었다고 답했다.
그런데 같은 시간, 그의 몸이 기록하고 있던 데이터는 전혀 다른 이야기를 하고 있었다.
심박변이도(HRV)는 실험 내내 낮은 수치를 유지했다. 뇌파(EEG)는 콘텐츠의 특정 구간에서 급격히 상승했다. 그것은 기대나 감동의 신호가 아니었다. 교감신경계가 활성화될 때 나타나는, 일종의 긴장과 불쾌함의 흔적이었다.
사실 이런 경우는 감성 분석 실험에서 꽤나 흔히 발생하는 일이다.
사람들은 자신이 느낀 것을 정확하게 말하지 않는다.
아니, 더 정확히는 — 자신이 느낀 것을 정확하게 '모른다'.
이 이야기가 어쩌다 한 번 일어나는 일이라면 좋겠지만, 실제로는 그렇지 않다.
고객 만족도 점수가 전 분기 대비 눈에 띄게 상승했더라도, 같은 기간 30일 이내 이탈률은 오히려 올라가 있는 경우가 있다. "만족한다"고 말한 사람들이 조용히 떠나고 있었던 것이다.
이런 경험, 혹시 익숙하지 않은가.
우리는 지금 데이터의 홍수 속에 살고 있다. 클릭률, 체류시간, 전환율, NPS, 리텐션, 코호트 분석.
툴은 정교해졌고, 대시보드는 아름다워졌다. 그런데 이상하게도 "우리 고객이 진짜 만족하고 있는가"에 대한 답은 여전히 흐릿하다.
그 이유는 단순하다.
우리가 수집하고 있는 대부분의 데이터는 행동(behavior)을 기록하지, 감성(emotion)을 기록하지 않는다.
생각해보면, 아날로그 공간에서 인간은 감성 정보를 굉장히 풍부하게 주고받았다.
대화 상대의 눈썹이 살짝 찌푸려지는 것, 목소리 끝이 처지는 것, 팔짱을 끼는 순간, 답하기 전 0.3초의 침묵 — 이 모든 것들이 실시간으로 상대방의 내면 상태를 전달했다. 우리는 그것을 의식적으로 분석하지 않았지만, 몸이 먼저 읽어내고 있었다.
디지털 전환은 그 신호들을 거의 전부 잘라냈다. 속도와 편의를 얻는 대신, 수천 년간 인간이 서로를 이해하는 데 사용해 왔던 채널들을 닫아버렸다. 행동 데이터는 "했는가(What)"를 정확하게 기록하지만, "어떻게 느꼈는가(How)"는 여전히 블랙박스로 남는다.
이런 반론을 할 수도 있을 것이다. "설문이나 리뷰가 있지 않나요? 그걸로 보완하면 되지 않나요?"
결론부터 말하자면, 쉽지 않은 일이다. 이유는 세 가지다.
첫째, 사람은 자신의 감성을 정확하게 언어화하지 못한다.
심리학자 대니얼 카너먼(Daniel Kahneman)은 우리에게 두 개의 자아가 있다고 설명했다. 경험이 일어나는 순간의 '경험자아(experiencing self)'와, 나중에 그 경험을 기억하고 평가하는 '기억자아(remembering self)'다. 이 둘은 자주 다른 평가를 내린다(Kahneman, 2011). 설문은 경험이 끝난 후 기억자아에게 묻는 것이다. 경험의 순간에 몸이 느꼈던 것과는 이미 다른 답이 나올 수 있다. 앞서 이야기한 피험자가 "긍정적"이라고 응답한 것도 같은 맥락이다.
둘째, 사람은 사회적으로 바람직한 방향으로 답변하려는 경향이 있다.
심리학에서는 이를 '사회적 바람직성 편향(Social Desirability Bias)'이라고 부른다. 서비스를 제공한 회사의 설문에서, 혹은 조사자가 앞에 있는 상황에서, 사람들은 의식적·무의식적으로 부정적 평가를 순화한다. 실제로 사회과학 분야의 메타 분석에 따르면 자기보고 방식의 측정은 긍정적 방향으로 유의미하게 편향되는 경향이 있다(Nederhof, 1985). "전반적으로는 괜찮았다"는 말이, 진짜 경험을 덮어버리는 것이다.
셋째, 리뷰와 댓글은 극단적인 감성만 기록한다.
리뷰를 남기는 사람은 대부분 매우 만족하거나 매우 불만족한 경우다. 그 사이 어딘가에 있는, "좋지도 나쁘지도 않았다"는 대다수의 감성은 어떤 데이터에도 기록되지 않는다. 그리고 이 어중간함이 클수록, 고객은 조용히 이탈할 가능성이 높아진다. 만족도 점수는 올라가면서 이탈률도 함께 오르는, 그 이상한 현상의 이면에는 바로 이 기록되지 않은 감성들이 있다.
팬데믹은 이 구조적 문제를 수면 위로 끌어올린 결정적인 사건이었다. 'Zoom Fatigue'라는 단어가 일상의 언어가 되었을 때, 그것은 단순히 "화상회의가 피곤하다"는 하소연이 아니었다. 오히려 디지털 환경이 인간의 감성 채널을 얼마나 제한해왔는지를 수억 명이 동시에 체감한 순간이었다. 스탠퍼드대 제러미 베일런슨(Jeremy Bailenson) 교수는 화상회의가 대면 접촉에 비해 비언어적 신호의 수신량을 현저히 감소시키며, 이것이 심각한 인지적 부하와 피로감으로 이어진다고 분석했다(Bailenson, 2021). 이는 기술의 실패라기보다, 감성 채널의 구조적 손실에 가까웠다.
그렇다면 행동 데이터와 감성 데이터는 정확히 어떻게 다른가. 먼저 구조를 나란히 놓고 보자.
두 데이터는 서로를 대체한다기보다는 보완하는 관계다.
행동 데이터가 "무슨 일이 일어났는가"를 기록한다면, 감성 데이터는 "그 일이 어떻게 경험되었는가"를 기록한다. 이 둘이 함께 있을 때 비로소 사람에 대한 입체적인 이해가 가능해진다.
그런데 왜 하필 지금, 이 주제가 본격적으로 현실화되고 있는 걸까?
감성을 측정해야 한다는 이야기는 어제오늘의 이야기가 아닌데 말이다. 그것은 이 시대에 일어난 세 가지 변화와 깊이 맞닿아 있다.
첫 번째 변화 — 비대면이 일상이 된 세계
팬데믹은 오프라인에서 자연스럽게 이루어지던 감성 교환을 갑작스럽게 차단했다. 중요한 것은 팬데믹이 끝난 후에도 이 변화가 완전히 되돌아오지 않았다는 점이다. 하이브리드 근무는 정착했고, 비대면 고객 접점은 오히려 더 넓어졌다. 오프라인에서는 자연스럽게 읽히던 신호들을, 이제는 기술의 힘을 빌려 다시 읽어내야 하는 시대가 된 것이다. 감성 AI의 필요는 어떤 기업의 전략적 선택이 아니라, 우리가 살아가는 방식이 만들어낸 구조적 수요다.
두 번째 변화 — 데이터는 많아졌는데 사람은 더 낯설어졌다
역설처럼 들리지만, 데이터 과잉이 오히려 사람에 대한 이해를 얕게 만드는 현상이 관찰되고 있다. '데이터 기반 의사결정'이라는 말이 이제 연구소를 넘어 일반 기업에서도 당연하게 쓰이는 시대다. 그러나 지표가 많아질수록 팀은 숫자를 분석하는 데 더 많은 시간을 쓰고, 정작 "이 숫자 뒤에 있는 사람"을 들여다볼 여유가 줄어든다. 행동 데이터의 정교함이 '사람을 이해하고 있다'는 착각을 만들어낸다. 그 착각이 쌓일수록 우리가 놓치고 있는 것의 크기도 함께 커진다.
세 번째 변화 — LLM의 등장이 새로운 질문을 만들었다
ChatGPT, Gemini, Claude 같은 대형 언어모델(LLM)은 텍스트에서 감성을 분류하는 능력을 전례 없는 수준으로 끌어올렸다. 고객 리뷰 수천 건을 순식간에 분석하고 감성 패턴을 추출하는 것이 가능해졌다. 이것은 분명 매우 긍정적인 변화다.
그런데 바로 이 기술의 등장이, 역설적으로 더 중요한 질문을 만들었다. "LLM이 텍스트의 감성을 읽는다면, 그것으로 충분한가?" 텍스트는 사람이 이미 언어로 표현하기로 선택한 것들만 담고 있다. 앞서 이야기한 피험자의 진짜 감성 — "설문 뒤에 숨어 있던 불편함" — 은 텍스트 어디에도 존재하지 않는다. LLM이 아무리 정교해져도, 언어로 표현되지 않은 감성은 읽을 수 없다. 그래서 감성 AI는 LLM이 발전할수록 오히려 더 필요해진다는 결론이 나온다. 이 이야기는 네 번째 글에서 더 깊이 다룰 것이다.
잠깐, 기술 이야기를 내려놓고 다른 이야기를 해도 될까.
이 분야를 공부하고, 실험하고, 실패하면서 가장 오랫동안 붙들고 있었던 생각이 하나 있다.
감성 데이터는 원래부터 존재했다는 것이다. 표정, 심박, 목소리의 떨림, 시선의 방향 — 이것들은 인간이 태어날 때부터 가지고 있던 신호들이다.
우리는 이미 무의식적으로 모든 비언어적 표현을 해석할 수 있는 능력을 가지고 있다. 흔히 말하는 '감'이라는 것도 무의식적으로 수없이 쌓아 올린 비언어적 데이터를 학습한 결과물일 뿐이다. 단지 이것을 논리적, 객관적으로 설명할 수 있는 기술과 도구가 없었을 뿐이다.
그러니 감성 AI는 무언가를 새로 만드는 것이 아니다. 원래 인간이 자연스럽게 해왔던 일을 컴퓨터로 하려는 것뿐이다.
사소해 보일지 모르나, 인간의 '감'을 데이터로 치환하는 이 작업은 어쩌면 우리가 서로를 바라보는 시선을 근본적으로 바꾸는 시작점이 될지도 모른다.
이론보다 실천이 먼저인 사람들을 위해 지금 당장 던져볼 수 있는 질문 세 가지를 남겨둔다.
첫 번째 질문. "우리가 지금 보고 있는 데이터는 '했는가'를 말하는가, 아니면 '어떻게 느꼈는가'를 말하는가?"
다음 주 보고서나 대시보드를 열었을 때, 각 지표 옆에 이 질문을 붙여보라. 아마 대부분의 지표가 '했는가' 쪽에 속한다는 것을 발견하게 될 것이다. 그것이 잘못된 것이 아니다. 다만 비어있는 절반이 어디인지를 인식하는 것, 그것이 출발점이다.
두 번째 질문. "고객 만족도 점수가 높을 때, 우리는 실제로 무엇을 측정한 것인가?"
기억자아가 경험자아를 항상 정확하게 대변하지는 않는다. 점수가 의미하는 바를 의심해보는 것이 나쁜 태도가 아니라, 더 정확한 이해를 향해 가는 첫 걸음이다.
세 번째 질문. "원격 회의에서 팀원의 상태를 나는 어떤 신호로 읽고 있는가?"
화면 너머의 사람을 '읽는' 것이 얼마나 불완전한지를 한 번 의식적으로 생각해보는 것만으로도, 감성 채널의 손실이 얼마나 실재하는 문제인지가 구체적으로 느껴진다.
그리고 도구보다 먼저 시작할 수 있는 한 가지를 제안한다.
다음 사용자 인터뷰나 고객 미팅에서, 상대방의 말 외에 비언어적 신호를 의식적으로 관찰해보는 것이다.
눈썹의 미세한 움직임, 답하기 전의 짧은 침묵, 목소리의 속도 변화. 도구 없이도 할 수 있는 가장 원초적인 형태의 감성 데이터 수집이다. 감성 AI는 결국 그 관찰을 기술이 자동화한 것이다. 관찰하는 눈을 먼저 기르는 사람이, 이 기술을 제대로 쓸 수 있는 사람이 된다.
데이터가 많아진다고 해서 사람을 더 잘 알게 되는 것은 아니었다. 우리는 그것을 이미 경험으로 알고 있다. 만족도 점수가 올라가도 이탈이 일어나고, 클릭률이 높아도 진짜 감동이 있었는지는 모른다.
감성은 언제나 거기 있었다. 표정 속에, 심박 속에, 목소리의 떨림 속에, 눈이 머무는 방향 속에.
우리가 그것을 읽지 못했던 것은 신호가 없어서가 아니라, 읽는 방법을 몰랐기 때문이다.
앞으로의 글들은 그 방법에 대한 이야기다. 기술의 언어이기도 하지만, 결국은 사람을 더 잘 이해하고 싶다는 오래된 바람에 대한 이야기이기도 하다.
당신은 오늘 몇 번이나 누군가의 감성을 '읽었다'고 생각했는가? 그리고 그 중 몇 번이나 맞았는가?
그런데 이 물음이 나만의 물음이 아니었다는 것을 아는가.
지금으로부터 거의 30년 전, MIT의 한 연구자가 똑같은 질문을 들고 컴퓨터 앞에 앉았다.
"기계가 감성을 인식할 수 있다면 어떨까."
그 질문이 하나의 학문을 만들었고, 지금 우리가 이야기하는 감성 AI의 모든 계보가 거기서 시작되었다.
다음 글에서는 그 30년의 이야기를 함께 걷는다.
Bailenson, J. N. (2021). Nonverbal overload: A theoretical argument for the causes of Zoom fatigue. Technology, Mind, and Behavior, 2(1). https://doi.org/10.1037/tmb0000030
Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.
Nederhof, A. J. (1985). Methods of coping with social desirability bias: A review. European Journal of Social Psychology, 15(3), 263–280. https://doi.org/10.1002/ejsp.2420150303