<#3 AI는 나를 얼마나 이해하는가?>
퍼스널라이제이션의 기대와 실망 사이에서
“The limits of my language mean the limits of my world.”
AI는 우리가 표현한 것만을 바탕으로 이해를 시도한다. 질문, 클릭, 위치 — 이러한 데이터들은 모두 ‘나’를 구성하는 단서이지만, 그 안에 맥락도, 의도도, 말하지 않은 감정도 없다. 그래서 본질적인 질문을 하게 된다. AI가 나를 이해하는가, 아니면 표면 위의 흔적만을 따라 그럴듯한 모형을 만든 것인가? 이 글은 그 사이의 간극에 대한 이야기다.
1. 이해받는 듯하지만, 이해받지 못한 순간들
구글의 컨텍스트 기반 알림 서비스는 예측형 개인화의 대표 사례였다. 해외 출장 중, 공항에 도착하자마자 “호텔까지 가는 길”이라는 알림이 떴을 때, 나는 감탄했다. AI가 나를 ‘이해하고 돕고 있다’는 감각. 퍼스널라이제이션이 가능하게 만든 순간이었다. 하지만, 내가 그 순간 일보다 자투리 시간을 활용하여 해외에서 예측 불가능함을 경험하고 싶었다면? 그 알림은 오히려 내가 원치 않는 ‘업무 모드’로의 전환을 암시하는 강요로 느껴졌을지도 모른다. AI는 정보를 정확히 제공했지만, 내 ‘의도’나 ‘기분’을 이해한 건 아니었다.
넷플릭스에서도 비슷한 경험이 있다. 한 번 본 SF 미드 때문에 내 추천 콘텐츠가 외계인과 디스토피아로 가득 찼다. 나는 다양한 장르를 탐색하려 했을 뿐인데, AI는 나의 일시적 선택을 고정된 취향으로 환원해 버렸다 [3]. 그 순간 나는 묻기 시작했다. “AI는 나를 정말 이해하고 있는 걸까?”
2. 퍼스널라이제이션은 어떻게 나를 만들어내는가
AI는 나의 데이터를 통해 나를 구성한다. 검색 기록, 클릭 패턴, 시청 시간, 구입 이력, 이모지 사용… 이 모든 것이 나의 ‘디지털 자아’를 구성하는 재료가 된다. AI는 여기에 통계적 모델과 추천 알고리즘을 결합해 ‘이런 행동을 하는 사람은 이런 반응을 보일 것’이라는 예측을 시도한다. 그리고 이 예측은 점점 나를 규정하기 시작한다.
기술적으로 더 정교해지면 지식 그래프(Knowledge Graph) 같은 시스템을 활용한다. 예를 들어, ‘불면증’을 검색한 사람이 ‘마그네슘’, ‘스트레스’, ‘수면 앱’을 탐색할 경우, 이 키워드들의 의미 관계를 네트워크로 구성해 맥락 기반 추천을 시도한다. 하지만 그 구조에도 불구하고, AI는 나의 ‘왜’에 대답하지 못한다. “늦게 잔 이유가 스트레스 때문인지,” “‘퇴사’라는 검색이 진심인지 충동인지” AI는 기억은 하지만, 해석하지 못한다. 그럼에도 불구하고, 우리는 이제 AI에게 맥락과 감정, 상황에 대한 ‘이해’를 기대한다.
3. AI는 이 복합적 기대에 어떻게 응답하고 있는가
AI는 점점 더 ‘이해하는 것처럼’ 반응하도록 설계된다. 감정 인식, 컨텍스트 추론 기술이 그 핵심이다.
또 다른 예를 들어보자. 감정 분석 기반 대화형 UI는 문장 구조, 단어, 이모지, 맥락 키워드 등을 분석해 사용자 감정을 추정하고 거기에 맞는 말투로 응답한다. “요즘 너무 힘들어요.” “그동안 애쓰셨어요. 숨 돌릴 시간 필요하실 거예요.”[1] 상황 인지형 개인화는 위치, 시간대, 이전 검색 히스토리를 활용해 적절한 콘텐츠나 알림을 ‘적시에’ 제안한다. 하지만 이 모든 시도는 여전히 사용자의 내면적 의도를 완전히 파악하지 못한다. 감정은 텍스트로 환원되지 않으며, 맥락은 데이터 흐름만으로 구성되지 않는다. “아니야 괜찮아.”라고 대답했다고 해서 진짜 괜찮을게 아니지 않은가
4. 기대가 높을수록 실망은 더 커진다
AI는 가끔 놀랄 만큼 정확한 말을 할 수 있다. 그럴 땐 “내 기분을 알아주는 것 같아”라는 감정이 생긴다. 하지만 대부분은 그렇지 않다.
너무 낙관적인 말투로 감정을 무시하거나
너무 빠르게 판단하거나
반복된 패턴으로 공감하는 듯하지만 결국 ‘AI적’ 일 때
우리는 AI가 나를 ‘이해하지 못했다’는 실망을 경험한다. 그 실망은 신뢰의 균열로 이어진다.
5. AI가 보여주는 나는 진짜 나인가
플라톤은 『국가』에서 동굴의 비유를 들며, 인간이 벽에 비친 그림자를 진실로 착각한다고 말했다 [2].
AI가 보여주는 ‘나’도 어쩌면 그런 그림자다. 내 데이터는 나를 설명하는 듯하지만, 그건 AI가 구성한, ‘보여지는 나’ 일뿐일지도 모른다.
“AI는 내가 좋아하는 걸 추천해 주니까, 내가 원래 이런 스타일인가?” “이 루틴에 맞춰 사니, 내가 더 나은 사람이 된 것 같아.” AI는 나와의 접점을 정리하고 구조화하여 나에 대한 인상을 만든다. 그리고 나는 그 인상을 받아들인다. 하지만 그 인상은 나의 예외성과 변화 가능성, 감정적 진폭을 포괄하지 못한다.
6. 디자인은 그림자를 넘을 수 있는가?
디자이너로서 나는 스스로에게 묻는다. “이 퍼스널라이제이션은 누구를 위한 것이며, 어떤 이해의 구조를 지향하는가?” 우리는 데이터를 통해 개인화를 시도하지만, 그 시도는 종종 본질이 아니라 껍데기를 향한다.
진짜 이해란 반복된 행동의 패턴을 따르는 것이 아니라, 그 뒤에 숨은 갈등과 주저함, 변화의 욕망까지 상상하는 것이다. 우리는 동굴 벽에 비친 그림자를 보여줄 수 있다. 그러나 그 그림자만으로 사용자를 규정해서는 안 된다. 진짜 디자인은, 사용자가 스스로의 그림자를 넘어 자기 자신을 다시 상상할 수 있도록 돕는 구조일지도 모른다.
7. BCI는 이 간극을 메울 수 있을까?
최근에는 언어와 행동의 외피를 넘어서려는 기술도 등장하고 있다. BCI(Brain-Computer Interface)는 사용자의 뇌파나 생체신호를 통해 말하지 않아도 감정을 감지하고, 의도나 집중 상태를 파악하려 한다.
AI가 읽어내지 못했던 ‘표현 이전의 감정’이나 ‘숨겨진 주의 상태’를 포착하겠다는 시도는 분명 고무적이다. 하지만, 이 역시 여전히 반응의 수준에 머무를 뿐, 사용자의 맥락이나 해석 구조를 진정으로 ‘이해’하는 데까지는 도달하지 못한다. AI가 점점 더 많은 신호를 읽어낼수록, 우리는 다시 묻게 된다. "그렇게 수집된 감각의 조각들이 진짜 나를 구성할 수 있는가?" 우린 그 대답을 찾아가야 한다.