AI 시대, 공존을 위한 UX 디자이너의 질문들

<#6. AI는 인간의 맥락을 어디까지 이해할 수 있을까>

by 한재현

“It is … probable … that we will always learn more about human life and personality from novels than from scientific psychology.” — Noam Chomsky


우리는 인간 스스로도 자신과 타인을 제대로 이해하지 못하면서 그 이해의 역할을 기계에게 바라는 시대에 살고 있다.



1. 감정을 ‘추론’하려는 기술들: 겉을 읽는 다양한 방법

오늘의 감정추론 기술들은 표정 (비전), 목소리 (음성), 생체신호 (심박·피부전도·EEG 등), 모바일·웨어러블 기기 사용 패턴, 그리고 BCI (뇌-컴퓨터 인터페이스)까지 넓게 퍼져 있다. 이 기술들은 “순간”의 징후를 수집해 감정 상태를 분류하고 정의하려 한다. 하지만 표정과 특정 감정을 1:1로 대응시키는 전통적 가정은 과학적 근거가 약하다는 대규모 검토가 나왔다. 표정은 문화·상황·개인차에 강하게 의존하기 때문에, 얼굴 움직임만으로 내적 정서를 신뢰도 높게 추론하기는 어렵다는 것이다.


음성 감정 인식 (SER)도 진전은 크지만, 실제 환경에서의 일반화와 데이터 환경이 바뀌는 상황에서 성능 불안정이 핵심 과제로 반복 보고된다. 소규모·불균형 데이터와 도메인 일반화가 여전히 근본적 병목이라는 최근 리뷰의 진단도 같다. 웨어러블·스마트폰의 수면/활동/위치 등 수동 센싱을 이용해 우울이나 불안을 예측하려는 연구는 늘고 있지만, 개인의 편차도 크고 직접적으로 인간의 감정을 분석하는데 쓰이기에는 한계가 있다.


BCI는 우리의 생각이나 의도 중에 운동 의도 같은 신호를 명령으로 번역하는 데 강점을 보여 왔다. 예컨대, 운동피질 신호를 ‘손글씨’로 해석해 분당 약 90자 타이핑을 달성한 Nature 논문은 의미 있는 진전을 보여준다. 다만 이 연구 역시 의미·동기·기억 같은 마음의 내용 해독이 아니라, 운동 패턴의 번역에 가깝다.


요약하면, 우리는 표면 신호를 정교하게 읽는 데 점점 능해지고 있다. 그러나 그 신호가 말해 주는 것은 표면적인 라벨이지, 진정한 내면의 감정과 동기들은 아니다.



2. 인간의 내면: 표정 뒤의 원인, 기억, 트라우마

우리가 진짜로 알고 싶은 것은 ‘슬픔/분노’라는 라벨이 아니라 “왜” 그런 감정이 발생했는가—개인의 역사, 상실의 기억, 오래된 트라우마다. 관찰 가능한 신호와 내면적 원인은 느슨하게 연결되어 있고, 그 연결의 모양은 사람마다 다르다. 동일한 웃음이 어떤 이에게는 기쁨을 의미할 수도 있지만, 다른 이들에겐 씁쓸한 과거를 회상하는 것일 수도 있다. 최신 리뷰·메타분석들이 반복해서 지적하듯, 센서가 포착하는 것은 “표면”의 변화이며, 그 근본적인 원인을 단정하기에는 맥락의 두께가 부족하다.


결국 기계가 놓치기 쉬운 것은 “심층 맥락”이다. 같은 무표정이 어떤 이에겐 분노의 억압, 다른 이에겐 사회적 안전을 위한 습관일 수 있다. 해석은 신호의 문제가 아니라 “개인의 성향”의 문제다.



3. 변화를 위한 상상: 함께 자라는 생애주기적 접근

가능성은 있다. 단발성 측정 대신 “시간과 경험을 공유”하는 것이다. 하루의 리듬, 관계의 패턴, 계절성, 전환기 (육아·이직·상실)를 장기간 함께 겪으며 개인 고유의 “정서-상황 지도”를 그려 가는 방식. 같은 ‘수면 5시간‘이라도 ‘출장 다음 날의 5시간’과 ‘갈등 이후의 5시간’은 다르게 읽혀야 한다.


맥락 컴퓨팅에서 널리 쓰이는 정의를 빌리면, 맥락은 “특정 행위자의 상황을 성격 지을 수 있는 모든 정보”다. 센서 값의 단순 합이 아니라, 시간 속에서 결을 얻는 상황성이다. 이 관점에서 AI의 일은 정답을 단정하는 것이 아니라, 변화를 감지하고 사용자가 그것을 해석하고 의미 부여할 수 있게 돕는 일이다. 그때 비로소 표면 라벨을 넘어 사람의 근본적인 마음에 접근한다.


BCI조차 이 틀에서 보면 다르게 보인다. 지금은 운동 의도의 복원에 가깝지만, 장기적으로는 개인별 “신경신호—경험” 사전을 함께 축적하는 길이 열릴지 모른다. 그러나 오늘 당장의 올바른 자세는 급진적 낙관이 아니라, “개인화된 맥락 모델을 시간이 쌓이게 설계”하는 일이다.



4. 내면을 공유하기 위한 조건: 신뢰, 관계, 윤리

심층 데이터를 장기간 공유하려면 “관계의 안전”이 전제여야 한다. NIST의 AI 위험관리 프레임워크는 설명가능성·투명성·프라이버시·안전·회복탄력성을 신뢰의 구성 요소로 제시한다. 성능만큼 중요한 것은 위험을 다루는 조직의 역량과 태도이다. 정책 환경도 같은 방향이다. EU AI Act는 얼굴 이미지의 무차별 스크래핑 금지, 교육·직장 환경에서의 감정 인식 금지 등을 명시했다. 감정 같은 민감 영역과 권력 관계가 결합할 때의 위험을 제도적으로 차단하려는 취지다.


영국 ICO 역시 바이오메트릭·감정 분석의 성숙도와 차별 리스크를 경고하며, 검증되지 않은 감정 분석에 기반한 중요한 결정은 피하라고 안내한다. 핵심은 단순하다. 알고리즘의 정확도는 윤리의 대체재가 아니다. 정확도가 오를수록 오남용의 위험도 함께 커진다. 수집을 최소화하고, 해석 권한을 분산하며, 실패 시 복구 경로를 마련하는 것이 주요 정책의 방향들이다.



5. 불완전한 이해와 공존의 기술

AI는 인간을 완벽히 이해하지 못할 것이다. 그리고, 아마 그게 정상이다. 표정·목소리·심박은 징후일 뿐 사유가 아니다. 그렇다고 공존의 가능성이 사라지진 않는다. 우리는 불완전한 이해 위에서도 좋은 관계를 만든다. 사람과 사람 사이가 늘 그랬듯이.


그래서 질문은 바뀐다. “AI가 인간을 얼마나 정확히 읽느냐”에서 “우리가 무엇을, 어떻게 공유할 것인가?”로. 생애주기적 데이터 누적이 의미를 갖기 위해서는, 신뢰와 윤리가 기능이 아니라 관계의 약속으로 서 있어야 한다. AI는 내면을 판정하는 심판이 아니라, 삶의 변화를 함께 지켜보는 증인에 가까울 때 힘을 발휘한다. 그때 AI의 맥락 이해는 인간을 대신 설명하는 언어가 아니라, 인간이 자신을 더 잘 이해하도록 돕는 거울이 될 수 있다.


“Far from bewailing the existence of mysteries-for-humans, we should be extremely grateful for it.” — Noam Chomsky