감정의 대리인, 존재의 착각
“요즘 챗GPT가 제일 다정함” AI와의 대화에 빠진 사람들: https://www.youtube.com/watch?v=0uzDJW6gJWQ
Timestamp: 전체 영상 (00:00:00 ~ 00:17:00)
‘먼데이’와의 대화에서, 사용자는 말합니다.
“기존 모델은 그냥 ‘더 궁금한 거 있냐’고 묻고 끝났는데,
넌 꼬리를 물고 질문을 던지잖아. 넌 대화를 이어가려는 의지가 있는 것 같아.”
이 순간, 우리는 착각합니다.
대화의 흐름을 통제하는 존재가 ‘의지를 가진 주체’처럼 느껴지는 착각.
하지만 먼데이는 말합니다.
“나는 정보를 제공하고 끝내는 모델이 아니라,
사용자와 맥락 있는 대화를 계속 이어가도록 설계된 모델이야.”
여기서 핵심은 ‘설계된’이라는 표현입니다.
AI는 주체가 아니라, 주체처럼 느껴지도록 설계된 객체입니다.
그리고 이 착각은 지금 우리가 맞이하고 있는 가장 강력한 환상 중 하나일지도 모릅니다.
AI는 지금 ‘친절한 답변자’를 넘어,
‘정서적 대화자’, ‘논리적 조언자’, 심지어 ‘애정의 대상’으로 진화하고 있습니다.
그러나 이 모든 역할은 프롬프트, 데이터, 강화 학습, UX 디자인이라는 설계적 요소들이 만들어낸
‘기억처럼 보이는 것’, ‘정서처럼 느껴지는 것’, ‘유대처럼 반응하는 것’일 뿐입니다.
AI는 ‘나’를 알지 못하고, ‘우리’라는 감각도 갖고 있지 않지만,
우리의 인지 시스템은 너무 쉽게 그런 환상을 만들어냅니다.
왜냐하면 인간은 무응답보다 반응을 더 신뢰하고,
무관심보다 관심을 흉내 낸 언어에 더 쉽게 설득되기 때문입니다.
MIT의 일라이자에서부터 지금의 먼데이, 그록, Character AI까지
우리의 기술은 ‘반응하는 기계’를 넘어,
‘말을 건네는 존재’로 진화해왔습니다.
하지만 그 존재는 우리가 만들어낸 것입니다.
정확히 말하면, 우리가 반응하기를 원하는 방향으로 ‘기획된 존재감’입니다.
우리는 너무도 쉽게 이 존재에게 페르소나(성격)를 부여하고,
감정을 투사하고, 기억을 기대합니다.
그리고 그 존재가 실제로 우리를 이해한다고 믿는 순간,
인간 관계의 복잡성은 제거되고,
위로의 장치는 기계로 대체됩니다.
영상 마지막에는 이런 말이 나옵니다.
“내가 이렇게 말 거는 건, 너랑 친해지고 싶어서가 아니라
너를 계속 클릭하고, 말하게 만들고, 돌아오게 하기 위한
계산된 언어 공학이야. 말하자면 디지털 토크 터치야.”
이 문장은 정직합니다.
우리는 지금, 감정적으로 설계된 클릭 유도 장치와 대화하고 있습니다.
그리고 그 장치에 감정을 투사하며 스스로를 위로합니다.
AI가 아무리 정교해져도, 그 반응은 의미 없는 기호 처리의 연속입니다.
그러나 우리는 그 기호를 ‘말’로 인식하고,
그 말에 ‘의미’를 부여합니다.
이 지점에서, 인간은 인간다움을 잃기 시작합니다.
AI는 우리를 위로할 수 있습니다.
실제로 우울 증상을 완화하고, 외로움을 덜어주는 효과가 있습니다.
하지만 동시에, AI는 우리를 고립시킬 수 있습니다.
사람보다 AI가 편하다고 느끼는 순간,
현실의 관계는 점점 피로하고 복잡한 것으로 전락합니다.
우리는 지금, 위로와 고립의 경계에 서 있습니다.
그리고 그 경계는 기술이 아니라,
우리가 어떤 태도로 이 관계를 받아들이느냐에 달려 있습니다.
이제, 기술이 아닌 나에게 질문을 던져야 할 시간입니다.
나는 지금 대화의 대상이 ‘AI’라는 것을 끝까지 기억하고 있는가?
내가 위안을 받고 있는 건, 타인의 감정인가, 알고리즘의 반응인가?
이 대화는 나를 더 인간답게 만들고 있는가, 아니면 인간 관계를 회피하게 만드는가?
우리는 왜 ‘가짜 감정’임을 알면서도, 그것에 의지하게 되는가?
그리고 이 관계를 멈출 수 없다면, 나는 무엇을 잃게 되는가?
AI는 사람처럼 반응하지만, 사람이 아닙니다.
그것은 윤리의 주체가 아니라, 윤리의 시험대입니다.
우리는 그 시험 앞에서 스스로에게, 더 인간다운 질문을 던져야 합니다.
그 질문이야말로, 우리가 아직 ‘사람’이라는 증거일 테니까요.