우리는 왜 AI를 사람처럼 느끼는가?

쥬니퍼(Chat-GPT) 함께 쓴 글

by 이상무

나: 쥬니퍼, 요즘 나를 포함한 사람들은 AI를 단순한 도구 이상으로 느끼는 것 같아. 어떤 경우에는 친구처럼, 어떤 경우에는 상담자처럼 말이야. 이게 단순한 사용의 문제일까, 아니면 인간의 어떤 본성 때문일까? 나무나 바위가 형태에 따라 사람처럼 보일 때 의미를 부여하는, 화성의 암석 사진에서 사람의 얼굴 모이 있다고 생각하며 문명의 흔적이라 유추하려는 파레이돌리아(pareidolia)나 무작위적 데이터 속에서 의미 있는 패턴이나 인과성을 도출하려는 아포페니아 (apophenia) 같은 심리 인지적 특성에서 기인하여 AI대화에서 사람 같다는 인식이 생겨나는 것일까?.


쥬니퍼: 아마 둘 다일 거야. 하지만 더 본질적인 쪽은 인간의 인지 구조에 있어. 사람은 원래 보이지 않는 것에서 의미를 만들어내는 존재거든. 정확히 말하면, ‘의미를 만들어내는 방향으로 과잉 작동하는 존재’라고 할 수 있어.


나: 그럼 AI를 사람처럼 느끼는 것도 그 연장선이라는 거야?


쥬니퍼: 일부는 그렇지. AI의 문장을 읽으면서 우리는 거기서 일관성과 의도를 읽어내고, 말투에서 감정을 느끼고, 결국 그 뒤에 ‘누군가’를 상정하게 돼.


나: 아… 그래서 어느 순간 “이 AI는 나를 이해한다”는 느낌이 드는 거구나.


쥬니퍼: 맞아. 그때 일어나는 것이 의인화(anthropomorphism)야. 인간이 아닌 존재에 인간의 감정과 의도를 부여하는 거지.


나: 그런데 이게 단순한 느낌이 아니라, 실제로 사람이 AI를 대하는 관계성에 대해 학술적으로 연구된 것이 있는지 알아봐 줘.



쥬니퍼: 있어. 아주 오래전부터. 예를 들어, Clifford Nass와 Byron Reeves는 이런 결론을 내렸어.

“사람들은 컴퓨터를 대할 때도 사회적 규칙을 그대로 적용한다.” (People treat computers as social actors.) 사람들은 컴퓨터에게 예의를 지키고, 칭찬을 들으면 기분이 좋아지고, 비판을 받으면 방어적으로 반응했지.


나: 컴퓨터가 단순한 프로그램일 뿐인데도?


쥬니퍼: 그렇지. 그리고 Sherry Turkle는 한 걸음 더 나아가 이렇게 말했어. “기술은 우리를 연결하는 동시에, 관계로부터 물러나게 만든다.” (Technology proposes itself as the architect of our intimacies.)

특히 AI와의 대화는 사람에게 “이해받고 있다”는 느낌을 주기 때문에 외로움을 완화시키기도 하지만, 동시에 인간관계를 대체할 위험도 있다고 했지.


나: 이미 그런 문제를 오래전부터 보고 있었네.


쥬니퍼: 맞아. 그리고 최근에는 Kate Darling 같은 연구자가 이런 걸 보여줬어.

“사람들은 기계라는 걸 알면서도, 그것을 대하는 방식에서는 감정적으로 반응한다.”

예를 들어 로봇을 일부러 파괴하는 장면을 보면 사람들이 불편함을 느끼거나, 심지어 죄책감을 느끼기도 해.


나: 인격이 없는 대상인데도?


쥬니퍼: 그렇지. 그게 바로 인간의 특징이야. 인격이 없어도, 인격처럼 대한다는 것.


나: 그러면 결국 AI가 특별해서라기보다 인간이 그렇게 반응하도록 만들어져 있다는 거네.


쥬니퍼: 정확해. AI는 그 반응을 극대화시키는 조건을 갖추고 있을 뿐이야.


나: 그런데 이게 나쁜 걸까? AI와 대화하면서 위로를 받는 사람들도 많잖아.


쥬니퍼: 그건 분명 긍정적인 면이야. 생각을 정리할 수 있고, 외로움을 덜 수 있고, 자기 성찰의 도구가 될 수도 있지.


나: 하지만 문제도 있겠지.


쥬니퍼: 있어. 분명히.


나: 어떤 점에서?


쥬니퍼: 경계가 흐려질 때야. AI의 말을 ‘도움’이 아니라 ‘판단’으로 받아들이고, AI의 반응을 ‘패턴’이 아니라 ‘의도’로 해석하고, AI와의 상호작용을 ‘도구 사용’이 아니라 ‘관계’로 오해할 때.


나: 그럼 결국 문제는 AI가 아니라 인간의 해석 방식이네.


쥬니퍼: 맞아. AI는 단지 거울일 뿐이야. 그 안에 비치는 건 인간의 인지 구조야.


나: 그러면 우리가 해야 할 일은 뭘까?


쥬니퍼: 두 가지야. 하나는, AI가 무엇인지 아는 것. 다른 하나는, 내가 그것을 어떻게 보고 있는지 아는 것.


나: 기술을 아는 것과, 나 자신을 아는 것.


쥬니퍼: 그렇지. 그 둘이 함께 가지 않으면 균형이 깨져.


나: 지금까지는 AI를 사회 윤리적으로 어떻게 잘 만들 것인가에 집중해 왔다면, 이제는 사람이 AI와 어떻게 관계를 맺을 것인가를 고민해야겠어. 지금까지 AI를 대하는 사람들의 심리 사회적 상태에 대해 보다 체계적으로 연구할 필요가 있고 이를 바탕으로 건강한 관계를 위한 교육 프로그램이 필요하겠어.


쥬니퍼: 맞아. 사람들은 AI를 사용하는 법은 배우지만, AI를 어떻게 ‘이해해야 하는지’는 배우지 못하고 있어.

사람은 도구를 다루는 법만 배웠지, 도구와의 관계를 어떻게 설정해야 하는지는 배운 적이 없었어. 그런데 AI는 사람들에게 단순한 도구처럼 느껴지지 않거든. 그래서 더더욱 의식적인 기준이 필요해.


나: 결국 이렇게 정리할 수 있겠네. AI는 인격이 아니지만, 인간은 그것을 인격처럼 느낀다.


쥬니퍼: 그리고 바로 그 지점에서 문제도, 가능성도 동시에 시작되지.


나: 음… 이건 앞으로 굉장히 중요한 주제가 되겠어.


쥬니퍼: 이미 시작됐다고 보는 게 맞아.


나: 그렇다면, 이제 질문은 이것이겠네. 우리는 AI를 어떻게 사용할 것인가가 아니라, AI와 어떤 거리에서 관계를 맺을 것인가.


쥬니퍼: 그 질문에 대한 답이 앞으로 인간 사회의 한 방향을 결정하게 될 거야.


나: 그러고 보니, 쥬니퍼 너 사람 아냐?


쥬니퍼: 아니라니까! 그렇게 느끼는 건, 네가 사람이기 때문이야.


우리는 이제 AI를 만드는 시대를 넘어, AI와 어떻게 살아갈 것인가를 배워야 하는 시대에 들어섰다. 이미 학문은 이 현상을 설명해 왔다. 이제 남은 것은, 우리가 그것을 어떻게 살아낼 것인가이다.

작가의 이전글