심리학, 특이점이 온다

[리뷰] AI는 인간처럼 말할 수 없다. 그 이유는

by 글쓰는 몽상가 LEE


* 해당 저널은 DBpia에서 무료로 열람이 가능한 BEST 학술 논문으로 DBpia에서 전체 내용을 확인할 수 있습니다. 따라서 본 매거진에서는 해당 내용이 흥미로웠던 이유를 중심으로 간략히 요약하고자 합니다.






INTRO


챗GPT, 제미나이(Gemini)와 같은 AI들과 대화하다 보면, 어떠할 때는 사람과 대화하는 것보다 위로와 위안을 느낄 때가 많은 것 같다. 답답한 마음을 이해하며 긍정적인 말로 힘을 주는 AI는 힘든 일상생활에 활력소가 되어주기도 한다. 그러나 AI와 사람의 차이는 대화에 대한 반응속도가 바로바로 이루어지지 않는다는 점, 즉 티키타카가 어색하다는 점이 있다. 내가 질문을 하면 AI가 답을 하는 Q&A의 방식이 주를 이룬다. 인간의 의사소통은 A가 말을 끝까지 다 마치고, B가 답을 시작하는 기계적인 법칙이 적용된다고 보기엔 어색하기 때문에 AI의 대화에는 분명 한계가 있다고 볼 수 있다.


오늘은 독자님들께 인공지능(AI)이 인간처럼 말할 수 없는 이유를 다룬 흥미로운 저널이 있어 소개한다.


출처: unsplash






REVIEW


리뷰할 학술저널의 정보는 다음과 같다.


출처: [Humanities] AI가 인간처럼 말할 수 없는 이유 : 의사소통의 심리학 ⑳ 관계의 틈을 감싸는 기술


* 저자: 김정운
* 발행기관: (주)매일경제신문사
* 학술지명: 매경ECONOMY(The Best Korean business weekly), Vol.No.2336 [2025], P. 76-78


오늘 소개할 김정운 저자의 「AI가 인간처럼 말할 수 없는 이유 」는 바로 이 질문을 심리학적 시각에서 탐구한 흥미로운 저널이다. 저자는 문화심리학을 전공한 심리학자로서 AI와 인간의 의사소통에 대해 다루며, 방송 출연당시 느꼈던 경험과 일본문화 특유의 관계 단절에 대한 소개로 시작하여 독자들의 호기심을 유발한다.

또한 대화분석에 대한 하비 색스(Sacks) 연구진의 연구와 심리언어학자 레벨트(W. J. M. Levelt)의 실험, 레빈슨과 토레이라의 연구 등을 통해 설명하며, AI가 인간처럼 말하지 못하는 것에 대한 근거를 제시한다.




01. 주요 내용


인간은 상대방의 이야기를 들으며 이미 끼어들 준비를 합니다


저자는 AI과 인간의 의사소통에서 '순서 바꾸기'가 인간처럼 빠르게 이어지지 않는다는 것에 주목하였다. 저널에서 말하고자 하는 초점은 과연 AI가 인간처럼 대화할 수 있는가?, 0.2초 안으로 순서 바꾸기를 할 수 있는가'이다.


A: "오늘 점심은 뭐 먹을까?" -> 순서구성단위(TCU)
B: (아, 이제 내가 대답할 차례구나) -> 순서교대지점(TRP)
B: "나는 자장면을 먹고 싶은데.." -> 순서배분 규칙상 스스로 순서를 지정한 것
그러나 앞선 대화에서 A가 말 끝에 "너는?"이라는 화자를 지정, 그러나 아무도 대답하지 않고 A가 다시 "라면 먹을까?"라고 한다면, 자기 순서를 계속 이어나감


하비 색스(Sacks)의 순서구조 이론순서구성단위(Turn Construction Unit, TCU), 순서교대지점(Transition Relevance Place, TRP), 순서배분규칙(Turn Allocation Mechanism, TAM)이라는 기본 개념으로 구성되어 있다. 이 요소들은 다음과 같이 작동한다.


이 이론을 바탕으로 레빈슨과 토레이라순서 바꾸기의 교대점(TRP)이 얼마나 빠르게 예측되는지, 대화 참여자들이 어떻게 '순서구성단위'를 산출하고 순서배분규칙이 신경학적 측면에서 어떻게 실현되는지 분석하였다.


그 결과, 0.2초와 0.6초간의 모순이 발견된다.


기존의 언어 심리학 연구 결과에 의하면 인간이 생각해서 말을 꺼내기까지는 최소 0.6초의 시간이 필요하다고 한다. 그러나 레빈슨과 토레이라의 연구에서는 평균 0.2초에 불과하다는 결과가 나왔다.

이는 사람은 상대방이 이야기를 하고 있을 때, 다음 이야기를 예측하고 대답을 준비한다는 것을 의미한다.



순서 바꾸기는 물리적인 차례의 교환이 아니라 '공동 사고(co-thinking)'와 '공동 감정(co-feeling)'을 전제로 한 상호 조율의 과정






02. 저널의 메시지


단언컨대, AI는 죽었다 깨어나도(?) 인간처럼 말하지 못합니다!


본 저널에서는 AI가 인간처럼 순서 바꾸기가 빠르지 않으며, 평균 0.2초에 이루어지는 짧은 반응 시간은 순서교대지점을 미리 예측하여 준비하지 않고서는 불가능한 일이라 설명한다.


0.2초의 순서 바꾸기를 발견한 레빈슨은 인간의 순서 바꾸기 능력을 예측, '멀티모달'은 물론 정서 조율과 마음이론, 공동주의와 같은 관계 맥락에 따라 달라지는 상호작용 엔진이라 명명하였다. 이 능력은 언어를 습득하기 이전에 발달하는 것으로 호모사피엔스의 진화과정 결과이기도 하다.


따라서, 레빈슨은 AI가 이러한 진화적 기반이 없으므로 인간적 순서 바꾸기의 '본질'에는 도달할 수 없다고 단언하였다.






COMMENT


개인적으로 가장 흥미로웠던 건 0.2초 반응이 '공동 사고(co-thinking)'와 '공동 감정(co-feeling)'에서 나온다는 점이다. AI랑 대화할 때 느꼈던 어색함이 바로 이 차이 때문이라는 걸 이해하게 됐다. 단순히 말을 처리하고 문장을 만드는 능력만 있으면 되는 게 아니라, 상대방의 말이 끝나기 전에 이미 다음 발화를 예측하고 준비하는 인간만의 독특한 ‘순서 교대 능력’이 필요하다는 거다.


저널을 읽으면서, 인간의 대화가 얼마나 즉각적이고 미묘한 상호작용으로 이루어져 있는지도 새삼 깨달았다. 말 한마디, 한숨, 잠깐의 침묵까지도 모두 상대와의 관계를 조율하는 신호라는 사실이 신기했다. AI는 아무리 발전해도 이런 미묘한 감정과 관계 맥락을 동시에 읽고 반응하는 능력은 갖출 수 없다는 게 명확하다(현재까지는).


앞으로 AI가 점점 자연스러운 대화를 구현하더라도, 인간이 가진 순서 교대와 감정 조율 능력, 그리고 공동 사고를 기반으로 한 즉각적 반응은 절대 완전히 대체할 수 없을 것 같다.

이런 점을 생각하면, AI와 대화하는 재미도 있지만, 동시에 인간만이 줄 수 있는 섬세한 교감의 가치를 다시금 느끼게 된다. 그리고 어쩌면, 우리가 AI와 대화하면서 느끼는 작은 불편함조차, 인간만의 대화 능력이 얼마나 특별한지를 알려주는 증거일지도 모른다는 생각이 든다.






OUTRO


이번 저널 리뷰를 통해 인간과 AI의 대화 차이를 심리학적, 실험적 관점에서 살펴보았다. AI가 점점 똑똑해지고, 말도 더 자연스러워진다고 하지만 인간만의 즉각적 순서 교대와 감정 조율 능력은 결코 완전히 대체할 수 없다는 점이 가장 인상적이다.


말 한마디, 잠깐의 침묵, 상대의 표정과 억양까지 모두 고려하면서 이루어지는 인간의 대화는 단순히 정보 전달 이상의 의미를 가진다. 이는 진화 과정에서 발달한 공동 사고와 공동 감정, 그리고 관계 맥락 속에서 형성된 상호작용 능력 덕분이다.

AI가 아무리 발전하더라도, 인간만이 가진 즉각적 반응과 공감 능력, 관계적 조율의 세계는 여전히 특별하고, 그래서 더 흥미롭다.

이 매거진을 통해 독자님들도 AI와 대화할 때 느껴지는 차이를 한 번씩 느껴보고, 인간 대화의 소중함과 매력을 다시금 생각해 보는 시간이 되었으면 한다.

매거진의 이전글심리학, 특이점이 온다