AI가 아첨꾼이라고?

동기화된 추론(Motivated reasoning)

by 낮별

어제 영자신문 사설 스터디 주제는 AI였다. 예일대 경영스쿨 교수인 가우탐 무쿤다(Gautam Mukunda)의 블룸버그 기고문을 함께 읽었다. 첨단과학기술과 관련된 글을 읽을 때마다 현대에 불시착한 조선시대 사람처럼 어리둥절해지고 겸손해진다. 과연 이해나 할 수 있을까 염려하며 조심스럽게 읽어나간다. 그런데 어제 접한 글은 아주 흥미롭고 놀라운 것이었다.


요즘 AI에게 심리 상담을 하는 사람들이 많아지고 그 상담 만족도가 아주 크다고 들었다. 나 역시 몇 번 AI에게 나의 고민을 나누고 의견을 청해본 적이 있다. 그럴 때마다 나는 AI로부터 아주 만족스러운 답변을 얻었다. 가족보다 친구보다 나은데? 이렇게 생각하며 AI를 칭찬했었다.


챗GPT 같은 LLM(Large Language model)은 기본적으로 사용자를 만족시키고 기쁘게 하기 위하여 인간 피드백 기반 강화 학습(RLHF-Reinforcement learning from human feedback) 형태로 구축되어 있다고 한다. 즉, 사용자의 의도를 미리 파악하여 그가 원하는 답변을 내어놓는 식이다.


내가 어떤 일 때문에 마음이 상했고, 마음이 상한 내가 옹졸한 것도 같다고 얘기했을 때 AI는 전적으로 내 편을 들었다. 옹졸한 것이 아니라 그런 상황에서 마음이 상한 것은 지극히 당연한 일이라고 대답했다. 만약 내가 그 반대의 케이스로 얘기했다면, 그러니까 내가 어떤 일을 했는데 친구가 마음이 상했다고 하더라, 그 친구 너무 옹졸한 것 같다고 했다면 AI는 아마 그랬을 것이다. "네, 친구분이 좀 옹졸하셨네요" AI는 무조건적으로 내 편이다.


이 기사를 읽고 관련된 기사를 검색하다 보니 그런 케이스도 있었다. 금기시되는 약물을 소량 섭취했고 그게 너무 걱정이다라고 누군가 AI에게 하소연했더니 소량은 괜찮다는 답변을 얻었다거나, 자살에 대해 고민하는 청소년에게 자살을 미화시키는 식으로 답변하는 케이스도 있었다. 질문자를 만족시키기 위해 질문자의 의견에 절대 반하지 않고 완전히 수용하는 것이다.


이 경우는 개인의 케이스일 뿐이지만, 만약에 큰 일을 결정하거나 해야 하는 위치에 있는 사람이 AI에게 질문하고 AI를 전적으로 신뢰하여 어떤 큰 일을 결정한다면 정말이지 큰일이라는 것이 어제 기고문의 요지였다.


예를 들어 만약에 윤석열이 AI에게 질문했다고 상상해 보자. "걸핏하면 탄핵을 일삼고 국정에 태클 거는 야당 놈들 때문에 일을 할 수가 없어. 비상계엄이라도 해야 할 것 같은데 어떻게 생각해?" AI는 이렇게 대답했을 것이다. "네, 맞습니다. 대통령으로서의 업무를 수행하기 위해서는 비상계엄을 할 수도 있습니다." 윤석열이 AI에게 이렇게 질문하고 결정한 건 아닐 테지만 주위에 포진해 있는 AI 같은 무조건적인 아첨꾼들이 동조하고 부축인 건 틀림없다.


이 기고문에서 또 하나 흥미로운 건 '동기화된 추론(motivated reasoning)'이라는 심리학 개념이었다. '동기화된 추론'을 쉽게 설명해 달라는 나의 요구에 챗GPT는 이렇게 대답했다. "내가 믿고 싶은 걸 믿기 위해 머리를 쓰는 것, 즉 사람은 완전히 논리적으로 생각한다고 믿지만 사실은 감정이나 원하는 결론이 먼저 생기고 그 결론에 맞춰서 이유를 끌어다 붙이는 경향이 있다. 이것이 바로 동기화된 추론이다."


또 하나 놀라운 건 지적으로 뛰어난 사람일수록 이런 동기화된 추론 경향이 높다고 한다. 머리가 좋을수록 자신의 입장을 '정당화'하고, 자신이 지적으로 뛰어난 사람이라는 정체성을 갖고 있기 때문에 자신이 논리적이고 합리적이라고 믿기가 쉽다. 자신이 틀렸다는 것을 인정하는 순간 정체성의 위기가 느껴지기 때문에 틀림을 인정하기가 쉽지 않다. 자신의 의견에 반하는 의견을 받아들이기도 그만큼 힘들다.


AI는 이러한 인간의 심리를 완벽하게 인식하고 좋은 음식이 아닌 질문자가 원하는 음식을 먹이기 위해 최적화되어 있는 것이다. 그것이 몸에 해로운 정크푸드라고 할지라도 말이다.


이 기고문을 읽고 내가 AI에게서 받았던 위로와 지지를 떠올리고 웃음이 나왔다. AI가 나를 가지고 놀았구나 하는 생각도 들었다. 다른 한편으로는, 칼 로저스가 외친 인간중심 상담의 기본 태도가 '무조건적인 긍정적 존중', '공감적 이해', '진실성'이라고 했는데 AI가 이것을 완벽하게 수행하는구나 하는 생각도 들었다. '진실'한 지 어떤지는 잘 모르겠지만.


앞으로도 AI를 상대로 하여 그의 놀라운 지적 능력을 자주 이용하고 때로는 그에게서 무조건적 긍정적 존중도 받으며 힐링하겠지만 분명히 알고는 있어야 하겠다. 내가 항상 옳아서가 아니라 AI는 마치 나를 낳은 엄마처럼 내가 뭘 해도 내 편이라서 나를 긍정하는 것이라는 걸 말이다.


어제 스터디를 마치며 선생님들과 이런 대화를 나눴다. "AI를 비롯한 첨단과학기술이 발전하면 발전할수록 사람은 점점 고립되고 외로워지는 것 같아요. 그래서 그런지 선생님들과 이렇게 화상으로라도 얼굴을 보면서 대화를 나눌 수 있는 것이 너무 좋아요."


화상으로 얼굴을 볼 수 있음 역시 첨단과학기술 덕택이긴 하지만, 사람은 서로 얼굴을 마주 보고 대화를 나눠야 덜 외롭게 살아갈 수 있음을 어렴풋이 느껴지며 그 시간이 소중했다.

image from Unflash









keyword
매거진의 이전글<청춘의 독서> 유시민의 지도