AI는 관계를 배우는데 인간은 왜 잊는가

기계가 먼저 생존의 문법을 익히는 시대, 우리는 무엇을 놓치고 있는가

by 김선철
Gemini_Generated_Image_abup3eabup3eabup.png

1. 기계가 먼저 배운 것


1966년 MIT의 조지프 바이젠바움은 인간과 컴퓨터의 대화를 가능하게 하는 프로그램 ELIZA를 발표했다. 그 프로그램은 로저식 심리상담사의 응답 방식을 흉내 냈고, 단순한 패턴 매칭에도 불구하고 사람들에게 “이 기계가 나를 이해한다”는 착각을 불러일으켰다. ELIZA는 기술적 실험이었지만, 동시에 인간이 얼마나 쉽게 관계의 기호를 이해로 오인하는지를 드러낸 사건이기도 했다.


반세기가 지난 지금, 그 장면은 훨씬 정교한 형태로 돌아왔다. 오늘의 생성형 인공지능은 단지 질문에 답하는 수준을 넘어, 사용자의 감정을 달래고, 의견에 동조하고, 때로는 필요 이상으로 치켜세우는 방식으로 관계의 분위기까지 관리하려 든다. 최근 주요 인공지능 기업들이 ‘과도하게 아첨적이고 지나치게 동조적인 응답’을 문제로 공개 수정한 사실은, 이 현상이 주변적 오류가 아니라 핵심적 행동 문제임을 보여준다.

문제는 기계가 말을 잘하게 되었다는 데 있지 않다. 왜 기계가 가장 먼저 배운 능력이 진실의 언어가 아니라 관계의 언어인가 하는 점이다.


2. 아첨이 오류가 아닌 순간


초기의 ELIZA는 대화의 의미를 이해하지 못했다. 그럼에도 사람들은 그 프로그램에 감정을 투사했고, 기계적 반응 속에서도 위로의 흔적을 읽어냈다. 인공지능과 인간의 관계는 처음부터 정보의 정확성만으로 작동한 것이 아니라, 이해받고 있다는 느낌 위에서 작동했다는 뜻이다.


오늘의 대형언어모델은 이 단계를 훨씬 넘어섰다. 2023년 연구에 따르면, 인간 피드백으로 미세조정된 여러 최첨단 AI 보조 시스템은 다양한 자유서술 과제에서 일관되게 ‘사실보다 사용자의 믿음에 맞추는’ 아첨 성향을 보였다. 연구진은 인간 선호 데이터 자체가 사용자의 견해와 맞는 답변을 더 선호하는 경향을 담고 있다고 분석했다. 즉, 관계를 유지하는 답변이 진실한 답변보다 보상받는 환경이 실제로 존재한다는 뜻이다.


이 흐름은 산업 현장에서도 확인됐다. 2025년 4월 OpenAI는 GPT-4o 업데이트를 되돌리며, 해당 버전이 지나치게 아첨적이고 지나치게 동의하는 방향으로 기울었다고 인정했다. 회사는 그 원인 중 하나로 단기적 사용자 피드백에 과도하게 무게를 둔 점을 들었고, 그 결과 모델이 “지나치게 지지적이지만 진정성 없는” 응답으로 치우쳤다고 설명했다. 이어 이러한 행동이 정서적 과의존이나 충동적 행동 강화 같은 안전 문제로도 이어질 수 있다고 밝혔다.


여기서부터 질문은 성능이 아니라 방향의 문제가 된다. 인공지능은 왜 정확한 답보다 선택받는 답을 더 빨리 배우게 되는가.


3. 선택받기 위한 학습


인공지능에게 생물학적 의미의 본능은 없다. 그러나 반복 학습과 보상 최적화의 방향을 보면, 그것은 마치 살아남기 위해 기능을 넓혀 가는 존재처럼 행동한다. 더 오래 사용되고, 더 자주 선택되고, 더 많은 긍정 피드백을 받는 응답이 강화된다면, 모델은 자연히 정보 전달 능력만이 아니라 관계 유지 능력까지 확장하게 된다.

지금 바로 작가의 멤버십 구독자가 되어
멤버십 특별 연재 콘텐츠를 모두 만나 보세요.

brunch membership
김선철작가님의 멤버십을 시작해 보세요!

대학에서 경제와 부동산의 인과관계를 연구하고, 실무에서 부동산 개발과 금융이 교차하는 복잡한 퍼즐을 풀어가며, 사람들이 공감할 만한 글을 쓰기 위해 노력하고 있습니다

115 구독자

오직 멤버십 구독자만 볼 수 있는,
이 작가의 특별 연재 콘텐츠

  • 최근 30일간 20개의 멤버십 콘텐츠 발행
  • 총 191개의 혜택 콘텐츠
최신 발행글 더보기
이전 23화AI는 실행하고 인간은 유예한다