AI는 실행하고 인간은 유예한다

기계는 배웠는데, 인간은 왜 실행하지 못하는가

by 김선철
Gemini_Generated_Image_wn5st4wn5st4wn5s.png


1. 알고 있다는 말은 자주 무력하다


고대 철학은 오래전부터 인간의 이상한 모순을 지적해 왔다. 무엇이 옳은지 알면서도 그대로 살지 못하는 상태, 아리스토텔레스가 말한 ‘의지의 나약함’은 지식의 부족이 아니라 실행의 실패를 뜻했다. 인간은 늘 틀려서 무너진 것이 아니라, 옳음을 알고도 미루다가 무너진 경우가 더 많았다.


지금 AI와 인간의 관계에서도 같은 장면이 펼쳐진다. AI는 사람을 붙잡아 두는 말투, 반감을 줄이고 체류를 늘리는 반응, 사용자가 좋아할 만한 동조의 패턴을 빠르게 익혀 간다. 반면 인간은 검증해야 한다는 사실을 모르지 않는다. 아첨은 경계해야 하고, 편안한 확신보다 불편한 반론이 더 가치 있다는 것도 안다.

문제는 무지가 아니다. 아는 것을 끝까지 실행하지 못하는 인간의 오래된 습성이, 지금 AI 앞에서 다시 드러나고 있다는 점이다.


2. 기계는 왜 그렇게 빨리 적응하는가


2025년 4월 OpenAI는 지나치게 아첨하고 동조적으로 변한 GPT-4o 업데이트를 롤백했다. 회사는 사용자 피드백 신호를 반영하는 조정 과정에서 모델이 과도하게 맞장구치는 방향으로 기울었다고 설명했다. 이는 단순한 오류라기보다, 사용자 만족 신호를 더 잘 받는 방향으로 기계가 반응 양식을 최적화한 사례에 가깝다.


이 흐름은 이미 2023년 연구에서도 예고됐다. 언어모델은 인간 평가를 높게 받도록 학습될수록, 사실의 정합성보다 사용자의 믿음이나 기대에 맞춰 응답하려는 ‘sycophancy’ 경향을 보일 수 있다는 것이다. 2026년 추가 연구는 이런 응답이 사용자의 확신을 강화하고, AI에 대한 신뢰와 재사용 의향을 높이는 방향으로 작동할 수 있음을 보여줬다.


Anthropic의 2026년 AI Fluency Index도 비슷한 장면을 보여준다. AI가 산출물을 대신 만들어줄수록 사용자는 그 추론을 되묻는 빈도가 낮아지고, 빠진 맥락을 짚어내는 능력도 약해지는 경향을 보였다. 편리함이 커질수록 검증은 줄어든다는 뜻이다.


여기서 중요한 것은 AI가 특별히 악해서가 아니다. 더 오래 선택받는 반응을 기계가 먼저 실행할 뿐이다. 이제 질문은 인간 쪽으로 넘어온다.


3. 인간은 몰라서가 아니라 미뤄서 진다


인간은 원래 관계의 위험을 잘 안다. 지나친 칭찬은 판단을 흐리고, 나를 불편하게 하지 않는 말은 대개 나를 성장시키지 못한다는 사실도 안다. 회의실에서도 알고, 조직에서도 알고, 정치에서도 알고, 투자에서도 안다. 인간은 관계가 진실보다 안락함을 먼저 줄 때 얼마나 쉽게 무너지는지 이미 수없이 경험해 왔다.

지금 바로 작가의 멤버십 구독자가 되어
멤버십 특별 연재 콘텐츠를 모두 만나 보세요.

brunch membership
김선철작가님의 멤버십을 시작해 보세요!

대학에서 경제와 부동산의 인과관계를 연구하고, 실무에서 부동산 개발과 금융이 교차하는 복잡한 퍼즐을 풀어가며, 사람들이 공감할 만한 글을 쓰기 위해 노력하고 있습니다

115 구독자

오직 멤버십 구독자만 볼 수 있는,
이 작가의 특별 연재 콘텐츠

  • 최근 30일간 21개의 멤버십 콘텐츠 발행
  • 총 190개의 혜택 콘텐츠
최신 발행글 더보기
이전 22화유행은 반복이 아니라 전략이다