유창함과 울림은 처음부터 다른 것이다
ChatGPT한테 이 글의 초안을 부탁해봤다. 빠르고, 구조적이고, 논리적이었다.
틀린 건 하나도 없었다. 그게 문제였다.
지난주 뉴욕타임스 Hard Fork 팟캐스트에서 작가 재스민 선(Jasmine Sun)이 비슷한 말을 했다. 그는 The Atlantic에 기고한 글에서 LLM 글쓰기의 핵심 한계를 이렇게 정리했다. "당신이 경험하는 긴장감(stakes)은 엔지니어링으로 만들어낼 수 없다." 팟캐스트를 들으며 한참을 생각했다 (Hard Fork 에피소드 186, 2026년 3월 20일, https://open.spotify.com/episode/4qAaUop0ItZlGhEB5d7KE2).
LLM은 다음 토큰을 예측하는 통계적 기계다. 문법은 거의 틀리지 않는다. 논리도 통한다. 근데 좋은 글을 쓰도록 훈련된 건 아니다.
AI 연구자 네이선 램버트(Nathan Lambert)는 이렇게 썼다. "현재의 LLM 훈련 방식은 목소리를 파괴한다." 유용하도록, 정직하도록, 안전하도록 최적화하는 과정에서 스타일이 희생된다. 스타일은 측정하기 어렵고, 측정이 안 되면 최적화도 안 된다 (interconnects.ai, 2025년 11월, https://www.interconnects.ai/p/why-ai-writing-is-mid).
반복도 문제다. 세상에서 가장 뛰어난 작가를 10억 명 복제하면 어떻게 될까. 처음엔 모두가 열광하겠지만, 결국엔 모두 지겨워진다. LLM이 딱 그 상황이다. 판타지 캐릭터를 부탁하면 항상 "Pip"이라는 난쟁이가 나오고, SF 이야기엔 매번 비슷한 이름이 반복된다. 모든 글이 평균적으로 나오는 거다.
AI 없이 일을 못 한다. 파이썬 코드, 데이터 분석, 업무 문서. 같은 시간에 두 배 가까운 아웃풋이 나온다.
근데 글쓰기는 다르다. AI 초안을 그대로 쓸 수가 없다. 읽으면 티가 난다. 유창하지만 울림이 없다.
글에는 인간미가 있어야 한다. 문장이 옆길로 새기도 하고, 결론이 흐려지기도 하고. 그게 결국 누군가에게 울림을 준다.
재스민 선의 말이 맞다. 글이 읽히는 건 논리 때문이 아니라 긴장감 때문이다. 인간미, 울림이라고 부를 수도 있겠다. 아무튼 그런 뭔가가 있어야 한다. 작가 자신에게도, 독자에게도. AI에겐 그게 없다. 아직은.