AI로 쓴 글은 ‘영혼이 없는 글’ 인가

by 방구석 정치




1. 독자는 AI로 쓴 글에 대해 어떻게 생각하는가

일반적으로 독자는 AI로 쓴 글을 읽을 때 복합적인 인상을 받는다. 첫인상은 대체로 긍정적이다. 문장은 부드럽고 문법적 오류가 거의 없으며, 일정한 논리도 유지된다. 정보는 잘 정리되어 있고, 독자가 이해하지 못할 표현도 드물다. 그래서 독자는 처음에는 “잘 정리된 글”, “읽기 편한 글”이라는 느낌을 받는다.
그러나 조금 더 읽어나가면 다른 감각이 나타난다. 내용은 충분한데, 무엇인가 빠져 있다는 느낌이다. 설명은 많은데 핵심이 무엇인지 분명하게 드러나지 않고, 글이 어디로 향하고 있는지도 모호하게 느껴진다. 독자는 정보를 읽었다는 사실은 인식하지만, 글이 자신을 설득하거나 생각을 움직였다는 감각은 잘 받지 못한다.
그 결과 AI로 쓴 글을 읽은 뒤 독자의 평가는 이중적으로 나타난다. “잘 썼다”는 평가와 “남는 게 없다”는 감상이 동시에 나온다. 문장력과 정리 능력에 대해서는 긍정적으로 평가하지만, 글을 덮고 난 뒤 머릿속에 오래 남는 생각이나 판단은 남지 않는 경우가 많다.
이러한 독자 반응은 단순한 인상에 그치지 않는다. AI 생성 텍스트와 인간 작성 텍스트를 비교한 독자 평가 실험, 교육·미디어 현장에서의 사용자 피드백, 실제 온라인 콘텐츠의 체류 시간과 공유율 분석에서도 유사한 경향이 반복적으로 관찰된다. AI 글은 이해도와 가독성에서는 높은 평가를 받지만, 설득력이나 기억 지속성, 인용 의도에서는 상대적으로 낮은 반응을 보인다. 즉 “읽기 쉽다”는 평가는 많지만, “생각이 남는다”는 평가는 적다는 점이 공통적으로 확인된다.
여기서 중요한 점은, 이러한 반응이 AI가 전적으로 생성한 글에만 국한되지 않는다는 것이다. AI가 직접 작성한 텍스트뿐 아니라, AI가 제공한 답변을 토대로 인간이 재구성한 원고 역시 일정 부분 이 범주에 포함된다. AI 출력물을 거의 그대로 옮긴 글이든, AI 답변을 큰 수정 없이 편집한 글이든, 독자 인식에서는 유사한 반응이 나타날 수 있다.
물론 이러한 문제는 동일한 강도로 드러나지는 않는다. AI가 생성한 글을 거의 그대로 사용한 경우에는 문제점이 보다 뚜렷하게 나타난다. 판단의 방향은 흐릿하고, 결론은 안전한 범위에 머물며, 글 전체가 평균값에 수렴하는 경향이 강하다. 반면 AI 답변을 참고 자료로 활용하되, 인간이 주제 선택·구조 결정·결론 설정을 명확히 한 원고에서는 이러한 문제는 상당 부분 완화된다.
그러나 이 경우에도 AI의 답변을 ‘정답’처럼 받아들이고 수정이나 재판단을 최소화한다면, 정도의 차이는 있을 뿐 유사한 공허감이 발생할 가능성은 여전히 남는다. 결국 문제의 핵심은 AI 사용 여부가 아니라, AI가 사고를 대신하고 있는지 여부에 있다.
이하에서는 독자가 AI가 생성한 글이나 AI를 활용해 작성된 글에 대해 왜 이러한 인상을 갖게 되는지를 중심으로 그 원인을 살펴보고자 한다.


2. AI로 쓴 글이 ‘영혼이 없어 보이게’ 되는 이유

1) AI가 제공하는 답변 자체의 구조적 특성

AI가 제공하는 답변은 설명력은 강하지만 판단력은 상대적으로 약하다. AI가 작성한 문장은 대체로 매끄럽고 논리적이며, 기본적인 구조적 완성도도 높다. 그러나 그 문장들은 본질적으로 ‘안전한 평균값’에 수렴하는 경향을 가진다.
특히 논쟁적이거나 책임이 요구되는 판단 지점에서는 명확한 결론을 내리지 않는다. 대신 표현을 완화하고 여러 가능성을 나열하는 방식으로 결론을 흐린다. 명확한 선택을 제시하기보다 균형 잡힌 설명을 택하고, 단정적인 주장보다는 조건부 표현을 반복한다. 그 결과 글은 풍부해 보이지만, 무엇이 핵심 주장인지 분명히 드러나지 않는다.
이로 인해 AI가 작성한 글은 전체적으로 설명 중심 구조를 띠는 경우가 많다. 문제 제기와 배경 설명은 충분하지만, “그래서 무엇이 옳은가”, “그래서 어떻게 해야 하는가”와 같은 판단의 지점에서는 한 발 물러선다. 이는 판단을 제시하지 않는 대신 독자에게 그 부담을 넘기는 구조라고 볼 수 있다.
이러한 특성은 정보 전달에는 효율적이지만, 설득이나 방향 제시에는 한계를 가진다. 독자는 내용을 이해할 수는 있으나, 글쓴이가 어떤 판단을 했는지, 어떤 입장에 서 있는지는 느끼기 어렵다. 결국 AI의 답변은 잘 정리된 설명문으로는 기능하지만, 판단의 흔적과 결단을 드러내는 글이 되기에는 구조적 한계를 지닌다.

2) AI에 대한 선입관

AI를 이용해 글을 쓰는 많은 이용자는 AI를 매우 정확하고 객관적인 존재로 인식한다. 그 결과 AI가 제시한 답변을 일종의 ‘정답’처럼 받아들이는 경향이 생긴다. AI가 만들어 준 문장은 이미 매끄럽고 논리적으로 보이기 때문에, 이용자는 이를 고치거나 의심하는 데 심리적 부담을 느낀다. “AI가 이렇게 정리했는데 굳이 손댈 필요가 있을까”라는 생각이 자연스럽게 따라온다.
이 과정에서 글쓰기에서 가장 중요한 판단, 즉 무엇을 강조할지, 무엇을 버릴지, 어디서 단정하고 어디서 멈출지를 인간이 적극적으로 선택하지 않게 된다. 판단은 유보되고, AI가 제공한 평균적인 사고 구조가 글의 중심을 차지하게 된다.
이러한 태도로 작성된 글은 독자에게도 그대로 전달된다. 글 속에는 정보와 설명은 충분히 존재하지만, 글쓴이가 어디에 서 있는지, 무엇을 말하고 싶은지에 대한 입장은 선명하게 드러나지 않는다. 독자는 글을 읽으며 ‘틀린 말은 아닌데, 어떤 의도로 어떤 결론에 이르고 있는지는 잘 모르겠다’는 인상을 받게 된다.
여기에 일반 독자가 가진 AI에 대한 선입관도 작용한다. 많은 독자는 AI를 감정이나 이해관계를 갖지 않는 존재, 즉 판단의 주체라기보다 중립적 도구로 인식한다. 그 결과 AI가 작성했거나 AI의 개입이 강하게 느껴지는 글은, 주장이나 견해라기보다 ‘참고용 설명’이나 ‘무난한 요약’ 정도로 받아들여지기 쉽다.
결과적으로 이용자는 AI를 과도하게 신뢰해 자신의 판단을 뒤로 미루고, 독자는 AI가 개입된 글이라는 이유로 그 판단의 무게를 낮춘다. 이 두 가지 선입관이 맞물릴 때, 글은 주체와 책임이 희미한 텍스트로 인식된다. 이것이 AI로 쓴 글이 ‘영혼이 없어 보인다’는 평가를 받게 되는 중요한 배경 중 하나다.

3) 글쓰기 주체의 판단 이탈 문제

AI를 활용한 글쓰기에서 가장 흔히 발생하는 문제는, 글을 쓰는 사람이 더 이상 최종 판단의 주체로 기능하지 않는다는 점이다. 주제 설정, 구조 구성, 문장 생성이 AI에 의해 빠르게 이루어지면서, 인간은 AI가 제공하는 방대한 정보를 이해하고 정리하는 것만으로도 벅찬 상태에 놓이기 쉽다. 그 결과 글쓰는 사람의 위치는 ‘생각해서 쓰는 주체’에서 ‘AI의 답변을 정리·편집하는 역할’로 이동한다.
이 단계에서 글쓰기는 사고의 과정이 아니라 조합의 과정이 된다. AI가 제시한 여러 설명과 문장을 배열하고 다듬는 데 집중하게 되고, 무엇을 강조하고 무엇을 버릴지, 어디서 단정하고 어디서 물러설지에 대한 판단은 뒤로 밀린다. 그 결과 글에는 정보는 많지만 방향은 흐릿해진다. 글쓴이가 무엇을 생각했고, 어떤 기준으로 판단했는지가 분명하게 드러나지 않는다.
결국 AI 글쓰기의 핵심 위험은 기술 그 자체가 아니라 태도에 있다. AI를 사고를 확장하는 도구로 사용하는 것이 아니라, 사고를 대신해 주는 존재로 받아들이는 순간, 글쓰기 주체는 판단의 자리에서 한 발 물러난다. 그리고 이 공백은 독자에게 즉각적으로 감지된다. AI로 쓴 글이 영혼이 없어 보이는 이유는, 그 글에 인간의 판단이 남아 있지 않기 때문이다.
물론 이러한 판단 이탈의 문제는 AI 이전에도 존재해 왔다. 교과서식 요약문, 보고서형 글쓰기, 참고문헌을 짜깁기한 리포트, 중립을 가장한 칼럼 등에서도 같은 문제가 반복되었다. 이 글들의 공통점은 정보와 설명은 충분하지만, 글쓴이가 어떤 판단에 도달했는지는 잘 보이지 않는다는 점이다. 즉 문제의 본질은 AI가 아니라, 판단을 회피하는 글쓰기 방식 그 자체에 있다.
다만 AI는 이 현상을 급격히 가속화한다. 과거에는 판단을 피하고 싶어도 직접 문장을 써야 했고, 그 과정에서 최소한의 선택과 고민이 개입될 수밖에 없었다. 그러나 AI를 사용하면 판단을 거의 하지 않아도 그럴듯한 글이 완성된다. 그 결과 ‘판단하지 않아도 되는 글쓰기’가 구조적으로 가능해졌고, 판단 이탈은 예외적인 문제가 아니라 흔한 상태가 된다.
이 지점에서 독자가 느끼는 공허감은 분명해진다. 글은 매끄럽고 설명도 충분하지만, 누군가 책임지고 생각한 흔적은 보이지 않는다. 이것이 바로 AI로 쓴 글이 ‘영혼이 없어 보인다’는 평가로 귀결되는 핵심적인 이유다.

3. 영혼 없는 글을 피하기 위한 AI 활용 원칙

AI를 활용한 글쓰기에서 가장 핵심적인 전제는 AI의 정체성에 대해 명확히 인식하는 것이다. AI는 글을 쓰는 주체가 아니라, 정보를 제공하고 사고를 보조하는 도구에 불과하다. 이 구분이. 흐려지는 순간, 글의 중심은 인간이 아니라 AI로 이동하게 된다.
글쓰기 과정에서 AI가 제시하는 답변은 무작정 신뢰의 대상이 되어서는 안 된다. 자료 정리, 쟁점 정리, 반론 제시 등 정보 수집 단계에서 AI를 활용하는 것은 매우 효율적이다. 그러나 그 정보를 어떻게 배열할지, 무엇을 취하고 무엇을 버릴지, 어떤 방향으로 결론을 내릴지는 반드시 글을 쓰는 사람이 판단해야 한다.
무엇을 강조할 것인가, 어디서 단정할 것인가, 어디까지 말하고 어디서 멈출 것인가는 AI가 대신 결정해 줄 수 없는 영역이다. 독자가 글에서 찾는 것은 완벽하게 다듬어진 문장이 아니라, 누군가 책임지고 도달한 결론이다. AI를 사용하되 판단을 넘기지 않을 때, 글은 단순한 설명을 넘어 비로소 생명력을 갖게 된다.


FAQ 1. 독자는 AI로 쓴 글과 인간이 쓴 글을 실제로 구분할 수 있는가
대부분의 독자는 기술적으로 이를 구분하지 못한다. 그러나 글을 읽는 과정에서 판단의 방향, 결론의 책임, 관점의 일관성이 보이지 않을 때 AI적 글쓰기라는 인상을 받는다. 구분의 기준은 문체가 아니라 판단의 흔적이다.

FAQ 2. 사람이 썼는데도 AI처럼 느껴지는 글은 왜 그런가
자료를 요약하고 균형 잡힌 설명만 반복하며 결론을 회피할 때 그런 인상이 생긴다. 이는 AI 이전부터 존재해 온 보고서형·교과서형 글쓰기의 특징이며, AI는 이 방식을 훨씬 쉽게 재현하게 만든다.

FAQ 3. 설명 중심 글과 판단 중심 글의 차이는 무엇인가
설명 중심 글은 정보를 전달하는 데서 멈춘다. 반면 판단 중심 글은 그 정보를 바탕으로 무엇을 선택하고 어떻게 결론에 이르렀는지를 제시한다. 독자는 이 판단의 지점에서 글쓴이를 인식한다.

FAQ 4. AI의 평균적이고 안전한 답변은 왜 설득력이 약한가
평균값에 머무는 답변은 반론을 피할 수는 있지만, 방향을 제시하지는 못한다. 설득은 선택과 배제를 전제로 하며, 그 선택에는 책임이 따른다. 독자가 AI의 답변에서 ‘영혼이 없다’고 느끼는 지점은 바로 이 책임 있는 선택이 보이지 않을 때다. 안전한 설명은 이해를 돕지만, 판단이 없는 글은 독자를 움직이지 못한다.

FAQ 5. AI를 사용하면서도 ‘생각이 남는 글’을 쓰는 것이 가능한가
가능하다. 단, AI를 초안 생성기나 정답 제공자로 사용하지 않고, 자신의 판단을 검증하는 도구로 활용해야 한다. 최종 결론과 입장은 반드시 인간이 결정해야 한다.

FAQ 6. AI 시대에 독자가 기대하는 ‘좋은 글’의 기준은 무엇인가
문장의 완성도보다 판단의 선명함이다. 독자는 누가 어떤 기준으로 그 결론에 도달했는지를 알고 싶어 한다. AI 시대일수록 글쓴이의 책임과 선택은 오히려 더 중요해진다.

keyword
작가의 이전글AI는 출판시장에 어떤 영향을 미칠 것인가