AI를 쓴 문장과 자기 문장을 어떻게 구별하고 책임질 것인지?
AI를 쓰지 않겠다는 태도는 얼핏 개인 취향처럼 보인다. 그러나 구조적으로 들여다보면, 그 안에는 훨씬 더 큰 문제가 웅크리고 있다.
오늘날 AI는 단순한 편의 도구를 넘어섰다. 일과 학습, 정보 처리의 환경 자체가 되어 가고 있다. 미국 성인 절반 이상이 이미 대형언어모델을 사용한다고 답했고, 영국 대학생의 92%가 2025년 현재 학업에 AI를 쓴다고 응답했다. 대학 강의실에서도 교수와 강사의 72%가 적어도 한 가지 교육 활동에 생성형 AI를 시험해 보았다. AI는 이제 “써도 되고 안 써도 되는 신기한 기계”가 아니다. 많은 영역에서 기본 작업 흐름 속으로 조용히, 그러나 깊이 스며드는 중이다.
이런 맥락에서 AI를 전면 거부하는 태도는, 시장과 분업이 이미 사회의 기본 환경이 된 뒤에도 혼자 자급자족을 선언하는 태도와 닮아 있다. 환경이 된 것을 외면하면, 그 비용은 결국 생산성과 속도, 정보 접근력, 경쟁력의 손실로 돌아오기 때문이다.
물론 시장 거부와 AI 거부는 닮았지만, 같은 것은 아니다.
시장은 현대 사회에서 생존의 기초 인프라에 가깝다. 반면 AI는 아직 그 정도의 법적·제도적 필수재가 아니다. AI를 안 쓴다고 당장 사회 바깥으로 추방되지는 않는다. OECD도 AI의 생산성 향상 가능성을 인정하면서도, 실제 도입은 기업과 부문별로 여전히 불균등하며 그 혜택 역시 고르게 배분되지 않는다고 지적했다. 즉 AI를 거부하는 사람은 “현대 사회를 이탈한 사람”이 아니라, 현대 체제 안에서 특정한 자동화 도구를 의식적으로 제한하는 사람에 더 가깝다.
AI 거부에는 꽤 일관된 이유들이 있다. 정확성 문제, 표절과 저작권 우려, 데이터 프라이버시, 편향, 비판적 사고의 약화, 인간 능력의 쇠퇴에 대한 걱정. 국제기구들도 이 우려를 가볍게 보지 않는다. UNESCO는 AI가 편향을 내장하고 인간의 권리와 존엄, 공정성을 위협할 수 있다고 경고했고, 생성형 AI가 교육에서 비판적 사고와 문제 해결 능력의 발달을 약화시킬 수 있다고 지적했다. 에너지 문제도 현실적이다. IEA는 전 세계 데이터센터 전력 소비가 2030년까지 약 945TWh 수준으로 늘어날 수 있다고 전망했다.
AI를 경계하는 태도를 모두 “기술 혐오”로 몰아붙이는 것은 지적으로 게으른 판단이다. 그 우려의 상당 부분은 실제 논점이다.
그럼에도 끝까지 안 쓰겠다는 태도에는 약점이 있다.
윤리적 우려가 곧 전면 거부를 정당화하지는 않기 때문이다. 자동차가 환경 부담을 준다고 해서 사회 전체가 도보로 돌아가지는 않는다. 인터넷이 허위정보를 퍼뜨린다고 해서 검색과 네트워크를 포기하지도 않는다. 핵심은 “문제가 있으니 금지”가 아니라 “문제가 있으니 규칙을 만들고, 용도를 제한하고, 보완 장치를 두자”여야 한다.
AI도 마찬가지다. 정확성, 편향, 저작권, 환경 부담, 사고력 약화의 위험은 분명하다. 그러나 그 위험은 사용 설계의 문제이지, 존재 자체를 이유로 한 절대 금지의 충분조건이 아니다. 오히려 무지한 채 금지하는 쪽이 더 취약하다. 무엇을 금지하는지도 모른 채 금지하기 때문이다.
문학인과 인문학 교수가 특히 강한 거부감을 보이는 이유는 따로 있다.
이 분야는 생산물보다 과정의 가치가 큰 영역이다. 문학은 결과 문장만 좋으면 되는 일이 아니다. 사유가 어떻게 응축되고, 표현이 어떤 시행착오를 거쳐 형성되었는지가 곧 작품의 일부다. 인문학 역시 정답 산출보다 독해, 맥락 파악, 개념 분별, 논증 훈련이 본체다. 그래서 “문장을 대신 써 주는 기계”는 이들에게 단순한 생산성 도구가 아니라, 정체성의 핵심을 건드리는 기술로 다가온다.
수치도 이를 뒷받침한다. Ithaka S+R 조사에 따르면 전체 강의자의 42%가 학생의 생성형 AI 사용을 전면 금지했는데, 인문학에서는 그 비율이 53%로 더 높았다. 2025년 미국 인문·사회계열 전임교원 294명을 대상으로 한 연구에서도, 생성형 AI를 쓰지 않는 교수들은 “아직 준비되지 않았다”, “가치가 보이지 않는다”, “자기 정체성과 충돌한다”, “인간 지성을 위협한다”는 이유를 제시했고, 3분의 1이 넘는 교원이 생성형 AI 사용을 아예 옵트아웃한 것으로 나타났다.
이들의 저항은 단순한 기계 공포가 아니다. 존재론적 긴장에 가깝다. 글을 쓰고, 읽고, 해석하고, 판단하는 일이 자기 존재의 핵심인데, 그 핵심 기능을 기계가 값싸게 흉내 내기 시작하면 방어 반응이 생기는 것은 자연스럽다. “내가 하는 일이 인간 고유의 작업이라고 믿어 왔는데, 이제 그것이 도구화되고 값이 떨어지는 것 아닌가.” 그 질문이 거부감의 밑바닥에 깔려 있다.
그렇다면 질문의 형태 자체를 바꿔야 한다.
“AI가 윤리적인가 비윤리적인가”가 아니라, “어떤 작업에서, 어떤 한계 안에서, 어떤 공개 원칙 아래, 어떤 인간 능력을 보존하면서 쓸 것인가.”
초고 전체를 대신 쓰게 하는 일, 독해와 사유의 핵심 과정을 통째로 외주화하는 일, 근거 확인 없이 문장을 가져다 붙이는 일은 강하게 제한해야 한다. 반대로 자료 탐색의 보조, 아이디어 확장, 문장 다듬기, 번역 대조, 형식 점검, 반복 업무의 자동화처럼 인간 판단을 보조하는 영역은 적극적으로 훈련할 수 있다.
핵심은 “AI를 쓰느냐 마느냐”가 아니다. “무엇을 AI에 넘기지 않을 것인가”를 먼저 정하는 데 있다.
문학인과 인문학자에게 필요한 것은 오히려 더 높은 수준의 자기 규율이다.
어디까지는 인간의 고유 노동으로 남겨 둘 것인지. 어디까지는 보조 도구로 사용할 것인지. 결과물에 어떤 방식으로 사용 사실을 공개할 것인지. AI를 쓴 문장과 자기 문장을 어떻게 구별하고 책임질 것인지. 이 기준을 먼저 세워야 한다.
AI는 아직 선택과 설계의 여지가 큰 도구다. 지금 필요한 것은 학술윤리, 인간 능력, 교육 목적, 노동 구조, 환경 비용을 함께 고려한 사용 원칙의 설계가 아닐까?