brunch

AI로 쓴 글을 모를 줄 아나요?

by 칼란드리아

최근 일본 게이오 대학교의 한 교수가 학생들에게 PDF로 된 수업 교재를 요약하라는 과제를 내주었는데 ChatGPT를 이용해서 그대로 제출한 학생들이 적발되었다는 소식이 있었다. PDF 내에 수업과 무관한 내용을 아래와 같이 보이지 않게 흰 글씨로 추가해 놓았는데, AI는 이를 인식하여 요약 내용에 추가한 것이다. 이러한 학생들이 제출한 과제물은 모두 무효 처리가 되었다. 학생들을 시험하려는 교수의 기지라고 하기에는 현실이 너무 씁쓸하다.


491435599_17889337359237856_3712157660283043251_n.jpg




이제는 어디를 보나 ChatGPT, Gemini, Perplexity, Claude 등 생성형 AI를 이용한 콘텐츠들이 넘쳐 난다. 업무용으로는 물론, 일상생활에서도 이를 활용하는 것이 일반화되었으며, 블로그, 브런치 등에서도 이를 이용한 것이 눈에 띈다. 이러한 사이트들은 조회수나 방문자 수를 올리는 것이 목적이라 내용의 진위성이나 글을 쓰는데 드는 노고 등은 별로 안중에 없는 경우도 많다. 검색해서 들어간 곳이 이러한 글이라면 맥 빠지는 것을 넘어 분노마저 치민다.


학생들도 이를 이용하여 과제를 하는 경우가 많으며, 심지어 자기소개서도 AI로 작성하는 경우도 많다. 상당수는 AI로 생성한 결과물을 제대로 검토도 하지 않고 그대로 붙여서 제출하기도 한다. 내 경우에는 사이버대 수업을 듣기 때문에 LMS 상의 게시판이나 토론장에 다른 학생들이 올리는 글도 자주 보는데, 거기에도 AI가 생성한 글을 그대로 올리는 것을 종종 목격한다.


이렇게 AI로 생성한 글을 다른 사람들이 모를 것이라고 생각하는 것일까? 더구나 교사나 교수들이 모를 것이라고 생각하는 것일까?


생성형 AI의 초창기(ChatGPT-3 시절)에는 AI의 '환각' 증상이 심해서 전혀 말도 안 되는 엉터리가 많았지만, 지금은 더 정교해지고 사실에 근접한 것들이 많다 보니 사람들이 맹목적으로 믿고 쓰는 경우가 많아진 것 같다. 대분의 생성형 AI에서 검색 기능까지 추가되면서 신뢰감이 더 높아진 것처럼 느껴진다. 완전히 거짓이면 더 경각심을 갖게 되지만, 사실과 거짓이 섞여 있으면 그것을 구분하지 못하고 믿게 되는 것.


하지만 AI로 쓴 글은 여러모로 티가 날 수밖에 없다. 아무리 그럴듯하게 글을 쓰더라도 그 안에서 느껴지는 이질감이 있다. 즉, 부자연스러움이 느껴지는 것이다. 이는 AI로 생성한 이미지가 사람이 그린 것과 달리 이질감이 드는 것과 비슷하다. 아무래도 일정한 패턴 및 정형성이 있고, 뭔가 끼워 맞추려는 듯한 느낌도 든다. 억지스러움이나 반복되는 표현 등도 보인다. 어쩌면 이러한 비판도 금세 무색해질 수 있을 정도로 발전 속도가 빠르긴 하지만.




전문가의 영역에서도 마찬가지다. 최근 몇 년 사이에 연구자들 사이에서도 AI의 활용이 많아졌고, 논문을 읽거나 쓸 때 대부분 AI를 활용하게 되었다. 논문 요약을 AI에게 맡기는 것은 일상이고, 데이터 분석이나 코딩을 AI에게 시킨다. 논문 초록이나 본문도 AI로 작성하고, 논문에 필요한 도표도 AI로 생성한다. 레퍼런스 정리도 AI가 한다. 이러한 논문을 심사할 때조차 AI에게 시키기도 한다. (내가 주로 활용하는 분야이기도 하기에, 이렇게 쓰면서 찔리는 감이 있다)


그렇다고 논문을 쓰는 것이 쉽다는 것은 아니지만 예전보다는 좀 더 수월해진 것은 사실이다. 하지만 이와 더불어 논문의 질이 점차 낮아지고 있으며, 무의미한 논문이 양산되고 있다. 최근에는 공공 데이터를 이용한 비슷한 논문이 쏟아지고 있다는 비판도 있다.


모두가 AI가 가져온 변화이며, 그 바탕에는 성과 지상주의(논문 등 실적으로 평가하는 것)가 있다. '성과만 내면 된다'는 안일함에 AI가 맞물리면서 이러한 현실까지 오게 된 것이다. 이는 예전에도 마찬가지긴 했지만, AI가 거기에 기름을 부은 격이다.


이러니 '연구'에 대한 근본적인 인식과 비판, 회의가 들 수밖에 없는 상황이다.




AI를 활용하지 말자는 것이 아니다. 이는 이미 되돌릴 수 없는 흐름이다. 그러니 사용해야 한다면 제대로 사용해야 한다는 취지다. 적어도, AI로 생성한 글이 사실과 맞는지, 목적에 부합하는지, 이상한 부분은 없는지 확인하고 걸러낼 수 있는 능력과 노력은 필요하지 않을까?


물론 나도 생성형 AI를 많이 이용한다. 내 경우에는 ChatGPT Plus, Gemini Advanced, Perplexity Pro 등 유료로 쓰는 것들이 있기 때문에 그 결과물을 너무 잘 알고 있어서 그럴 수도 있겠다. 하지만 그 결과를 그대로 신뢰하거나 혹은 그대로 이용하지는 않는다. 대체로는 글의 얼개를 짜거나 혹은 글감을 모을 때 이용하고, 또는 내가 미처 생각하지 못했던 방향이나 근거를 제시해 줄 수도 있기에 참고하는 것이다.


또는 내가 썼던 글을 검토하거나 수정하도록 하기도 하는데 원래의 글보다 더 마음에 들게 고쳐지는 경우는 많지 않았다. 내가 내 글에 너무 익숙해져서 인가, 너무 낯선 느낌이 들었다. 물론 내 글이 좋다는 것은 아니다. 내 글에도 잘못된 부분이나 안 좋은 습관이 있기에 그러한 부분을 수정할 수 있겠지만, 전반적으로 글이 너무 밋밋해져 버려서 도저히 내 글이라고 할 수 없게 느껴졌기 때문이다. 그러니, AI가 생성한 글을 내 것이라고 우길 뻔뻔함이 없다.




ChatGPT Image 2025년 5월 19일 오전 08_34_33.jpg ChatGPT-4o로 생성한 이미지


이런 문제가 많아지다 보니 표절 판정 프로그램 (예를 들어 '카피 킬러', "Turninit" 등)에서도 AI로 생성한 글인지 판단하는 기능이 추가되었는데 이 기능이 아직은 완전하지는 않아 제대로 걸러내지는 못하는 것 같다. (이 기능도 계속 발전할 것이기에 이 글을 쓰는 시점에서는 또 달라졌을 수도 있겠다)


내가 쓴 글로 테스트해 보면 (순수하게 내가 쓴 글과 AI로 생성한 글을 섞어서) AI를 이용해서 쓴 부분이 아닌데도 AI가 썼다고 하거나 AI가 쓴 부분을 그냥 넘어가기도 했다. 어떤 원리로 검출하는지는 모르겠지만, 현재는 AI로 생성하는 글이 사람이 쓴 글과 거의 비슷한 수준에 이르렀기 때문에 더 어려워질 것이다. AI가 쓴 글을 AI로 판정하는 것도 쉽지 않다. 실제로 테스트해 봐도 제대로 판단하지 못한다.


그렇다고 AI의 활용을 사용자의 양심에만 맡겨둘 수 있을 것인가? AI를 안 쓰는 사람이 바보인 것이고, 무료가 아닌 유료 기능을 이용하는 사람은 더 우월하게 되는 것인가?


AI로 인한 윤리 문제는 비단 이것 만은 아니지만 그냥 방치할 수만은 없다. 인터넷상의 모든 공간과 정보에 대해서 규제를 하는 것은 불가능하다. 그러한 것은 시장의 정화 기능에 맡길 수밖에 없다. 하지만, 적어도 교육이나 연구, 업무 등 평가가 필요한 부분에서는 제대로 된 기준과 가이드라인이 마련되어야 하는 것은 아닐까?


쉬운 일은 아니지만 지금 시점에서는 꼭 필요한 일이라 생각한다. 이를 위해서는 평가자의 노력과 역량이 필요할 것 같다. 위의 게이오 대학교의 사례도 그러한 것의 필요성을 보여준다. 단지 개인에게만 맡기기에는 그 유혹이 너무나 강하기에.


대부분의 사람들, 그리고 기관들은 표절 문제에 매우 민감하다. 표절이 사회적, 윤리적으로 문제가 있으며 '범죄'라고 인식한다. AI로 생성한 글을 그대로 이용하는 것 역시 표절의 범주에서 보아야 할 것이다. 하지만, 어느 정도까지를 용인할 것인지는 모르겠다. 쉽지 않은 문제다.


중요한 것은 AI가 생성한 부분과 본인이 작성한 영역에 대한 명확한 구분과 결과물에 대한 투명성(출처를 명시하는 것처럼)이 전제되어야 한다는 것이다. 이는 작은 부분부터 중요한 부분까지 모두 해당한다. 몇 사람 보지 않는 글이라고 해서 봐줄 수는 없다.


인공 지능이 발달할수록 인간 지능은 퇴화하는 것 같다. 그 편리함 때문에 사람은 더 게을러지고 생각하는 힘을 잃어가는 것 같다. 이것이 AI가 추구하는 미래상인가?








keyword
매거진의 이전글오마이걸 10주년 축하