"AI로 쓴 거잖아" - 이 한마디가 불편한 당신에게

[시리즈] AI와 일의 미래

by 테오
"짧은 시간 동안 너무 잘 쓰긴 했는데, 이거 AI로 한 거 맞지?"

얼마 전 프로젝트에서 보고서를 제출했을 때, PM에게 이 말을 들었습니다. 블로그나 브런치에 글을 올렸을 때 아내에게도 들었습니다.


기획안을 공유하자 옆자리 동료가 반쯤 장난처럼 물었습니다. "요즘 다 그렇게 쓰는 거야?" 칭찬이 아니었습니다. 뭔가 '덜 노력한 사람'이라는 시선이 느껴졌습니다.


저는 어떤 방향으로 작성해야 할지 밤새 고민하고 자료를 직접 조사했습니다. 조사한 자료와 방향성을 기반으로 프롬프트를 설계하고, 결과물을 읽고, 고치고, 다시 돌리고. 그 과정을 서너 번 반복해서 나온 결과물이었습니다. 그런데 AI가 관여했다는 사실 하나만으로, '당신의 노력'이 갑자기 증발합니다. 이상하지 않으신가요?


AI로 코드를 짜면 '생산성이 높다'라고 칭찬받습니다. 그런데 AI로 글을 쓰면 '꼼수를 부렸다'는 시선을 받습니다. 같은 도구인데, 왜 이런 차이가 생기는 걸까요. 오늘은 이 이중 잣대의 심리학적 뿌리를 파헤쳐 보려 합니다. 그리고 이 시대에 '진짜 실력'이란 무엇인지 이야기 나눠 보려 합니다.




당신만 그런 게 아닙니다


최근 생성형 AI를 업무에 적용해서 생산성을 높이고 있는데, 직장에서 위와 같은 반응을 경험해 보셨나요? 그렇다면 먼저 위로부터 드리겠습니다. 이러한 불편함을 느끼는 사람은 당신만이 아닙니다.


회사에서 AI로 만든 보고서를 제출하면 "그거 GPT 돌린 거지?"라는 반응이 돌아옵니다. 반면 옆 팀 개발자가 Cursor를 활용해서 코드를 짜면 "업무 속도 참 빠르네"라는 칭찬이 돌아옵니다.


같은 회사, 같은 AI 도구, 같은 업무 효율화인데 반응이 다릅니다. 더 아이러니한 상황도 있습니다. 발표 자료의 디자인을 AI로 만들면 "센스 있다"라고 합니다. 하지만 발표 자료의 글을 AI로 쓰면 "그건 좀..."이라는 반응을 받습니다. 시각적 결과물은 괜찮고, 텍스트 결과물은 안 되는 겁니다.


이 차이는 어디에서 오는 걸까요. 심리학 연구들이 꽤 명확한 답을 내놓고 있습니다.




'노력 할인', 당신의 글이 저평가되는 진짜 이유


심리학에는 '노력 휴리스틱(effort heuristic)'이라는 개념이 있습니다. 어렵게 들리지만, 원리는 단순합니다.


사람은 어떤 결과물에 많은 노력이 들어갔다고 느끼면, 그 가치를 높게 평가합니다. 반대로 노력이 적게 들어갔다고 느끼면, 결과물의 질이 같아도 가치를 깎아냅니다. 수제 빵이 공장 빵보다 맛있게 느껴지는 것과 같은 원리입니다. 객관적 맛이 같더라도, '손으로 만들었다'는 사실이 가치를 높여줍니다.


AI 글쓰기도 마찬가지입니다. 글의 품질과 관계없이, "AI가 도와줬다"는 정보 하나가 가치를 깎아내리는 겁니다.


2025년 발표된 연구가 이를 정확히 보여줍니다 [1]. 연구진은 동일한 글을 두 그룹에게 보여줬습니다. 한 그룹에만 "이 글은 AI의 도움을 받아 작성되었습니다"라고 알려줬습니다.


결과는 놀라울 정도로 명확했습니다. AI 사용을 밝힌 쪽의 글이 품질 평가에서 일관되게 낮은 점수를 받았습니다. 같은 글입니다. 한 글자도 다르지 않습니다. 달라진 건 오직 하나, "AI가 도왔다"는 정보뿐입니다. 연구진은 이 현상을 'AI 공개 페널티(AI disclosure penalty)'라고 이름 붙였습니다.


더 흥미로운 결과가 또 있습니다.


별도의 연구에서 AI 사용 여부를 알려주지 않았을 때, 참가자들은 AI가 쓴 글과 사람이 쓴 글을 거의 구분하지 못했습니다 [2]. 모를 때는 구분도 못하면서, 알게 되면 저평가한다. 이건 글의 품질 문제가 아닙니다. '편견'의 문제입니다.


출처: [1] Cheong et al. 2025. 연구의 Figure 1





잘 쓰면 AI, 못 쓰면 사람, 뒤집힌 판단 기준


그렇다면 사람들은 어떤 기준으로 "이건 AI가 쓴 것 같다"라고 판단할까요. 미국국립과학원회보(PNAS)에 실린 연구가 이 질문에 답합니다 [3]. 연구진이 발견한 건 놀라운 사실이었습니다. 사람들이 AI 여부를 판단하는 데 사용하는 어림짐작(휴리스틱) 대부분이 틀렸습니다.


예를 들어 볼까요. 참가자들은 문법 오류가 있는 글을 AI가 쓴 것이라고 판단하는 경향이 있었습니다. 실제로는 문법 오류가 있는 글이 사람이 쓴 글일 확률이 15% 더 높았습니다. 또한 긴 단어나 복잡한 표현이 포함된 글을 AI 작성물로 분류했습니다. 하지만 실제로 그런 글 대부분은 사람이 쓴 것이었습니다.


정리하면 이렇습니다. 매끄럽고 깔끔하면 "AI 같다"라고 느낍니다. 투박하고 실수가 있으면 "사람이 쓴 것 같다"라고 느낍니다. 글을 잘 쓸수록 의심받는 역설이 생긴 겁니다. 반면 개인적인 경험, 과거 이야기, 솔직한 감정 표현이 담긴 글은 사람이 쓴 것으로 판단했습니다. 이건 비교적 정확한 기준이었습니다.


하지만 AI도 점점 이런 글을 잘 쓰고 있습니다. 이 기준마저 곧 무너질 수 있습니다. 결국 우리가 AI 글쓰기를 평가하는 잣대 자체가 편견에 기반해 있는 셈입니다.


이 편견의 근본에는 '좋은 글 = 고통스러운 노력의 결과물'이라는 오래된 믿음이 있습니다. 밤새 고민하고, 원고지를 구기고, 수십 번 고쳐 쓴 글이 '진짜 글'이라는 인식입니다. 하지만 저는 글의 가치가 쓰는 과정의 고통과 반드시 비례하지 않는다고 생각합니다. 독자에게 전달되는 메시지의 힘에 비례한다고 생각합니다.


과정이 어땠든, 읽는 사람의 생각을 바꾸고 행동을 이끄는 글이 좋은 글입니다. 도구가 달라졌다고 그 본질이 변하지는 않습니다.




코딩은 왜 괜찮을까 - 진정성의 이중 잣대


여기서 한 가지 비교를 해보겠습니다.


2026년 현재, 개발자의 84%가 AI 코딩 도구를 사용하고 있습니다 [4]. 절반 이상이 매일 씁니다. GitHub Copilot, Claude Code 같은 도구 없이는 일하기 어렵다는 개발자도 많습니다.


그런데 개발자가 AI로 코드를 짠 것을 두고 "그건 네 실력이 아니야"라고 말하는 사람은 거의 없습니다. 코드가 돌아가고, 버그가 없고, 성능이 좋으면 그걸로 평가가 끝납니다. AI로 코드를 짤 때에도, 전체적으로 계획을 세우고, 프롬프팅을 하고, 오류를 검증하는 것은 사람의 몫입니다. 글쓰기와 비슷하죠. 그런데 왜 코딩은 괜찮고, 글쓰기는 안 될까요?


저는 핵심적인 차이가 '진정성(authenticity)'에 대한 기대 차이에 있다고 생각합니다.


일반적으로, 우리는 코드에 진정성을 요구하지 않습니다. 코드의 가치는 '작동하느냐'로 결정됩니다. 반면 글에는 진정성을 요구합니다. "이 글에 당신의 생각이 담겨 있는가?", "이것은 당신의 경험에서 나온 것인가?" 글에는 저자의 정체성이 묻어 있어야 한다고 기대합니다.


소비자 심리 연구에서도 이 점이 확인됩니다 [5]. AI가 생성한 마케팅 글이라고 밝히면, 소비자는 '도덕적 혐오'에 가까운 감정을 느꼈습니다.


같은 메시지인데도, AI가 썼다는 사실만으로 진정성이 훼손된다고 느끼는 겁니다. 메시지의 내용이 아니라 '누가 말했느냐'에 반응하는 것입니다.


코드에는 없고 글에만 있는 이 '진정성의 기대'. 이것이 AI 글쓰기가 유독 무시당하는 구조적 원인이라고 생각합니다.




69%가 쓰면서 숨기는 시대 - 투명성의 역설


그렇다면 현실은 어떨까요. Anthropic의 2025년 조사에 따르면, 직장인의 69%가 업무에서 AI를 매일 사용하고 있었습니다 [6]. 그런데 동시에 대다수가 사용 사실을 동료나 상사에게 숨기고 있다고 답했습니다. 쓰고는 있지만, 말하지는 못하는 시대입니다.


이 현상은 학계에서도 똑같이 나타납니다. 학술지 네이처(Nature)의 조사에서 과학자 57%가 AI의 글쓰기 도움을 받았다고 답했고, 72%는 앞으로도 받고 싶다고 했습니다 [7]. 하지만 실제 논문에 AI 사용을 공식 표기한 비율은 0.1%에 불과했습니다. 물론 공식 표기하는 문화가 아직 정착되지 않았고, 명확하게 통용되는 기준이 없어서 그럴 수도 있겠지만, 57%가 쓰고 있는데 실제로는 0.1%만 밝힌 겁니다.


왜 숨길까요. 연구진은 이를 '투명성의 역설(transparency paradox)'이라고 부릅니다 [8].


악순환의 구조가 이렇습니다. AI를 사용했다고 밝히면 저평가를 받습니다. 저평가가 두려우니 숨깁니다. 숨기니까 사람들은 "AI를 쓰는 사람은 거의 없다"라고 착각합니다. 그 착각이 다시 AI 사용자에 대한 편견을 강화합니다. 솔직하게 밝힌 사람만 손해를 보는 구조입니다. 이 구조가 깨지려면, 숨기는 쪽이 아니라 평가하는 쪽이 먼저 변해야 합니다.




평가의 기준이 바뀌고 있다


다행히 변화의 방향은 이미 분명하게 드러나고 있습니다.


다만 정확히 말하면, 모든 조직의 평가 기준이 한 번에 바뀐다기보다, 먼저 일부 선도 기업에서 변화가 시작되고 그것이 점차 확산되는 흐름에 있습니다.


가장 상징적인 사례가 Shopify입니다.


Shopify의 CEO 토비아스 뤼트케는 2025년 4월, 전 직원에게 “AI 활용은 이제 기본 기대사항”이라고 선언했고, AI 활용 수준을 성과평가와 동료 리뷰 문항에도 반영하겠다고 밝혔습니다. 또한 추가 인력이나 자원을 요청하기 전에, 그 일이 정말 AI로 해결될 수 없는지 먼저 입증하라고 요구했습니다 [9]. 이것은 단순한 생산성 장려가 아니라, 일을 평가하는 기준 자체가 바뀌고 있다는 신호로 읽을 수 있습니다.


중요한 점은, 이 변화가 단지 한 기업의 특수한 실험으로 끝나지 않는다는 것입니다.


국내에서도 생성형 AI를 이미 전사적 또는 일부 부서에서 활용 중인 기업이 55.7%에 이르렀고, 도입 예정 기업까지 포함하면 2026년에는 그 비율이 85%를 넘을 것이라는 전망이 나왔습니다 [10]. 즉, AI는 더 이상 일부 얼리어답터의 도구가 아니라, 업무 수행 방식 전반을 바꾸는 인프라에 가까워지고 있습니다.


그렇다면 평가의 기준은 왜 바뀔 수밖에 없을까요.


답은 간단합니다. AI가 바꾸는 것은 결과물의 속도만이 아니라, 일의 구조 자체이기 때문입니다. OECD의 한국 보고서에 따르면, AI를 도입한 국내 기업의 56.5%는 AI가 직무 전체가 아니라 직무 안의 특정 과업을 대체했다고 답했고, 32.2%는 필요한 스킬의 종류가, 38.3%는 요구되는 스킬 수준이 높아졌다고 답했습니다. 다시 말해 이제 조직은 사람에게 “직접 다 작성했는가”보다, “무엇을 판단했고, 어떤 과업을 AI에 위임했으며, 무엇을 검증했는가”를 더 묻게 됩니다.


이 지점에서 성과평가도 같이 변화 합니다.


최근 HR 연구와 실무 보고서들은 공통적으로, 연 1회 결과 중심 평가만으로는 AI 시대의 기여를 제대로 포착하기 어렵다고 지적합니다. 선도 조직들은 실시간 피드백, 현장 코칭, AI 사용의 투명성, 비판적 사고, 그리고 인간의 최종 판단을 더 중요하게 보기 시작했습니다 [11]. 관리자 코멘트나 대화 기록을 AI가 정리해 주고, 관리자는 그 시간을 해석과 코칭에 더 쓰는 흐름도 이미 나타나고 있습니다.


결국 평가의 초점은 “손으로 썼느냐”에서 “어떤 문제를 정의했느냐”로, “얼마나 오래 붙들고 있었느냐”에서 “어떤 도구를 어떤 맥락에서 활용했느냐”로 이동합니다. 글을 AI로 썼다는 사실 자체가 중요한 것이 아니라, 그 글에 담긴 문제 정의, 자료 선택, 방향 설정, 검증, 수정의 책임이 누구에게 있었는지가 더 중요해지는 것입니다.


문제는 여기서 끝나지 않습니다.


조직의 공식 기준은 이렇게 조금씩 바뀌고 있는데, 동료들의 감정과 문화는 그 속도를 따라가지 못하는 경우가 많습니다. Deloitte도 AI 전환에서 가장 먼저 생기는 부채 중 하나가 기술 부채가 아니라 ‘문화 부채’라고 지적합니다 [15]. 제도는 인간과 AI의 협업을 향해 가는데, 문화는 아직도 “혼자 힘으로 써야 진짜 실력”이라는 오래된 기준에 머물러 있는 것입니다.


바로 그 시차가, 당신이 AI와 함께 작성한 보고서를 제출했을 때 느꼈던 불편함의 정체일 수 있습니다.





그렇다면 AI 시대, 진짜 실력이란 무엇일까


잠깐 시간을 되돌려 보겠습니다.


엑셀이 처음 등장했을 때를 기억하시나요. 손으로 장부를 쓰던 사람들 가운데는 엑셀을 쓰는 동료를 보며 이렇게 생각한 이들도 있었을 겁니다. “그건 네 계산 실력이 아니야.”


파워포인트가 등장했을 때도 비슷했을 것입니다. OHP 필름을 손으로 만들던 시대의 사람들 눈에는, 슬라이드를 빠르게 만들고 컴퓨터 화면으로 띄우는 일이 왠지 ‘덜 진짜 같은 일’로 보였을지 모릅니다.


새 도구가 등장할 때마다 늘 비슷한 저항이 반복됐습니다. 도구는 단지 일을 빠르게 만드는 데서 그치지 않고, 무엇을 사람이 직접 해야 하는가에 대한 기준 자체를 바꿔 왔기 때문입니다.


지금 AI 글쓰기를 둘러싼 시선도 그 변화의 한가운데에 있는 것 같습니다.


ChatGPT 사용 행태를 분석한 데이터에 따르면, 2025년 기준 글쓰기는 전체 사용량의 24%를 차지했습니다 [12]. 정보 검색과 함께 가장 많이 활용되는 용도 중 하나였고, 여기에는 단순한 새 글 생성만이 아니라 편집, 요약, 번역, 비평까지 포함됩니다.


즉, AI는 이미 글쓰기의 일부가 아니라 글쓰기 과정 전반에 관여하고 있습니다. 이런 현실에서 “AI를 쓰지 마라”는 말은 점점 “엑셀을 쓰지 마라”는 말처럼 들리기 시작합니다.


그렇다면 이 현실에서 진짜 실력은 무엇일까요.


저는 이렇게 생각합니다. AI 시대의 진짜 실력은 직접 모든 문장을 손으로 쓰는 능력이 아니라, 문제를 정의하고 맥락을 설계하며 결과를 판단하고 책임지는 능력입니다.


무슨 문제를 볼 것인가.

어떤 방향으로 풀 것인가.

어떤 자료를 참고하고, 어떤 맥락을 제공할 것인가.

그리고 나온 결과물이 충분히 좋은지, 어디를 고쳐야 하는지 판단할 수 있는가.


바로 그 지점에 여러분의 생각이 들어갑니다. AI는 문장을 생성할 수 있지만, 무엇을 말해야 하는지와 무엇을 버려야 하는지는 여전히 사람이 정합니다. 그래서 AI 시대의 저자의 능력은 손으로 한 줄씩 썼는가 보다, 무엇을 말할지 결정하고 어떤 근거를 선택했으며, 결과를 직접 검토하고 책임졌는가에 있다고 생각합니다.


한 가지 더 생각해 볼 수 있습니다.


건축가는 직접 벽돌을 쌓지 않습니다. 영화감독이 직접 카메라를 들지 않는 경우도 많습니다. 오케스트라 지휘자는 모든 악기를 연주하지 않습니다. 하지만 우리는 그들의 창작성을 의심하지 않습니다. 무엇을, 어떻게, 왜 할지를 결정하는 핵심 판단이 그들에게 있기 때문입니다.


AI를 활용하는 글쓰기도 크게 다르지 않다고 생각합니다. 실행의 일부를 위임했을 뿐, 판단까지 위임한 것은 아닙니다.




당신이 지금 할 수 있는 것들


그렇다면 실제로는 무엇을 해야 할까요.


첫째, AI 활용 과정을 기록해 두는 것입니다.

어떤 자료를 검토했는지, 어떤 프롬프트를 설계했는지, 몇 번의 수정과 재구성을 거쳤는지를 남겨 두면 좋습니다. 이 기록은 “AI로 쓴 거 아니야?”라는 질문 앞에서 당신의 결과물이 즉흥적 산출물이 아니라 판단과 검토의 산물이었다는 것을 보여줍니다.


둘째, 결과물 안에 당신의 판단 근거를 남기는 것입니다.

“이 데이터를 선택한 이유는 무엇인지”, “왜 이 방향으로 정리했는지”, “어떤 기준으로 대안을 제외했는지”를 짧게라도 드러내면 됩니다. 그러면 그 문서는 ‘AI가 쓴 글’이 아니라 ‘내가 판단하고 AI가 도운 글’이 됩니다.


셋째, 허용된 범위 안에서 활용 방식을 점진적으로 투명하게 공유하는 것입니다.

모든 조직이 같은 준비 상태에 있는 것은 아닙니다. 보안 규정과 팀 문화에 따라 조심해야 할 때도 있습니다. 다만 가능한 범위 안에서 “이번 보고서는 AI를 이렇게 활용했고, 최종 판단과 수정은 이렇게 했다”라고 설명할 수 있을 때, 편견은 가장 빨리 약해집니다.


다만 한 가지는 분명히 짚고 넘어가야 합니다


여기서 이렇게 오해하실 수 있습니다.

“그렇다면 그냥 다 AI에게 맡기면 되는 것 아닌가?”


아닙니다.


일부 초기 연구들은 LLM에 과도하게 의존할 경우 과제 수행 과정에서 인지적 개입이 줄어들 수 있다고 말합니다 [13]. 또 다른 연구들도 AI가 인지 부담을 덜어주는 장점이 있는 반면, 사용자가 검토와 비판적 사고를 충분히 하지 않을 경우 사고의 깊이를 약화시킬 수 있다고 경고합니다 [14].


편리함과 사고력 사이에는 분명한 긴장이 있는 것 같습니다. 그래서 중요한 것은 사용 여부가 아니라 사용 방식입니다. AI를 도구로 활용하되 판단은 내가 해야 합니다. AI가 초안을 잡아주더라도 방향과 메시지, 그리고 최종 책임은 사람이 져야 합니다.


이 균형을 지키는 사람이 AI 시대의 진짜 전문가라고 생각합니다. AI를 잘 쓰는 사람과 AI에게 끌려가는 사람의 차이는 바로 여기에서 갈리게 될 것입니다.


마무리하며, 한 가지 질문을 드립니다


당신이 3시간 동안 자료를 조사하고, 1시간 동안 프롬프트를 설계하고, 다시 30분 동안 결과물을 읽고 고치고 다듬어 보고서를 완성했다면, 그 문서의 본질은 무엇일까요.


문장을 누가 먼저 찍어냈는지가 더 중요할까요. 아니면 무엇을 말할지 결정하고, 무엇을 버릴지 고르고, 어디까지 책임질지를 판단한 사람이 누구인지가 더 중요할까요.


도구는 바뀌었습니다. 하지만 생각하고 판단하는 사람의 가치는 바뀌지 않았습니다. 달라진 것은 그 가치를 증명하는 방식입니다. 이제 중요한 질문은 “AI를 썼는가”가 아니라 “무엇을 판단했는가”입니다.


누군가 또 이렇게 물을 수 있습니다.

“이거 AI로 쓴 거 아니야?”


그때 이렇게 답해보면 어떨까요?

“네, AI를 활용했습니다. 하지만 판단과 책임은 제 것이었습니다.”





References


[1] Cheong, I., Guo, A., Lee, M., Liao, Z., Kadoma, K., Go, D., ... & Zhang, A. X. (2025). Penalizing Transparency? How AI Disclosure and Author Demographics Shape Human and AI Judgments About Writing. arXiv preprint arXiv:2507.01418.

[2] Raj, M., Berg, J., & Seamans, R. (2025). Humans Persistently Devalue AI-Generated Creative Writing. Journal of Experimental Psychology: General. APA PsycNet 2025-84377-001.

[3] PNAS (2023). Human Heuristics for AI-Generated Language Are Flawed. Proceedings of the National Academy of Sciences.

[4] GetPanto (2026). AI Coding Productivity Statistics 2026: Gains, Tradeoffs, and Metrics.

[5] Kirk, C. P., & Givi, J. (2025). The AI-Authorship Effect: Understanding Authenticity, Moral Disgust, and Consumer Responses to AI-Generated Marketing Communications. Journal of Business Research, 186, S0148296324004880.

[6] Anthropic / Final Round AI (2025). Anthropic Study Finds Most Workers Use AI Daily, but 69 Percent Hide It at Work.

[7] Engineering (2025). Scientists Increasingly Using AI to Help Write Papers — For Better or Worse.

[8] PMC (2025). The Transparency Paradox: Why Researchers Avoid Disclosing AI Assistance in Scientific Writing.

[9] BNN Bloomberg (2025). AI Now an 'Expectation' at Shopify, Will Factor Into Performance Reviews, Hiring: CEO.

[10] DARVIS Blog (2025). 2025년 기업 AI 활용 현황과 전망: 도입률, 사례, 과제까지 완전 정리.

[11] 테크뷰 블로그 (2025). 2025~26년 인사평가 트렌드 정리; CLAP Blog (2026). 2026 HR 트렌드로 본 AI 성과관리 솔루션의 필요성.

[12] JeongMin Kwon (2025). 데이터로 살펴보는 ChatGPT 사용 행태; a16z (2025). Generative AI Consumer Trends.

[13] Vaidya, A. R. et al. (2025). Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. MIT Media Lab. arXiv preprint.

[14] Frontiers in Psychology (2025). Cognitive Offloading or Cognitive Overload? How AI Alters the Mental Architecture of Coping; MDPI Societies (2025). AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking.

[15] Deloitte (2026). In a New Era of Work, Winning Organizations Will Build the Human Advantage.

작가의 이전글AI 시대, 커리어를 ‘설계’한다는 것