brunch

생각하는 근육을 ChatGPT에게 뺏기고 싶지 않다면

'메타인지적 게으름(Metacognitive Laziness)'에 대하여

by 이준유

불과 몇 년 사이, 우리의 학습과 업무 풍경은 완전히 달라졌습니다. 모르는 것이 있으면 검색창 대신 챗봇에게 물어보고, 글쓰기가 막히면 AI에게 초안을 부탁합니다. 바야흐로 인간의 지능과 AI가 결합하여 더 큰 목표를 이루는 '하이브리드 지능(Hybrid Intelligence)'의 시대가 도래한 것입니다(Akata et al., 2020).


많은 사람이 AI가 우리의 학습을 더 효율적으로, 더 즐겁게 만들어 줄 것이라 기대합니다. 하지만 과연 그럴까요? AI가 내놓는 매끄러운 결과물 뒤에서, 정작 우리의 '배움'은 안녕한 걸까요? 최근 발표된 흥미로운 연구 하나가 이 질문에 대한 묵직한 답을 던집니다. 2025년 British Journal of Educational Technology에 실린 연구, "메타인지적 게으름을 조심하라(Beware of metacognitive laziness)"입니다(Fan et al., 2025).


인간 vs AI vs 도구, 누가 최고의 선생님일까?

연구진은 117명의 대학생을 대상으로 한 가지 실험을 진행했습니다. 과제는 '교육의 미래'에 대한 영어 에세이를 쓰고 수정하는 것이었습니다. 참가자들은 무작위로 네 개의 그룹으로 나뉘어 에세이 수정 단계에서 각기 다른 지원을 받았습니다.


• AI 그룹: ChatGPT 4.0과 자유롭게 대화하며 도움을 받음.
• 인간 전문가(Human Expert) 그룹: 학술 작문 전문가와 1:1 채팅으로 도움을 받음.
• 체크리스트(Checklist) 그룹: 맞춤법, 독창성, 논리 구조 등을 분석해 주는 자동화 도구의 도움을 받음.
• 통제(Control) 그룹: 아무런 외부 도움 없이 스스로 수정함.

연구진은 이들의 학습 동기, 학습 과정(자기조절학습), 그리고 최종 성과를 면밀히 추적했습니다. 자기조절학습(Self-Regulated Learning)이란 학습자가 목표를 달성하기 위해 스스로 생각, 감정, 행동을 조절하는 과정을 말합니다(Zimmerman, 2000). 그렇다면 어떤 그룹이 가장 뛰어난 성장을 보였을까요?

▲ Control group(CN), ChatGPT group(AI), human expert group(HE), checklist feedback tools group(CL)

AI는 공부를 더 재밌게 만들어주지 않았다

흔히 'AI 튜터가 있으면 공부가 지루하지 않고 재밌을 거야'라고 생각하기 쉽습니다. 하지만 실험 결과는 의외였습니다. 네 그룹 간에 과제에 대한 내재적 동기(흥미, 즐거움, 중요도 인식 등)에는 유의미한 차이가 없었습니다. 물론 아무런 도움을 받지 못한 통제 그룹이 가장 낮은 흥미를 보이긴 했지만, 통계적으로 볼 때 ChatGPT를 쓴다고 해서 학습자가 더 열정적으로 변하거나 과제에 깊이 몰입하는 것은 아니었습니다.


이는 도구가 화려하다고 해서 학습자의 마음까지 절로 움직이는 것은 아니라는 사실을 시사합니다. 학습 동기는 학습 과정과 성과를 형성하는 데 결정적인 역할을 하기 때문에(Linnenbrink & Pintrich, 2002), AI 도입만으로 동기 부여가 해결될 것이라는 기대는 신중해야 합니다.


무엇보다 이 연구의 가장 핵심적인 발견은 학습 '과정'의 분석에서 나왔습니다. 연구진은 학생들의 행동 데이터를 분석하여, AI 그룹에서 '메타인지적 게으름(Metacognitive Laziness)'이라는 현상을 포착했습니다.


AI 그룹의 패턴

이들은 글을 고칠 때 ChatGPT에 전적으로 의존했습니다. 수정(Revision) 과정이 AI와의 대화로만 이어지는 폐쇄적인 루프를 형성했습니다. 스스로 글을 점검하거나(Evaluation), 과제 지침을 다시 확인하는(Orientation) 등의 메타인지적 활동이 현저히 적었습니다.


인간 전문가 그룹의 패턴

반면 전문가와 대화한 학생들은 달랐습니다. 전문가의 조언을 들은 뒤, 다시 참고 자료를 읽거나(Reading), 과제 목표를 재확인하는 등 다양한 학습 활동으로 연결되었습니다 .


이는 '인지 하청(Cognitive Offloading)' 개념과 맞닿아 있습니다. 인지 하청이란 인지적 부담을 줄이기 위해 외부 도구에 의존하는 현상을 말합니다(Risko & Gilbert, 2016). 적당한 인지 하청은 도움이 되지만, 과도할 경우 학습자는 스스로 생각하는 노력을 멈추게 됩니다. 가령 너무 쉬운 산수 문제를 반복해서 풀게 된다면 문제풀이에 어떠한 흥미도, 재미도 느끼지 못합니다. 그리고 기계적으로 문제를 풀겠죠. AI에게 의존하게 되면 생각하는 근육이 사라진다는 뜻입니다.


심리학 연구에 따르면, 사람들은 문제를 해결할 때 약간의 어려움을 느껴야 더 분석적이고 깊은 사고를 하게 된다고 합니다(Alter et al., 2007). 하지만 AI가 너무나 쉽고 유창하게 답을 내어주니, 학습자는 굳이 머리 아프게 고민하거나 자신의 상태를 점검할 필요성을 느끼지 못하게 된 것입니다.


점수는 올랐지만, 실력은 그대로?

그렇다면 최종 결과물은 어땠을까요? 예상하다시피, 에세이 점수는 AI 그룹이 1등이었습니다. 인간 전문가의 도움을 받은 그룹보다도 훨씬 더 점수가 많이 올랐습니다. 이는 생성형 AI가 작문 성과와 생산성을 높이는 데 효과적이라는 기존 연구들과 일치합니다(Noy & Zhang, 2023).


하지만 '진짜 실력'을 의미하는 지표들은 달랐습니다. AI 그룹은 에세이 점수는 가장 많이 올랐지만, 해당 주제에 대해 얼마나 배웠는지, 그리고 배운 내용을 다른 분야에 응용할 수 있는지 묻는 테스트에서는 다른 그룹과 차이가 없었습니다. 다시 말해, ChatGPT는 '과제'를 훌륭하게 해결해 주었지만, '학습자'를 성장시키지는 못했습니다. 학습자는 AI 덕분에 결과물은 그럴싸하게 만들었지만, 그 과정에서 자신의 머릿속에 남긴 것은 별로 없었던 셈입니다. 더 중요한 것은, AI 그룹의 학습 상호작용은 오직 ‘쓰기‘만을 중심으로 이뤄진 반면, 인간 전문가의 도움을 받거나 스스로 체크리스트를 활용한 그룹은 ‘읽기, 쓰기, 계획하기, 평가하기’가 골고루 상호작용을 했습니다. 다시 말해 메타인지에 필요한 전반적인 능력은 인간 그룹이 AI 그룹보다 더 효과적으로 향상시켰다는 것이죠. 이는 AI를 이용하더라도 학습자를 성장시키는 건 학습자 자신이라는 결론에 도달하게 됩니다.

스크린샷 2025-11-26 084647.png
스크린샷 2025-11-26 084642.png
▲ AI 그룹과 대조군은 자기조절 능력 중 '쓰기' 역량에 집중됐으나,인간 그룹은 여러 역량이 동시에 사용됐습니다.


AI를 어떻게 이용해야 잘 배울 수 있을까요?

생성형 AI는 강력한 도구이지만, 그것이 '생각하는 근육'인 메타인지를 약화시키기 쉽습니다. AI에게 전적으로 의존할 때 우리는 '메타인지적 게으름'에 빠지기 쉽습니다. 과제를 빠르고 효율적으로 처리하는 것에만 몰두하다 보면, 정작 배움의 본질인 고민과 성찰의 시간은 사라져 버립니다. 그렇다면 우리는 어떻게 해야 할까요? 세 가지 제안을 드리고 싶습니다.


첫째, AI를 '답안지'가 아닌 '토론 파트너'로 쓰세요. 무조건적인 수용보다는 비판적으로 질문하고 확인하는 과정이 필요합니다. 둘째, 의식적으로 '메타인지'를 작동시키세요. "내가 지금 뭘 배우고 있지?", "이 정보가 과제 목표에 맞나?", "AI의 조언이 정말 타당한가?"라고 끊임없이 스스로에게 되물어야 합니다. 셋째, 불편함을 즐기세요. AI가 주는 매끄러운 답보다, 스스로 고민하며 겪는 인지적 어려움이 당신을 성장시킵니다. 편리함에 취해 생각하기를 멈추지 마세요. 배움의 주체는 여전히, 그리고 앞으로도 '당신'이어야 합니다.


References

• Akata, Z., Balliet, D., De Rijke, M., Dignum, F., Dignum, V., Eiben, G., ... & Welling, M. (2020). A research agenda for hybrid intelligence: Augmenting human intellect with collaborative, adaptive, responsible, and explainable artificial intelligence. Computer, 53(8), 18-28.

• Alter, A. L., Oppenheimer, D. M., Epley, N., & Eyre, R. N. (2007). Overcoming intuition: Metacognitive difficulty activates analytic reasoning. Journal of Experimental Psychology: General, 136(4), 569-576.

• Fan, Y., Tang, L., Le, H., Shen, K., Tan, S., Zhao, Y., Shen, Y., Li, X., & Gašević, D. (2025). Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance. British Journal of Educational Technology, 56, 489-530.

• Linnenbrink, E. A., & Pintrich, P. R. (2002). Motivation as an enabler for academic success. School Psychology Review, 31(3), 313-327.

• Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence. Science, 381(6654), 187-192.

• Risko, E. F., & Gilbert, S. J. (2016). Cognitive offloading. Trends in Cognitive Sciences, 20(9), 676-688.

• Zimmerman, B. J. (2000). Attaining self-regulation: A social cognitive perspective. In Handbook of self-regulation (pp. 13-39). Elsevier.

keyword
작가의 이전글어린 시절의 상처는 뇌에 어떤 흔적을 남길까