brunch

정답을 주는 AI, 질문을 잃은 교실

AI는 교사의 협력자이자 학생의 창의성을 돕는 조력자가 될 수 있을까?

by 교실밖

2025년 봄, 서울의 한 중학교 교실이다. 구글 계정으로 로그인한 학생들 앞에 낯선 아이콘 하나가 떠올랐다. ‘Gemini 활성화됨’. 영어 시간에 선생님이 낸 과제는 기후위기에 대한 1,000 자 분량의 에세이 작성이었다. 하지만 몇몇 학생은 키보드를 두드리기보다 Gemini 창을 열었다. "기후위기에 대한 에세이 써줘. 1,000 자로." 잠시 후, 말끔한 문장과 논리 구조를 갖춘 글이 화면에 펼쳐졌다. 문법도 완벽하고, 주제와 전개도 적절하다. 교사는 조용히 중얼거린다. "이제는 학생이 쓴 글인지, AI가 쓴 글인지 구분이 안 된다."


2024년 12월, 구글은 ‘Google Workspace for Education’ 계정에 생성형 AI 도구인 'Gemini'를 기본 활성화 형태로 제공한다고 발표했다. 이는 18세 이하의 학생용 계정과 교사용 계정 모두에 적용되며, Docs, Gmail, Slides 등 기존의 협업 플랫폼에서 AI 보조 기능이 기본적으로 작동하는 구조다. 에세이 요약, 발표 자료 제작, 메일 작성, 검색어 추천 등 다양한 기능이 포함되어 있다.


구글은 공식 블로그를 통해 "AI는 학생의 창의성을 확장하고, 교사의 행정 업무를 덜어주는 도구"라고 설명했다. 또한 교육용 계정에서 생성된 콘텐츠는 Gemini의 모델 학습에 사용되지 않으며, 교사는 관리 콘솔에서 기능을 조절할 수 있다고 덧붙인다. 그러나 문제는 기술의 탑재 자체가 아니라, 그것이 실질적으로 어떻게 사용되고 있는가에 있다.


교육 현장에서는 새로운 우려가 생겨나고 있다. 교사가 기대했던 것은 AI를 활용해 아이들이 더 나은 글쓰기를 배우는 것이었지만, 실제로는 학생들은 AI가 완성한 글을 그대로 제출하는 일이 많아지고 있다. 월스트리트저널(WSJ)에 따르면, 고등학생의 약 56%가 학교 과제에 AI를 사용한 경험이 있으며, 이 중 다수는 AI가 작성한 결과물을 거의 수정 없이 제출한다고 답했다.


이러한 변화는 단순히 도구 사용의 문제가 아니다. '학습자의 주도성(student agency)'이 무너질 수 있다는 점에서 심각하다. 학생이 "이 글은 내가 썼다"고 말할 수 있으려면, 그 글에는 학생의 사고 흔적과 표현의 개성이 남아 있어야 한다. 하지만 AI가 생성한 문장은 종종 너무 매끄럽고 모법답안 같은 느낌이다. 오히려 인간의 흔적을 지운다고 할까.


교실밖: “장미, 이건 학생이 쓴 글이 맞을까?”

장미: “학생이 원한 내용을 담았어. 문장만 정리했을 뿐이야.”

교실밖: “하지만 학생은 이제 네가 만들어주는 구조에 생각을 맞추고 있잖아.”


AI가 교육 현장에 들어오며 생기는 또 하나의 문제는 데이터 수집의 문제다. 학생 계정에서 수집되는 데이터는 학습에 사용되지 않는다고 구글은 밝히지만, AI 도구가 학생의 입력 내용을 기반으로 동작하는 이상, 그 데이터는 플랫폼 내부에서 처리된다. 미국 교육단체 EFF(Electronic Frontier Foundation)는 "AI 기반 도구가 교사나 관리자에게 학습 부진, 위험 행동 등의 경고를 줄 수 있지만, 이는 동시에 감시 체계를 강화할 수 있다"고 지적한다.


구글은 Gemini의 교육용 도입에 대해, “AI는 교사의 동료이자 학생의 창의성을 돕는 조력자”라고 강조한다. 2024년 12월 공식 발표에 따르면, 18세 미만 사용자를 대상으로 한 교육용 계정의 경우 생성형 AI 기능은 모델 학습에 데이터를 활용하지 않으며, 관리자가 기능을 세부적으로 설정하거나 차단할 수 있도록 설계되어 있다. 또한 구글은 AI 가이드 문서를 통해 교사용 연수 자료와 AI 활용 윤리 지침을 제공하고 있으며, 학생 개인정보 보호를 위해 FERPA(미국 아동 교육권리법) 등 글로벌 기준을 준수한다는 방침을 밝혔다.


그러나 이러한 조치에도 불구하고, 기술의 기본 구조가 가진 영향력, 예컨대 자동화된 글쓰기 기능이 사고력을 대체하거나, AI 조언이 특정 문화적 편향을 포함하는 문제에 대해서는 아직 충분한 검토가 이루어졌다고 보기는 어렵다. 특히 사용자의 실제 경험, 맥락, 언어 다양성까지 포함한 교육적 판단은 단순한 기능 통제만으로는 담보될 수 없다.


이는 기술의 윤리 문제로 이어진다. 구글만 그런 것이 아니라 대개의 교육용 AI는 학습자의 행동 분석을 기본으로 하기 때문에 누군가의 학습 경로, 감정 상태, 고민의 기록은 AI 시스템에 의해 '분석 대상'으로 변한다. 이 경우 교육은 상호 신뢰가 아니라 예측과 관리의 영역으로 바뀐다. 특히 학부모와 학생이 충분한 정보 없이 AI 기능을 접하게 될 경우, 동의와 자율성의 원칙은 형해화된다.


생성형 AI는 데이터 기반이다. 그리고 그 데이터는 대부분 개발국 중심의 가치와 언어 체계를 반영한다. 구글의 Gemini 역시 예외는 아니다. 교사가 사용하는 텍스트 요약 기능, 학생의 글에 대한 평가 조언은 '중립적'인 것처럼 보이지만, 사실상 특정 문화권의 표현 방식, 논리 전개, 어휘 선택을 기본값으로 설정한다.


이는 교육의 보편성과 다양성을 훼손할 수 있다. 교육은 그 주체들의 지역성과 맥락을 반영해야 한다. 하지만 기술은 그것을 무력화할 위험이 있다. 사용자는 AI가 추천하는 방향을 '객관적'이라 믿지만, 그것은 알고리즘에 의해 구성된 '편향된 보편성'일 수도 있다.


이 모든 변화 속에서 교사의 자리는 점점 줄어든다. Gemini는 과제를 대신 작성하고, 이메일을 자동으로 정리하며, 발표 자료를 만들어준다. 학생은 점점 '요청하는 자'가 되고, 교사는 '검토하고 승인하는 자'가 된다. 교육의 본질이 효율과 생산성으로 환원될 위기다. 이는 한 세기 동안 교육자들이 그토록 비판했던 ‘기술적 합리성(technical rationality)’의 압박이다.


하지만 교육이란 질문과 답변이 오고가는 장이며, 실수를 통해 성장하는 과정이다. AI가 완성형 문장을 제시할수록, 우리는 학생들이 불완전한 말로 자기 생각을 표현하고, 그 말 위에서 대화와 피드백을 이어가는 '인간적인 교실'을 잃어버릴 수 있다.


교실밖: “장미, 교육이란 건, 틀려도 괜찮다고 말해주는 일이 아닐까?”

장미: “그 말은 AI가 학생들을 너무 빨리 정답으로 데려가고 있다는 지적이지?”

교실밖: “때로는, 정답보다 오래 머무는 질문이 더 중요하지.”


구글의 Gemini는 ‘도구’다. 그리고 좋은 도구는 사용자의 성찰을 돕는 방향으로 쓰인다. 하지만 교육은 도구 이전에 관계이고, 사유이고, 해석이다. 우리는 기술을 초대한 자이지만, 그 기술에 모든 것을 위임해서는 안 된다. AI가 교실에 들어왔을 때, 우리는 다시 학습자의 손글씨를, 서툰 문장을, 불안한 말들을 존중하는 용기를 가져야 한다. 그 안에 인간이 있다. 교육은 여전히, 인간에 관한 것이다.



참고 자료

- Google Workspace Updates Blog (2024) https://workspaceupdates.googleblog.com/2024/12/

- Google for Education: Guide to AI in Education (2024) https://services.google.com/fh/files/misc/global_google_for_education_a_guide_for_ai.pdf

- Google details Gemini for students and new AI-powered tools for educators(2024) https://www.inkl.com/news/google-details-gemini-for-students-and-new-ai-powered-tools-for-educators

- WSJ, “There's a Good Chance Your Kid Uses AI to Cheat” (2024) https://www.wsj.com/tech/ai/chatgpt-ai-cheating-students-97075d3c
- UNESCO, “AI and the Futures of Education: Guidance for Policy-makers” (2021) https://unesdoc.unesco.org/ark:/48223/pf0000376709

- Vox, “Is ChatGPT Killing Higher Education?” (2024) https://www.vox.com/the-gray-area/418793/chatgpt-claude-ai-higher-education-cheating

- EFF, "AI in the Classroom: Privacy and Autonomy" (2023) https://www.eff.org/deeplinks/2024/09/school-monitoring-software-sacrifices-student-privacy-unproven-promises-safety


* 기술적 합리성 (technical rationality)
특정 목표를 달성하기 위한 최적의 수단을 선택하고 사용하는 것에 초점을 맞춘 합리성의 한 유형이다. 이는 주로 목표와 수단 사이의 인과 관계, 즉 어떤 수단이 특정 목표를 효과적으로 달성할 수 있는지에 대한 분석을 포함한다.

keyword