AI 시대의 교육 윤리

AI가 바꾸는 수업, 우리는 얼마나 윤리적인가?

by Learning Lab

첨단정보통신 기술의 발전과 함께 교육 분야 역시 '혁신'을 핵심 키워드로 삼아 빠르게 변화하고 있다.
4차 산업혁명의 핵심 기술 중 하나인 인공지능은 AI 디지털 교과서, AI 코스웨어, AI 교수·학습 플랙폼 등 교육영역에 다양하게 적용되고 있다.


교육대학원 수업 중 교수님의 "학생은 실험 대상이 아니며, 충분히 검증된 교육방법을 적용해야 합니다" 라는 말씀 속에, 현재의 교육환경은 이 부분을 간과하고 있지는 않은가 라는 의문을 가지게 되었다.

교육 관련 업종에 종사하는 담당자로서 '교육혁신포럼', '성과 공유회', '발전계획 수립 보고회' 등 다양한 확산의 이슈들은 대부분 AI로 대변 되고 있다는 것을 체감하고 있다. 이를 증명하듯 교육기관의 교수자, 학습자는 다양한 측면에서 AI를 활용하고 있으며, 일부 영역에서는 성과 도출을 위한 강제성 또한 나타나고 있지않을까라는 생각을 가지고 있다.


이런 환경에서의 AI 활용이 과연 충분한 고려와 검토가 이루어 진 후 진행되는 것인가? 무분별한 AI 도입 자체를 '성과'로 착각하고 있는것은 아닐까? 라는 의문을 가지게 되었다.


AI는 접해본 사람은 공통적으로 부정확상, 데이터 편향 등에 대한 활용의 단점들을 쉽게 알 수 있다. 이러한 정보를 무비판적으로 수용할 경우 발생하는 문제들은 개인적인 활용문제를 넘어 윤리적 문제와도 연계하여 검토해야할 사항이다.

이와 관련하여, 다양한 노력을 통해 AI 윤리 지침을 수립하고, 가이드 등을 활용한 AI 사용에 대한 윤리를 적용하고자 하는 노력이 있다. 박연정 외(2023)는 AI의 교육적 활용이 급증하는 상황에서 교육현장에서의 윤리적 문제가 다양하게 발생하고 있음에도 구체적인 윤리 지침이 부재한 상황과 관련하여, AI 윤리 지침의 체계적 개발 연구를 수행하였다. 이를 통해 설계자, 연구자, 교수자, 학습자를 위한 AI 윤리 지침을 개발하였으며, 델파이 조사, 지침 수정 및 타당도 검증을 통해 총 6개 영역 28개의 구성요소를 도출하였다.

특히 AI 윤리 지침은 교육 현장에 그대로 적용되기 어려운 경우가 있음을 말하며, 각 주체별로 현실적 수준에서 조정이 필요하다고 하였다.

박연정 외(2023)에서 제안하는 윤리 지침은 다음과 같다.
1. 투명성 : 정보공개, 설명 가능성, 해석 가능성, 의사소통, 정보공개(5개 요소)
2. 정의와 공정 : 공정함, 일관성, 포용성, 비차별성(4개 요소)
3. 비악의성 : 안전, 보안, 개인정보보호, 피해예방(4개 요소)
4. 책임 : 책임, 법적책임, 정직성, 신뢰성, 자기 결정권(4개 요소)
5. 자유와 자율 : 자유, 자율성, 동의, 자기 결정권(4개 요소)
6. 공존과 지속가능성 : 사회적 연대, 인간 존엄, 교육 혜택 보장, 지속가능성, 공익성, 평화 지향(6개 요소)

한정윤(2025)의 연구에서는 맞춤형 교육과 함께 AI가 활발히 도입되고 있음에 따라, 교육적·윤리적 문제에 대한 구체적 기준과 정책 제안의 부족함에 대해 실천적 과제를 제시하고자 하였다.

학습자가 데이터에 대한 접근·통제가 가능하도록 데이터 주권 보장, 편향 방지 알고리즘 설계, AI 활용 윤리, 데이터 리터러시 등 교수자 역량 강화, AI가 사교육화 되지 않기 위한 공공 플랫폼의 개발을 통한 공공성 강화, 학습자·교수·전문가가 함께 정책에 참여하는 참여형 정책 설계를 과제로 제언하였다.


박연정 외(2023)의 연구는 교육현장에서의 AI 윤리 기준의 부재를 통한 교육맥락에 맞게 28개의 세부 항목을 구체화하는 반면, 한정윤(2025)의 연구는 시스템적 구조 전반을 다루며, 기술·정책 중심의 접근을 통해 윤리적 딜레마를 중심으로 쟁점 중심 분석을 진행하였다.

두 연구를 통해 교육현장 중심의 윤리 지침을 제공하고, 관련 규정 및 지침 설계 측면에서 그 가치가 높다고 판단한다.


교육현장에서 직접 수업을 진행하고 있지는 않지만, 교수자의 수업 설계를 지원하는 입장에서 생성형 AI 도입과 그에 따른 윤리적 쟁점에 대해 고민해 보았다. 특히 윤리적 책임에 초점을 맞추고자 한다.


먼저, 생성형 AI는 강력한 도구로 활용될 수 있음을 연구에서 확인할 수 있다. 교수자의 활용 측면에서 학습자 자율성 약화, 데이터 편향과 공정성 문제 및 프라이버시 침해 가능성에 대해 작성해보고자 한다. 이를 위해 박연정 외(2023)의 교수자 지침을 고려할 수 있는 방안을 적용해 보았다.


학습자는 AI가 정답을 제공함으로써 비판적 사고가 약화될 수 있다. 한정윤(2025)의 연구에서는 '학생 주체성의 약화'라는 문제로 연결될 수 있다고 하였으며, 이에 대해 학습자의 AI 활용 방법에 대한 지도를 비판적으로 해석할 수 있는 '메타인지적(자신의 인지에 대한 인지) 지도'의 강화 방안을 중점적으로 지도해야 할 것이다.

데이터 편향과 공정성 문제가 발생할 수 있다. AI는 특정 문화나 이념적 관점에 편향된 답변을 할 수 있다. zeta에서 서비스했던 열린 주체 대화형 인공지능인 '이루다'서비스는 혐오발언, 성희롱, 욕설 등에 대한 논란이 끊이지 않았으며, 결국 서비스를 종료하게 되었다. 먼저 AI가 제공하는 정보의 편향 가능성을 점검할 수 있도록 지도해야하며, AI를 정답을 주는 존재보다는 질문을 유도한는 도구로 활용할 수 있도록 지도해야 할 것이다.

프라이버시 침해 가능성에 대해, 동의 없이 수집되는 정보는 윤리적 논란이 일어 날 수 있으며, 박연정 외(2023)는 이런 상황에서 '설계자-교수자-학습자 간 책임 공유'를 강조한다. 교수자는 학습자 데이터를 활용하기 위해 명확하게 설명해야 하며, 사전 동의를 필수해야 한다. 또한 설계자에게 제공되는 정보 또한 반드시 교수자의 검토 및 활용 목적에 부합하는지 분석하여 최소한의 정보를 제공하는 것을 목적으로 해야할 것이다.


AI 는 강력한 도구임에는 틀림없으나,
그 도구를 어떻게 활용할지는 인간의 몫이다.
교육자에게 있어 윤리는 지침이 아니라 태도이고,
책임은 선택이 아닌 전제 조건이다.
생성형 AI의 시대를 살아가는 우리 스스로를
비판적으로 사고하고, 결과를 검토하며,
책임을 감당할 수 있을때
AI는 교육의 파트너로서의 역할을 할 수 있을 것이다.




참고문헌

박연정, 정종원, 노석준, 이은배. (2023). 인공지능의 교육적 활용을 위한 윤리지침 개발. 교육공학연구, 39(4), 1509–1654.

한정윤. (2025). 맞춤형 교육을 위한 AI 활용의 윤리적 책임과 과제.

keyword
작가의 이전글학습격차 시대, ITS를 활용한 자기조절학습 설계 전략