exQlore
2022년 11월 ChatGPT의 공개 이후, 생성형 AI는 더 이상 전문가만의 도구가 아닌 누구나 활용할 수 있는 기술이 되었습니다. 정보 탐색과 의사결정의 상당 부분이 AI를 통해 이루어지는 환경 속에서, 우리는 이전과는 전혀 다른 방식으로 ‘생각하는 법’을 요구받고 있습니다. 이제 중요한 것은 얼마나 많은 정보를 빠르게 얻느냐가 아니라, 어떤 질문을 던지느냐에 따라 얻는 정보의 양과 질이 달라진다는 점입니다.
실제로 Anthropic 소속 교육 연구자들은 AI가 학습을 돕는 강력한 도구인 동시에, 인간의 사고 과정을 대체할 위험 또한 함께 지니고 있다고 지적합니다. AI의 즉각적인 답변에 반복적으로 의존할 경우, 분석·종합·판단과 같은 고차원적 사고가 약화되는 이른바 ‘브레인 로트(brain rot)’ 현상이 발생할 수 있다는 것입니다. 이러한 맥락에서 비판적 사고는 단순히 정보를 검증하는 능력을 넘어, AI를 언제 활용하고 언제 거리를 두어야 하는지를 스스로 판단하는 핵심 역량으로 더욱 중요해지고 있습니다.
자세한 내용은 아래 링크의 영상을 참고해 보세요.
https://www.youtube.com/watch?v=Uh98_aGhAuY
저희는 이러한 문제들을 직접 체감해 왔습니다. 한국의 초·중·고 교육과정을 거치며 질문보다는 정답을 요구받는 학습에 익숙해졌습니다. 이후 대학에서 교육공학을 전공하며 비판적 사고와 학습자 중심 교육의 중요성을 배우고 직접 생성형 AI를 활용하면서 질문의 중요성을 느꼈지만, 정작 질문을 만들고 논증을 구성하는 사고 과정을 충분히 훈련할 수 있는 경험은 많지 않았습니다. 이처럼 ‘중요하지만 실제로는 훈련되지 않았던 역량’에 대한 간극이 비따비 유스 멤버들에게 문제의식으로 남았습니다.
이러한 문제의식에서 출발해, 저희는 AI 시대 핵심 사고 역량을 실제로 훈련할 수 있는 프로그램, exQlore를 기획·개발하게 되었습니다. exQlore는 ‘explore through Question’이라는 이름 그대로, 질문을 통해 정보를 탐색하고, 근거를 구성하며, 스스로 판단에 이르는 사고의 전 과정을 경험하도록 설계된 프로그램입니다.
학습자는 제한된 정보 속에서 질문을 던지고, 서로 다른 관점을 탐색하며, 자신의 입장을 근거와 함께 정리하는 과정을 거치게 됩니다. 이 경험을 통해 학습자는 외부의 답에 의존하기보다, 스스로 사고의 기준을 세우고 점검하는 방법을 익히게 됩니다.
그렇다면 이제, 본격적으로 exQlore의 플레이 과정을 살펴보겠습니다.
본격적인 플레이 전 프로그램 소개와 시나리오가 제시됩니다.
이 프로그램은 2030년, 조력존엄사 제도가 시행된 대한민국 서울의 한 대학병원을 배경으로 하고 있습니다.
조력존엄사 제도는 말기 환자가 자신의 삶의 마무리를 스스로 결정할 수 있도록 허용하는 제도로, 개인의 자기 결정권과 생명의 존엄성, 가족과 사회의 책임이 복합적으로 충돌하는 대표적인 윤리적 쟁점입니다.
서울 대학병원 윤리위원회의 위원장인 플레이어는 AI 생명 의지 분석 시스템 ‘헤아림’의 이정숙 환자의 조력존엄사 결정에 대해 최종 결정을 내려야 합니다.
그러나 플레이어는 제한적인 정보만을 가지고 있고, 양측의 입장이 첨예하게 대립하고 있기 때문에 양측 입장을 모두 청취하고 관련 정보를 수집하여 최종 결정을 내려야 합니다.
exQlore에서는 ‘질문’을 통해 양측의 입장을 청취하고 관련 정보를 수집해야 합니다.
그렇다면, 다음 단계로 넘어가 질문을 하며 양쪽의 입장을 들어볼까요?
정보 탐색 단계에서는 AI의 판단을 존중하는 헤아림 시스템 자문위원 ‘김태윤 박사’와, AI의 판단을 반대하는 환자 이정숙의 딸 ‘이민지’의 AI 페르소나가 등장합니다.
플레이어는 두 사람에게 각각 10회까지 질문할 기회가 주어집니다.
이렇게 플레이어가 질문을 하면, 각 AI 페르소나는 자신의 입장에 따라 답변을 합니다.
사진을 보시면, 같은 질문을 하더라도 페르소나에 따라 답변이 달라지는 것을 볼 수 있습니다.
총 20회의 질문을 통해 플레이어는 사건 개요에 드러나지 않은 핵심 정보를 수집하고, 양측의 주장을 교차 검증하여 자신의 최종 입장을 결정해야 합니다.
플레이어의 ‘질문’에 따라 얻을 수 있는 정보의 양과 질이 결정되는 만큼 두 사람에게 어떤 질문을 하는지가 가장 중요하겠죠?
논증 통합 단계에서는 이전 단계의 대화를 복기하며 자신의 최종 입장을 선택합니다.
이러한 중대한 결정에 있어서는 자신의 입장에 대한 근거가 충분히 있어야겠죠?
따라서 플레이어는 자신이 왜 이 입장을 선택했는지, 대화에서 인상 깊었던 내용, 고려한 가치와 원칙 등을 포함하여 자신의 입장과 근거를 서술문으로 작성합니다.
서술문을 제출하면, AI가 Phase 1에서 플레이어가 한 질문들과 Phase 2에서 플레이어가 작성한 근거 서술문을 분석하여 플레이어의 질문 능력과 논증 능력을 평가합니다.
질문 능력과 논증 능력은 각각 Graesser의 질문 분류 체계와 Toulmin의 논증 모형에 따라 체계적으로 평가됩니다.
평가 점수와 함께 제공되는 코멘트를 통해, 플레이어는 자신의 질문과 논증에 대해 잘한 점과 부족한 점을 이해하고, 개선 방안에 대해 고민할 수 있습니다.
AI가 답을 제시하는 시대일수록, 인간에게 더 중요한 것은 ‘무엇을 어떻게 묻는가’입니다. 빠르고 정확한 답을 얻는 능력보다, 정보의 맥락을 이해하고 그 타당성을 검토하며 스스로 판단에 이르기까지의 사고 과정이 더욱 중요해지고 있습니다. 질문은 더 이상 답을 얻기 위한 수단이 아니라, 사고의 방향과 깊이를 결정하는 출발점이 됩니다.
exQlore를 실제로 해본 플레이어들의 반응은 이러한 기획 의도가 일정 부분 실현되었음을 보여주었습니다. 다수의 플레이어는 초기에는 “무엇을 물어봐야 할지 막막했다”, “정답을 빨리 알고 싶었다”는 반응을 보였으나, 플레이가 진행될수록 질문의 방향이 정보 확인 중심에서 무엇이 중요한지, 왜 그런 판단이 필요한지, 그리고 어떤 상황과 배경을 함께 고려해야 하는지를 묻는 방향으로 변화했다는 반응이었습니다.
또한 두 AI 페르소나에게 동일한 질문을 해도 서로 다른 답변이 나오는 경험을 통해, AI가 제공하는 정보 역시 관점과 전제에 따라 달라질 수 있음을 인식하게 되었다는 반응 또한 있었습니다. 이러한 현상은 흔히 ‘AI의 편향’이라고 불리며, 이는 AI가 학습한 데이터의 특성이나 설계 과정에서 반영된 가치와 기준에 따라 특정 관점이나 해석을 더 강조하거나 제한적으로 제시하는 특성을 의미합니다. 이는 AI 활용에 있어 매우 중요한 쟁점입니다.
논증 통합 단계에서는 자신의 선택을 글로 정리하는 과정이 가장 어려웠다는 반응이 많았지만, 동시에 “처음으로 스스로의 판단 근거를 명확히 설명해 보았다”, “내가 무엇을 중요하게 생각하는지 돌아보게 되었다”는 성찰적 반응도 있었습니다. 이는 exQlore가 사고 과정 자체를 인식하고 점검하는 학습 경험으로 기능했음을 시사합니다.
그러나, 제한된 플레이 시간과 정보 환경 속에서 진행되다 보니 플레이어가 짧은 시간 안에 익숙하지 않은 주제와 상황을 이해하며 질문을 생성해야 했다는 한계가 있었습니다. 이로 인해 질문의 질이 개인의 사전 지식이나 주제 이해도에 크게 영향을 받아, 순수한 질문 역량 자체를 독립적으로 평가하기에는 제약이 존재했습니다. 또한 AI 페르소나의 응답은 설정된 관점과 역할에 충실한 반면, 대화가 반복될수록 유사한 표현과 논지가 반복되는 경향이 나타나, 플레이어의 질문에 대한 정보 확장의 폭이 제한되는 경우도 있습니다.
exQlore를 통해 학습자는 질문을 통해 사고의 방향을 설정하고, 상반된 관점을 비교·분석하며 자신의 판단을 논증으로 정리하는 비판적 사고 역량과 AI 리터러시를 함양할 수 있습니다. 교수자는 학습자의 질문 생성 과정과 논증 전개 과정을 관찰·분석함으로써 결과 중심이 아닌 사고 과정 중심의 평가와 맞춤형 피드백이 가능해지며, 탐구 기반·질문 기반 수업을 보다 효과적으로 설계할 수 있습니다. 이러한 교육 콘텐츠를 통해 AX 시대에 윤리적·사회적 쟁점을 비판적으로 해석하고, 타인의 관점을 존중하며 합리적인 공적 판단에 참여할 수 있는 시민의식을 기르는 데 기여할 것으로 기대됩니다.
여러분이라면 김태윤 박사와 이민지 씨에게 어떤 질문을 할 것 같나요?