교실의 AI, 사고가 얇아질 때

생성형 AI의 도움 뒤에서, 젊은 의사의 추론이 조용히 약해질 수 있다

by 전의혁

손이 먼저 검색창으로 가는 날이 있다.
늦은 저녁, 노트북 화면은 환하게 켜져 있고, 옆에는 프린트된 케이스가 구겨진 채 놓여 있다.
나는 답을 빨리 갖고 싶어서가 아니라, 불안이 커질수록 ‘확신’이 필요해져서 자꾸 그쪽으로 간다.


그건 게으름이 아니라, 기대에 가깝다.
나도 그랬고, 특히 시간이 부족할수록 더 심했다.
혹시 당신도 “정리된 한 문장” 앞에서 마음이 먼저 놓이는 편인가?


생성형 인공지능(AI)은 의료에서 분명 이점을 준다.
그런데 ‘영국의학저널’에 실린 사설을 함께 쓴 파레스 알라다브 박사는, 의학 수련생에게는 기술 상실과 추론의 외주화 같은 위험이 임상 역량과 환자 안전을 약화시킬 수 있다고 말한다.
그는 초기 문헌과 열광이 장점을 강조하는 동안, 단점은 “일반적인 주의”로만 밀려났다고도 했다.


20260129 _ 생성형 AI 과다사용, 수련의 사고력 흔든다 _ 2.png


매끈한 답이 늘 정답은 아니다.


그들이 정리한 위험은 여러 갈래다.
자동화 편향, 추론의 외주화, 기술 상실, 인종 및 인구집단 편향, 환각처럼 자신감 있게 제시되는 거짓 정보, 그리고 데이터 프라이버시와 보안 우려까지.
알라다브가 특히 걱정한 건 학생들의 ‘기술 상실’이었다. 숙련 임상의는 오랜 진료로 정신적 모델, 패턴 인식, 추론 습관을 만들어 왔지만, 학생은 아직 그 뼈대를 세우는 중이기 때문이다.


추론은 결과물이 아니라 과정이다.


외주화는 대개 티가 나지 않게 시작된다. AI는 유창하고 매끄러운 답을 내놓고, 그 유창함이 독립적인 정보 탐색과 비판적 평가, 지식 종합을 포기하게 만들 수 있다.
시간이 지나면 강화돼야 할 기술이 오히려 퇴화한다.
알라다브가 말한 ‘적신호’는 이렇다.
학생이 AI가 어떻게 생각하는지 먼저 확인하지 않고서는, 자신의 말로 개념과 감별진단, 치료 계획을 설명하지 못하게 되는 순간이다.
AI는 1차 자료 대신이 아니라, 제2의 의견이어야 한다.


20260129 _ 생성형 AI 과다사용, 수련의 사고력 흔든다 _ 2-1.png


그가 든 다른 지표도 현실적이다.
1차 자료를 거의 확인하지 않는 습관, 연습문제를 스스로 풀거나 글을 독립적으로 쓰는 일을 피하는 태도, AI 도구가 없을 때 구술시험에서 성적이 떨어지는 모습.
그래서 그는 간단한 장치를 권한다. AI 없이 학습하고 자기평가하는 정기적인 기간을 두는 것, 그리고 먼저 스스로 과제를 수행한 뒤 필요할 때 AI로 비교하고 분석하고 다듬는 방식이다.
중요한 임상 또는 과학적 주장은 신뢰할 수 있는 1차 자료에서 검증해야, 지식과 판단이 조용히 위축되지 않는다고도 했다.


“주의해서 사용하라”는 말만으로는 부족하다는 주장도 눈에 남는다.
저자들은 자동화 편향을 줄이기 위해 ‘신뢰도 보정 실험실’을 제안했다.
의도적으로 결함이 섞인 AI 답변 앞에서 학생이 수용할지, 수정할지, 거부할지 결정하고, 1차 자료를 근거로 정당화하는 연습을 하는 환경이다.
또 평가 방식도 바꾸자고 했다. 최종 산출물만 보지 말고, 추론 과정과 AI 상호작용 기록, 수용·거부의 이유, 검증 단계를 보여달라고 요구하자는 제안이다.


20260129 _ 생성형 AI 과다사용, 수련의 사고력 흔든다 _ 2-2.png


마지막으로 정책 얘기가 나온다.
학습, 과제, 임상 문서화처럼 활동 유형에 따라 허용과 비허용을 명확히 하고, 데이터 분석을 위해 상업용 도구에 보호 건강정보를 넣는 일은 금지해야 한다는 것.
사용의 투명한 공개, 근거 평가와 편향 인식 같은 학습 성과와의 정렬, 교수진 교육, 정기적 검토까지 포함해야 한다.
모델 학습 데이터에 내재된 인종 및 인구집단 편향, 그럴듯한 거짓 정보를 만드는 환각, 프라이버시와 보안 위험도 함께 고려돼야 한다고 했다.


오늘은 아주 작은 방식으로만 시작해 보려고 한다.
AI를 열기 전에, 내가 먼저 내 말로 감별진단한 줄과 근거가 될 1차 자료 한 가지를 적어두는 것부터.

작가의 이전글같은 감기인데, 코가 먼저 결정을 내린다