AI 시대, 우리의 사고와 학습은 어떻게 변하는가?

by the게으름

TL;DR (한눈에 요약)

AI는 단순한 생산성 도구가 아니라 사고방식을 바꾸는 인지적 파트너

비판적 사고 약화: 검증보다 AI 답변을 그대로 수용 → 민주주의와 정보 신뢰성 위협

학습 불평등 확대: 준비된 학생은 성과↑, 기초 부족 학생은 의존하다 성과↓

창의성 양날의 검: 완성물 고착화 vs 빠른 실험·탐구 촉진

일의 의미 위기: 효율성은 높아지지만 자율성·정체성 상실 위험

워크플로우 재편: 단순 작업은 AI, 복잡한 의사결정은 인간

전문성 진화: 도메인 지식 + AI 활용 + 메타-전문성이 새 기준

해결책: 답 대신 사고 과정을 지원하는 과정 지향적 AI 필요


Table of Contents

1️⃣ 비판적 사고의 변화

AI 답변 = 매끄럽고 확신에 차 있음 → 검증 과정 생략

"포괄적 이해의 착각" 발생

사회적 위험: 가짜뉴스·편향 수용성 증가


2️⃣ 학습과 교육 불평등

준비된 학생 → AI를 계획적 질문·활용

준비 안 된 학생 → AI 의존하다 성과 저하

결과: 교육 격차 심화, 세대 간 누적 위험


3️⃣ 창의성과 디자인

위험: 디자인 고착화 (AI 결과물에 매몰)

기회: 빠른 프로토타입 → 더 많은 실험 가능


4️⃣ 일의 의미와 동기

단순 효율성 추구 → 정체성·만족감 약화

“작가의 목소리” 같은 내재적 가치 훼손 위험


5️⃣ 워크플로우 재편

반복·단순 업무 → AI 위임

설계·의사결정 → 인간 중심

전문성 재정의: AI 다루는 능력 포함


AI가 당신의 사고를 바꾸고 있다는 연구 결과

CHI 2025에서 흥미로운 워크숍이 열렸다.

CHI(카이)는 ACM CHI Conference on Human Factors in Computing Systems의 약자다.

매년 열리는 인간-컴퓨터 상호작용(HCI, Human-Computer Interaction) 분야 최대 학술대회이다.

컴퓨터공학, 심리학, 디자인, 교육학 등 다양한 학문이 모여 “사람이 기술과 어떻게 상호작용하는가”를 연구하는 세계 최고 권위 학회. 구글, 마이크로소프트, MIT, 스탠포드 같은 기관 연구자들이 논문을 발표하고, 신기술·실험 결과를 공유하는 자리인거다.

"생각의 도구"라는 제목으로 56명의 연구자가 모여서 생성형 AI가 인간의 인지능력에 미치는 영향을 분석했다. 34편의 논문을 검토한 결과를 보면, 우리가 예상했던 것보다 상황이 복잡하다.

이들이 발표한 논문의 제목은 “생성형 AI와 함께 인간 인지를 이해하고, 보호하며, 확장하기: CHI 2025 “생각의 도구” 워크숍 종합 보고”.


“Understanding, Protecting, and Augmenting Human Cognition with Generative AI: A Synthesis of the CHI 2025 Tools for Thought Workshop”

제목보다는 내용이 더 재밌으니 한번 읽어보자.

화면 캡처 2025-09-04 201020.png


AI와 비판적 사고 변화: 검증 대신 수용하는 시대

Before AI: 의심 → 탐구 → 검증 → 결론

After AI: 질문 → AI답변 → 수용 → 끝


연구진이 발견한 첫 번째 패턴은 비판적 사고의 변화다.

예전에는 뭔가 의문이 생기면 여러 자료를 찾아보고 비교하고 검증하는 과정을 거쳤다. 지금은 AI에게 물어보고 그럴듯한 답이 나오면 그대로 받아들이는 경우가 늘고 있다.

듀이가 1910년에 정의한 성찰적 사고를 보면, 진짜 사고는 "당황, 혼란, 의심의 상태"에서 시작된다고 했다. 이런 불편한 감정이 있어야 뭔가를 더 깊이 탐구하게 된다는 얘기다. 그런데 AI는 매끄럽고 일관성 있는 답변을 즉석에서 제공한다. 의심할 여지를 남기지 않는다.


문제는 AI가 틀릴 수도 있다는 점이다. 하지만 답변이 워낙 그럴듯해서 사람들이 검증 과정을 건너뛰고 있다. 연구자들은 이를 "포괄적 이해의 착각"이라고 부른다. 더 심각한 건 이런 변화가 민주주의의 근간을 흔들 수 있다는 점이다. 시민들이 정보를 비판적으로 평가하는 능력이 약화되면 가짜뉴스나 편향된 정보에 더 취약해진다.


민주주의는 시민들이 다양한 정보를 비교 검토해서 독립적으로 판단하고 투표한다는 전제 위에 성립한다. 비판적 사고 능력이 약화되면 시민들이 정치인이나 언론이 제공하는 정보를 그대로 받아들이게 되고, 진실과 거짓을 구별하지 못하게 된다. 결과적으로 권력자들이 정보 조작이나 선전을 통해 여론을 쉽게 조작할 수 있게 되어, 민주적 의사결정 과정 자체가 무력화된다.


AI와 학습 불평등: 준비된 학생만 더 유리해진다

학습 영역에서는 더 복잡한 문제가 나타났다.

MIT의 한 연구를 보면, AI를 사용해 머신러닝 코드를 디버깅하는 실험에서 흥미로운 결과가 나왔다.

이미 문제를 이해하고 있던 학생들은 AI에게 구체적이고 계획된 질문을 했고 성과가 좋았다.

반면 기초 지식이 부족한 학생들은 막연한 질문을 던졌고, AI가 제시하는 방향을 그대로 따르다가 오히려 성과가 나빠졌다.


연구진은 "준비되지 않고 자신감이 없고 성과가 낮은 학생들이 AI 도구로부터 가장 적은 혜택을 받는다"고 결론지었다. AI에 가장 의존하는 사람들이 정작 가장 도움을 받지 못한다는 역설이다.

이는 단순한 개인의 문제가 아니라 교육 불평등 확대로 이어질 수 있는 구조적 문제다.

좋은 교육을 받은 학생은 AI를 도구로 활용하고, 그렇지 못한 학생은 AI에 의존하게 되는 격차가 세대를 거쳐 누적될 수 있다.

더 근본적인 문제도 있다.

학생들이 AI가 종합해준 정보를 그대로 받아들이면서, 기억하고 이해하고 적용하는 인지 과정을 건너뛰고 있다.

블룸의 학습 목표 분류체계에서 말하는 기본적인 학습 과정들이 생략되는 셈이다.


AI와 창의성: 디자인 고착화 vs 탐구 촉진

창작 분야에서는 상반된 현상이 관찰된다.

한편으로는 AI가 고품질 결과물을 빠르게 만들어내면서 디자이너들이 핵심 문제나 디자인 공간을 탐구하는 대신 완성된 결과물만 조정하는 경향이 나타난다. 이를 디자인 고착화라고 부른다.

다른 한편으로는 AI를 "탐구의 도구"로 활용하는 사례도 늘고 있다. 빠른 프로토타이핑이 가능해지면서 쇈의 "행동 중 성찰" 과정이 더 활발해진다는 관찰이다. 도날드 쇈(Donald Schön)의 "행동 중 성찰(reflection-in-action)"은 전문가가 작업을 하면서 동시에 그 작업에 대해 생각하고 즉시 조정하는 과정을 말한다.

피아니스트가 연주하면서 "아, 이 부분 템포가 빠르네" 하고 즉석에서 조정하거나, 요리사가 맛을 보면서 "짠맛이 부족해" 하고 바로 간을 맞추는 게 행동 중 성찰이다.

AI와 관련해서는 이런 상황이다. 예전에는 디자이너가 스케치를 하고, 완성하고, 평가하고, 다시 그리는 순서였다. 시간이 오래 걸렸다.


지금은 AI 덕분에 실시간으로 결과를 확인할 수 있다. 프롬프트를 조금 바꾸면 즉석에서 새로운 디자인이 나온다. 디자이너가 "어? 이건 아닌데" 하면서 바로바로 수정할 수 있다.

결과적으로 만들면서 동시에 생각하는 피드백 루프가 훨씬 빨라졌다. 이게 창의성에 도움이 된다는 관찰이다.

결국 AI를 어떻게 사용하느냐에 따라 창의성이 제약될 수도, 증진될 수도 있다는 게 연구진의 분석이다.


AI와 일의 의미: 효율성의 대가로 정체성을 잃을까?

논문에서 상당한 분량을 할애한 부분이 일의 내재적 동기와 웰빙 문제다.

자기결정이론을 인용해서 "인식적 노동"의 중요성을 강조한다. 사람이 직접 지식을 찾고 처리하고 평가하는 과정 자체가 자율성, 능력감, 관계성이라는 기본 욕구를 충족시킨다는 분석이다.


저널리스트를 대상으로 한 연구가 이 문제를 잘 보여준다. AI가 문법 검사나 자료 정리에는 도움이 되지만, 글의 핵심 아이디어까지 AI가 만드는 건 강력히 거부한다고 한다. "작가의 목소리"가 직업적, 개인적 정체성의 핵심이기 때문이다. 효율성만 추구하다가 일의 의미와 만족감을 잃을 위험이 있다는 우려다.


연구진은 "변증법적 활동" 개념을 제시한다.

변증법적 활동은 결과보다는 과정 자체에서 가치를 찾는 활동을 말한다.

육아가 대표적인 예다. 부모가 아이를 키우는 이유는 "완성품"을 만들기 위해서가 아니다. 아이와 함께 보내는 시간, 성장을 지켜보는 과정, 관계를 통해 느끼는 의미와 보람 때문이다. 결과물로 평가할 수 없는 활동이다.

예술도 마찬가지다. 화가가 그림을 그리는 건 단순히 완성된 작품을 얻기 위해서가 아니다. 붓질하는 과정, 색을 선택하는 순간, 창작하면서 느끼는 몰입감이 그 자체로 의미가 있다. 이런 활동들의 특징은 "지속적 참여"에서 가치가 나온다는 점이다. 시작부터 끝까지 내가 직접 관여해야 의미가 생긴다. 중간에 누군가 대신해주면 활동의 본질이 사라진다.

AI 문제가 여기서 생긴다. 효율성 관점에서 보면 "AI가 대신 해주면 되잖아"라고 생각할 수 있다. 하지만 변증법적 활동에서는 과정을 생략하는 순간 활동의 의미 자체가 없어진다.

글쓰기도 비슷하다. 작가에게 글쓰기는 단순히 텍스트를 생산하는 게 아니라 사고하고 표현하고 자신의 목소리를 찾아가는 과정이다.

AI가 핵심 아이디어까지 만들어주면 이 과정이 생략되면서 정체성의 혼란이 생긴다.


AI와 워크플로우 변화: 단순 업무는 AI, 의사결정은 인간

개별 작업을 넘어서 전체 업무 흐름이 바뀌고 있다는 분석도 중요하다.

"기계적 수렴"이라는 개념이 핵심이다. AI를 사용하는 지식 작업자들의 결과물이 점점 비슷해지고 있다는 관찰이다. 다양성이 줄어든다는 뜻이다.

프로그래밍을 예로 들면, 코드 생성과 디버깅은 AI가 담당하지만 설계 명세나 리팩토링, 코드 관리는 여전히 인간의 핵심 역할로 남을 가능성이 크다. 작업 단위가 아니라 전체 워크플로우 차원에서 역할 분담이 재편되고 있다.

이런 변화는 개인의 스킬셋뿐 아니라 조직 구조에도 영향을 미친다. 전문성의 정의 자체가 바뀐다. 도메인 전문성과 AI 활용 전문성, 그리고 이 둘을 조율하는 메타-전문성이 모두 중요해진다.


AI 시대의 전문성: 도메인 지식 + 메타 전문성

연구에서 가장 일관되게 나타나는 패턴 중 하나는 전문성의 역할이다. 해당 분야에 대한 깊은 지식이 있는 사람들은 AI를 더 효과적으로 활용한다. 목표를 구체화하고 작업을 분해하고 결과를 평가하는 능력이 있기 때문이다.

반면 전문가들도 고민이 있다. 단순한 작업은 AI에게 맡기고 싶지만, 복잡한 분석이나 의사결정은 여전히 자신이 하고 싶어한다. AI가 필요한 뉘앙스와 맥락을 제대로 파악하지 못한다고 생각하기 때문이다.

여기서 흥미로운 질문이 제기된다. AI와 함께 일하는 것 자체가 새로운 종류의 전문성이 되고 있는 건 아닐까? 작업을 위임하고 여러 도메인을 조율하고 도구들을 조화롭게 사용하는 메타-전문성 말이다.

메타-전문성이란 여러 분야의 전문성과 AI 도구를 조율·연결·활용하는 능력을 말한다**.**

내가 직접 다 알지 못해도, AI와 전문가들을 어떻게 활용해야 최적의 결과를 낼 수 있는지 아는 능력.

크게 보면 4개의 핵심 요소가 있다.


1. 작업 위임 능력

AI에게 어떤 일을 맡길지, 어떤 건 직접 해야 할지 구분하는 감각

예: 코드 작성은 AI에게, 설계 의사결정은 본인이


2. 문제 분해와 맥락 설정 능력

큰 문제를 작은 태스크로 쪼개서 AI나 팀원에게 던질 수 있는 능력

“프롬프트 잘 쓰는 법”의 본질이 여기에 가까움


3. 결과 평가와 교차 검증 능력

AI가 만든 답변을 무비판적으로 받아들이지 않고,

기존 지식/다른 도구와 비교해 신뢰도를 검증


4. 도메인 간 조율 능력

예: 법률 지식 + 데이터 분석 + AI 툴을 결합해서 새로운 가치를 창출


메타-전문성이 있는 사람: “AI가 준 코드를 검토 → 리팩토링 → 다른 툴과 연결 → 전체 워크플로우 최적화”


연구자들이 말한 것처럼, 앞으로는

도메인 전문성(한 분야의 깊이)

AI 활용 전문성(툴 사용 능력)

메타-전문성(조율 능력)


이 3가지가 모두 있어야 진짜 전문가로 인정받게 될 가능성이 크다.


AI 활용 전략: 답 대신 사고 과정을 돕는 도구

연구진이 제시하는 해결책은 "과정 지향적 지원"이다.

AI가 최종 답을 대신 만들어주는 게 아니라, 사람이 스스로 답을 찾아갈 수 있도록 사고 과정을 도와주는 방식이다.

몇 가지 구체적인 접근법이 제시됐다.

첫째, AI를 도전자나 코치 역할로 활용하는 것이다.

답을 주는 대신 질문을 던지고 성찰을 유도한다. "이게 답입니다"가 아니라 "이 부분을 다시 생각해보시겠어요?"

둘째, 정보의 표현 방식을 다양하게 변환하는 것이다.

텍스트를 그래프로, 추상적 개념을 구체적 비유로 바꿔가며 같은 내용을 여러 방식으로 이해하도록 돕는다.

셋째, 적절한 비계설정이다.

너무 많은 도움을 주면 사람이 생각을 멈추고, 너무 적으면 막막해한다. 사용자의 전문성 수준에 맞는 적정한 지원을 제공하는 게 관건이다.


AI 영향 측정의 난제: 비판적 사고와 창의성을 어떻게 재는가

이런 변화들을 제대로 이해하고 대응하려면 측정 방법론의 혁신이 필요하다.

기존 인지과학 연구는 단순하고 정답이 있는 과제를 주로 사용했는데, AI와의 상호작용은 대부분 질적이고 개방형이며 반복적이다. 기존 방법으로는 제대로 측정하기 어렵다.

비판적 사고나 창의성 같은 개념들을 어떻게 정확하게 측정할 것인가? 이런 능력들은 본질적으로 주관적이고 내성적이다. 사람들마다 이런 용어에 대한 이해도 다르다.

연구진은 프롬프팅 패턴 분석을 새로운 측정 방법으로 제시했다. 사용자가 어떻게 프롬프트를 작성하는지 보면 그 사람의 전문성이나 인지 전략을 파악할 수 있다는 아이디어다. 하지만 이것만으로는 충분하지 않다.


AI와 인간 사고의 미래: 장기적 영향과 윤리적 과제

가장 큰 문제는 장기적 영향에 대한 연구가 부족하다는 점이다.

AI를 오래 사용하면 독립적 사고 능력이나 주의집중력에 어떤 변화가 생기는지 아직 모른다.

종단연구가 필요한 상황이다.

종단연구(longitudinal study)는 같은 사람들을 오랜 기간에 걸쳐 반복적으로 관찰하고 측정하는 연구 방법이다. 예를 들어 "AI 사용이 사고력에 미치는 영향"을 알고 싶다면, 같은 학생 100명을 대상으로 1년차, 2년차, 3년차에 각각 사고력 테스트를 실시하는 식이다. 시간의 흐름에 따른 변화를 추적한다.

종단연구의 장점은 인과관계를 더 명확하게 파악할 수 있다는 점이다. "AI 사용 → 사고력 변화"라는 순서를 확인할 수 있다. AI와 인지능력 연구에서 종단연구가 필요한 이유는, 사고력 변화가 단기간에 나타나지 않을 수 있기 때문이다. 몇 달, 몇 년에 걸쳐 서서히 변할 가능성이 크다.


윤리적 고려사항도 남아있다. AI가 감정이나 동기에 영향을 미치도록 설계하는 게 적절한가? 사용자의 자율성과 AI의 영향력 사이의 균형을 어떻게 잡을 것인가?

마지막으로 협업에 미치는 영향도 복잡하다. 다중 사용자가 AI와 함께 작업할 때 개인이 혼자 사용할 때보다 과의존 위험이 줄어든다는 관찰이 있다. 하지만 반대로 사회적 태만이나 집단사고가 더 심해질 수도 있다.


AI 시대 생존 전략: 개인·조직·사회가 해야 할 일

이 연구가 우리에게 주는 메시지는 분명하다.

AI를 단순한 생산성 도구로만 봐서는 안 된다는 것이다. 우리의 사고 방식 자체를 바꾸는 인지적 파트너로 접근해야 한다.

개인 차원에서는 AI를 사용할 때 의식적으로 자신의 사고 과정을 점검하는 습관이 중요하다.

AI가 나를 더 똑똑하게 만들고 있는지, 아니면 생각하지 않게 만들고 있는지 솔직하게 평가해봐야 한다.


조직 차원에서는 AI 도입 시 단순한 효율성만 고려할게 아니라 직원들의 학습과 성장에 미치는 영향도 함께 고려해야 한다. 특히 신입사원이나 전문성이 부족한 직원들이 AI에 과도하게 의존하지 않도록 적절한 가이드라인이 필요하다.


사회 차원에서는 교육과정 개편, AI 리터러시 교육, 공정한 AI 접근권 보장 같은 제도적 대응이 시급하다.

특히 교육 불평등 확대와 민주적 의사결정 능력 약화는 장기적으로 사회 전체에 미치는 파급효과가 클 수 있다.

결국 AI 시대에 가장 중요한 건 AI 자체가 아니라 AI와 함께 일하는 방법을 아는 것이다.

기술이 아무리 발전해도 사람의 사고능력이 핵심이라는 점은 변하지 않는다.