이 책 1장에서 언급했던 사고 주권이란, 자신의 판단과 생각이 어디서 시작되었는지를 알고, 그것을 자기 것으로 소유할 수 있는 권리이자 능력이다. AI 시대에 우리가 잃어가는 것은 사고의 능력이 아니라, 사고의 기원에 대한 자각이다.
인지적 주권(Cognitive Sovereignty)은 외부 시스템에 의해 사고가 형성되지 않도록 개인이 자율적으로 사고할 수 있는 능력을 의미한다. 이 개념은 Ulrich Beck(1986)의 위험사회 이론에서 유래했으며, 최근 AI 시대에 재조명되고 있다 (Bygrave, 2021; arXiv:2508.05867, 2025).
사고 주권의 세 가지 구성 요소
① 기원 자각 (Awareness of Origin)
"이 생각은 어디서 시작되었는가?"
"내 머릿속에서 시작된 것인가, 외부에서 주입된 것인가?"
② 과정 추적 (Process Tracing)
"이 결론에 어떻게 도달했는가?"
"어떤 근거와 추론 과정을 거쳤는가?"
③ 소유감 (Sense of Ownership)
"이것은 내 생각이다"라고 확신할 수 있는가?
타인에게 설명하고 방어할 수 있는가?
AI를 반복적으로 사용하면, 이 세 가지가 모두 흐려진다:
기원 자각의 상실
상황: 리포트에서 어떤 주장을 했다.
질문: "이 아이디어는 네가 생각한 거야,
아니면 ChatGPT가 제안한 거야?"
답변: "음... 잘 모르겠어요.
제가 먼저 비슷하게 생각했던 것 같기도 하고,
ChatGPT가 정리해 준 것 같기도 하고..."
과정 추적의 불가능
상황: 결론에 도달했다.
질문: "어떻게 이 결론에 도달했어?"
답변: "ChatGPT에게 물어봤더니 이렇게 답해줘서요."
→ 추론 과정이 블랙박스 안에 있다.
소유감의 약화
상황: 리포트를 제출했다.
내적 대화: "이게 정말 내 생각인가?
만약 교수님이 질문하시면
내가 제대로 설명할 수 있을까?
사실 나는 이 내용을 완전히 이해하지 못했는데..."
AI 시대의 사고는 인간과 AI의 합작품이다.
인간과 AI가 함께 사고 과정에 참여하는 상태
최종 산출물은 둘의 협력 결과
따라서 책임도 공유된다
Co-agency의 스펙트럼
100% 인간 ←------------------------→ 100% AI
A: 인간이 모든 것을 생각하고 AI는 편집만 도움 (90% 인간)
B: AI가 초안 제공, 인간이 대폭 수정 (70% 인간)
C: AI가 초안 제공, 인간이 약간 수정 (40% 인간)
D: AI 답변을 거의 그대로 사용 (10% 인간)
E: AI 답변을 전혀 수정 없이 사용 (0% 인간)
문제는 무엇인가?
사용자들은 자신이 스펙트럼 어디에 있는지 정확히 모른다
D나 E에 가까운데도 "내가 쓴 것"이라고 생각한다
사고 주권을 포기했다는 자각 없이 포기한다
이와 같이 잃어버린 사고주권의 회복을 위해 이 책 1장에서 제안한 ThinkFirst 프로젝트를 정리하면 다음과 같다:
기존 AI 인터페이스
사용자: 질문 입력
↓
시스템: 즉시 AI 답변 제공
↓
사용자: 답변 읽고 수용 또는 수정
ThinkFirst 인터페이스
사용자: 질문 입력
↓
시스템: "잠깐! 먼저 당신의 생각을 말해보세요."
↓
사용자: 자기 생각 기록 (강제)
↓
시스템: 이제 AI 답변 제공
↓
사용자: 자기 생각과 AI 답변을 비교하며 최종 답변 작성
사고 개입도 증가
AI 답변을 보기 전에 내 생각을 정리하면 AI가 뭘 놓쳤는지 알 수 있다.
내 관점과 AI 관점을 비교하는 게 도움이 된다.
비판적 수용
AI 답변을 무조건 받아들이지 않게 된다.
어떤 부분은 맞고 어떤 부분은 틀렸다고 판단할 수 있다.
소유감 증가
최종 답변이 '내 것'이라는 느낌이 든다.
누가 물어봐도 설명할 수 있을 것 같다.
ThinkFirst가 효과적인 신경과학적 이유는 다음과 같다.
원리 1: DMN 활성화 시간 확보
AI 답변이 나오기 전에 사용자에게 생각할 시간을 준다
PCC, vmPFC, AG가 작동할 수 있는 여유 제공
원리 2: 메타인지 촉발
"내 생각"과 "AI 생각"을 명시적으로 비교하게 함
"이것은 내가 생각한 것인가?" 질문을 명시적으로 제기
원리 3: 사고 과정의 흔적 남기기
자기 생각을 텍스트로 기록함
나중에 돌아보며 "내가 이렇게 생각했구나" 확인 가능
과거: 사고력 교육
과제: "이 주제에 대해 깊이 생각해 보고 리포트 작성"
평가: 사고의 독창성, 논리적 전개, 근거의 타당성
목표: 학생의 사고력 자체를 키우는 것
현재: 프롬프팅 능력 교육?
과제: 여전히 동일
실제: 학생들은 AI에게 질문하고 답변을 정리
평가: (교수는 AI 사용 여부를 판단하기 어려움)
결과: 사고력이 아닌 "AI 활용 능력"이 중요해짐
딜레마
AI 사용을 금지할 수 없다(너무 유용하고 필수적)
AI 사용을 허용하면 사고력이 저하될 수 있다
새로운 교육 방법론이 필요하다
기획안 작성의 변화
과거
월요일: 아이디어 브레인스토밍 (팀 회의)
화요일: 개별 조사 및 자료 수집
수요일: 초안 작성 및 검토
목요일: 수정 및 보완
금요일: 최종안 완성
→ 5일간의 사고 과정
현재
월요일 오전: ChatGPT에게 기획안 틀 요청
월요일 오후: AI 초안 기반으로 팀 검토
화요일: 약간 수정 후 제출
→ 1.5일로 단축, 하지만...
질문
효율성은 올랐지만, 사고의 깊이는?
팀원들이 진짜 생각을 나눴나, 아니면 AI 초안을 검토만 했나?
이 기획안은 "우리의 것"인가?
이제 사람들은 작은 판단에도 AI에게 묻는다:
과거
"오늘 저녁 뭐 먹지?"
→ (5-10분 고민)
→ 자기 취향, 날씨, 분위기를 고려해 결정
→ "오늘은 파스타 기분이네"
현재
"오늘 저녁 뭐 먹지?"
→ ChatGPT에게 물어본다
→ "오늘 날씨와 당신의 취향을 고려하면..."
→ "아, 그래, 파스타 먹을까?"
차이
결과는 비슷할 수 있다(둘 다 파스타)
하지만 과정이 다르다
전자는 자기 결정, 후자는 AI 제안 수용
문제
이런 작은 판단들이 쌓이면?
"내가 뭘 원하는지"를 스스로 알 수 있는 능력이 약화되지 않을까?
"선택의 자유"는 있지만 "판단의 능력"은 위축되는 것 아닐까?
사고 자아의 위탁은 결국 하나의 근본적인 질문으로 귀결된다:
이 생각은 내가 시작한 것인가?
내 머릿속에서 발생한 생각인가, AI가 제안한 생각인가?
내가 구성한 논리인가, 외부에서 주입된 논리인가?
이 판단에 대해 책임질 수 있는가?
감각 자아가 "나는 여기 있다"의 상실,
정서 자아가 "나는 이것을 느낀다"의 상실이었다면,
사고 자아의 위탁은 "나는 이것을 생각했다"는 확신의 상실이다.
그리고 이 세 층위의 침묵이 함께 작용할 때,
우리는 근본적인 정체성의 위기에 직면한다:
나는 누구인가?
감각하지 못하고
느끼지 못하며
생각하지 못하는 존재라면
나는 과연 무엇으로 남는가?
제2장에서 우리는 세 층위의 정체성 해체를 살펴보았다:
2.2 감각 자아의 해체
"나는 여기 있다"는 현존감의 상실
디지털 과잉 자극과 신체 감각의 둔화
공간, 시간, 몸에 대한 자각 약화
2.3 정서 자아의 분열
"나는 이것을 느낀다"는 확신의 상실
플랫폼별 감정 연기와 진위 판단 불가
공적 감정 공간의 해체
2.4 사고 자아의 위탁
"나는 이것을 생각했다"는 소유감의 상실
AI에 의한 사고 기원의 외부화
사고 주권의 약화
그렇다면 이 질문이 남는다:
이 미로에서 빠져나갈 수 있는가?
해체된 정체성을 다시 통합할 수 있는가?
기술과 함께 살아가면서도 "나"를 유지할 수 있는가?
다음 장에서 우리는 이 질문에 답하기 위한 윤리적 나침반을 찾아갈 것이다.
세 명의 사상가—레이첼 카슨, 수잔 그린필드, 크리스토퍼 서머필드—가 각각 감각, 정서, 사고의 층위에서 제시한 윤리적 대응 방안을 살펴보자.
정서 자아 점검
최근 SNS에 표현한 감정 중, 실제로 그렇게 느꼈다고 확신할 수 있는 것은?
서로 다른 플랫폼에서 같은 사건에 대해 다른 감정을 표현한 적이 있나요?
"나는 정말 이렇게 느끼는 걸까?"라고 의심한 순간이 있었나요?
사고 자아 점검
최근 AI의 도움을 받아 작성한 글이 있다면, 그중 몇 %가 "내 생각"인가요?
AI가 제안한 생각과 내가 원래 가지고 있던 생각을 구별할 수 있나요?
누군가 "이 생각을 어떻게 하게 됐어?"라고 물으면, 사고 과정을 설명할 수 있나요?
통합적 질문
감각-정서-사고의 세 층위에서, 당신이 가장 "나다움"을 잃었다고 느끼는 것은?
디지털 기기를 하루 동안 완전히 끄면, 당신은 "나"를 더 분명히 느낄 수 있을까요?
다음 장 예고
제3장에서는 침묵에 대응하는 세 가지 윤리적 관점을 탐구합니다:
레이첼 카슨: 감각의 윤리와 경청
수잔 그린필드: 정서의 윤리와 느림
크리스토퍼 서머필드: 사고의 윤리와 주권
기술이 만든 침묵 속에서, 우리는 어떤 윤리적 나침반을 가질 수 있을까요?
1. Craig (2009) - Anterior Insula 논문
https://pubmed.ncbi.nlm.nih.gov/19096369/
전문: https://www.semanticscholar.org/paper/fe4a9d6e42162228d9bee072e6ca1462c158e958
2. Denny et al. (2012) - mPFC 메타분석
https://pubmed.ncbi.nlm.nih.gov/22452556/
전문: https://pmc.ncbi.nlm.nih.gov/articles/PMC3806720/
3. Arendt (1958) - The Human Condition
https://press.uchicago.edu/ucp/books/book/chicago/H/bo29137972.html
PDF: https://press.uchicago.edu/dam/ucp/books/pdf/course_intro/978-0-226-58660-1-introduction.pdf
4. Hochschild (1983) - The Managed Heart
https://www.ucpress.edu/book/9780520272941/the-managed-heart
PDF: https://caringlabor.files.wordpress.com/2012/09/the-managed-heart-arlie-russell-hochschild.pdf
5. Vygotsky (1934/1986) - Thought and Language
https://mitpress.mit.edu/9780262517713/thought-and-language/
전문: https://archive.org/details/thoughtlanguage0000vygo
6. Husserl (1900-1901/2001) - Logical Investigations
https://www.taylorfrancis.com/books/mono/10.4324/9780203879054/
PDF: https://antilogicalism.com/wp-content/uploads/2017/07/logical-investigations.pdf
7. Andrews-Hanna et al. (2014) - Default Network
PubMed: https://pubmed.ncbi.nlm.nih.gov/24502540/
https://pmc.ncbi.nlm.nih.gov/articles/PMC4039623/
PDF: https://scottbarrykaufman.com/wp-content/uploads/2014/02/Andrews-Hanna-Smallwood-Spreng-2014.pdf
8. Summerfield, C. (2025) - These Strange New Minds
https://www.penguinrandomhouse.com/books/750406/these-strange-new-minds-by-christopher-summerfield/
9. Human-AI Deliberation
Ma, S., Chen, Q., Wang, X., Zheng, C., Peng, Z., Yin, M., & Ma, X. (2024).
Towards Human-AI Deliberation: Design and Evaluation of LLM-Empowered
Deliberative AI for AI-Assisted Decision-Making.
Proceedings of ACM CHI Conference on Human Factors in Computing Systems, 2025.
https://arxiv.org/abs/2403.16812
PDF: https://arxiv.org/pdf/2403.16812.pdf
10. Cognitive Sovereignty
AI Memory, Network Effects, and the Geopolitics of Cognitive Sovereignty (2025).
arXiv:2508.05867.
https://arxiv.org/abs/2508.05867
PDF: https://arxiv.org/pdf/2508.05867.pdf
10. Deliberating with AI
Zhang, A., et al. (2023). Deliberating with AI: Improving Decision-Making
for the Future through Participatory AI Design and Stakeholder Deliberation.
arXiv:2302.11623.
https://arxiv.org/abs/2302.11623