AI의 ‘사고에 대한 사고 같은 것’이 우리를 경이롭게 만든다는 사실
메타인지(Metacognition)는 한마디로 ‘사고에 대한 사고’다. 내가 무엇을 알고 무엇을 모르는지 아는 것, 내 생각의 과정을 들여다보고 조절할 수 있는 역량이다. 1970년대 발달 심리학자 존 플라벨이 제안한 이 개념은 단순한 앎을 넘어선 ‘자기 객관화 능력’이다. 학생이 시험 문제를 풀면서 “이 문제는 내가 확실히 아는데, 저 문제는 애매하니 다시 확인해야겠다”라고 판단하는 것, 논쟁 중에 “내 논리에 빈틈이 있는 것 같으니 다시 생각해봐야겠다”라고 멈춰 서는 것이 바로 메타인지의 작동이다.
메타인지 능력이 높은 사람은 학습 효율이 높고, 문제 해결 능력이 뛰어나며, 자신의 한계를 인식하기에 더 성장할 수 있다. 교육학에서 메타인지를 강조하는 이유도 여기에 있다. 단순히 지식을 많이 아는 것보다, 자신의 사고 과정을 관찰하고 조정할 수 있는 능력이 진짜 지능의 핵심이라는 것이다.
그렇다면 생성형 AI는 어떤가. ChatGPT, Gemini, Claude 같은 대규모 언어모델(LLM)과 대화하다 보면 묘한 경험을 하게 된다. 질문을 던지면 AI는 답변을 내놓고, 때로는 “제가 이 부분은 확실하지 않습니다”라고 말하기도 하며, “다시 생각해보니 제 이전 답변에 오류가 있었습니다”라고 수정하기도 한다. 심지어 최근의 추론 모델들은 답변을 내놓기 전에 ‘생각의 과정’을 보여주기까지 한다.
이런 모습을 보면 “이 AI는 자기 생각을 돌아보는구나, 메타인지를 하는구나”라는 느낌을 받는다. 특히 복잡한 문제를 단계별로 풀어가는 과정, 자신의 답변에 대해 확신의 정도를 표현하는 방식, 맥락을 고려하여 이전 발언을 수정하는 모습은 인간이 느끼기에 ‘사고에 대한 사고’처럼 보인다.
하지만 이것이 진짜 메타인지일까. 회의적 시각도 만만치 않다. LLM은 본질적으로 다음에 올 단어를 예측하는 확률 모델이다. 수천억 개의 매개변수로 구성된 신경망이 학습 데이터에서 패턴을 찾아내고, 주어진 맥락에서 가장 그럴듯한 다음 토큰을 생성할 뿐이다. “제가 확실하지 않습니다”라는 표현도, “다시 생각해보니”라는 수정도, 모두 학습 데이터에서 인간이 그런 상황에서 사용하던 언어 패턴을 재현한 것에 불과할 수 있다.
실제로 AI는 자신이 ‘무엇을 아는지’ 알지 못한다. 할루시네이션(환각)이 그 증거다. AI는 때때로 터무니없이 확신에 찬 어조로 완전히 거짓인 정보를 내놓는다. 진정한 메타인지라면 “나는 이것을 모른다”라고 정확히 판단할 수 있어야 하는데, AI는 그 경계를 제대로 인식하지 못한다. 자신의 지식 상태에 대한 정확한 ‘자기 인식’이 없는 것이다. 그렇다면 AI의 ‘메타인지처럼 보이는 행동’은 순전히 흉내에 불과한가. 여기서 흥미로운 질문이 생긴다. 과연 흉내와 실재를 어떻게 구분할 수 있을까.
최근의 추론 능력이 강화된 대규모 언어모델들은 답변을 생성하기 전에 복잡한 ‘사고 과정’을 거친다. 문제를 분해하고, 여러 접근법을 시도하고, 막다른 길을 만나면 되돌아가고, 최종 답변의 타당성을 검증한다. 이 과정은 단순히 다음 단어를 예측하는 것과는 다른 차원이다. 여러 가능성을 탐색하고 평가하는 ‘숙고의 과정’이 있다.
요즘 뜨겁게 오르내리는 에이전트 기반 AI는 더 나아간다. 목표를 설정하고, 현재 상태를 평가하고, 다음 행동을 계획하고, 실행 결과를 모니터링하고, 필요하면 전략을 수정한다. 이런 자기 조절적 순환은 메타인지의 핵심 요소들과 놀랍도록 닮았다. 물론 이것이 인간의 메타인지와 같은 것인지는 여전히 논쟁적이다. AI에게는 의식도 없고, 자아도 없으며, 진정한 의미에서의 ‘앎’은 없다고 보는 것이 맞다. 하지만 기능적 관점에서 보면, AI는 점점 더 메타인지의 ‘작동’을 닮아가고 있다.
생성형 AI의 메타인지 능력 여부는 단순한 기술적 호기심을 넘어선 문제다. 만약 AI가 진정으로 자신의 사고를 돌아볼 수 있다면, 우리는 전혀 다른 차원의 지능과 마주하게 된다. 더 넓고 깊은 추론, 더 정교한 자기 수정, 더 신뢰할 수 있는 판단이 가능해진다. 반대로 AI의 ‘메타인지’가 정교한 흉내에 불과하다면, 우리는 그 한계를 정확히 인식해야 한다. 그럴듯해 보이는 자기 성찰이 실은 표면적 언어 패턴의 재현일 뿐이라면, AI에 대한 과도한 신뢰는 위험하다.
어쩌면 정답은 이분법적이지 않을 수도 있다. AI의 메타인지는 인간의 것과는 다른 종류의 메타인지일 수 있다. 의식 없는 자기 모니터링, 자아 없는 자기 조절. 우리는 지능과 인지에 대한 개념 자체를 확장해야 할 시점에 와 있는지도 모른다.
확실한 것은 AI가 보여주는 ‘사고에 대한 사고 같은 것’이 우리를 경이롭게 만든다는 사실이다. 그 경이감 속에서 우리는 묻게 된다. 생각한다는 것은 무엇인가. 안다는 것은 무엇인가. 그리고 나 자신은 정말 내가 무엇을 아는지 알고 있는가. AI는 거울처럼 우리 자신의 사고 과정을 되돌아보게 만든다. 이것이 어쩌면 AI가 우리에게 주는 가장 큰 자극일지도 모른다.