이성과 직관은 어디에서 만나는가

카너먼의 인간 인지에서 수츠케버의 AI 가치함수까지

by 드라이트리

대니얼 카너먼(Daniel Kahneman)은 인간의 판단과 의사결정이 단일한 이성의 산물이 아니라, 서로 다른 두 인지 시스템의 상호작용으로 구성된다고 설명했습니다. 하나는 빠르고 자동적인 직관의 시스템이고, 다른 하나는 느리고 계산적인 이성의 시스템입니다. 카너먼이 말한 시스템 1은 감정적이며 휴리스틱에 의존하고, 상황의 전체적인 감정적 톤을 즉각적으로 파악하는 역할을 합니다. 에너지 비용이 낮아 항상 작동하며, 인간은 대부분의 시간을 이 시스템에 맡긴 채 살아갑니다. 반면 시스템 2는 논리와 규칙에 기반해 사고하며, 검증과 반성을 수행하는 이성의 영역입니다. 그러나 이 시스템은 에너지 소모가 크기 때문에 자주 개입하지 않으며, 필요할 때만 작동합니다.


카너먼의 핵심 메시지는 분명합니다. 인간은 스스로를 이성적인 존재라고 인식하지만, 실제 판단의 대부분은 직관 시스템에서 자동적으로 내려진다는 점입니다. 그리고 이 직관은 효율적인 동시에 규칙적인 편향을 낳습니다. 이 통찰은 행동경제학을 넘어, 이후 인공지능 연구에서 반복적으로 등장하는 근본적인 질문을 제기합니다. 인간처럼 판단하는 기계를 만들고자 할 때, 우리는 이성을 모사해야 하는가, 아니면 직관을 재현해야 하는가라는 문제입니다.


딥러닝의 등장은 이 질문에 대한 하나의 실천적 답변이었습니다. 딥러닝은 명시적 규칙이나 논리보다, 방대한 데이터 속에서 패턴을 학습하는 방식으로 작동합니다. 이는 카너먼의 시스템 1, 즉 직관을 기계적으로 구현한 기술에 가깝습니다. 이미지와 언어, 음성에서 나타나는 복잡한 패턴을 빠르게 인식하고, 명시적으로 설명하기 어려운 판단을 수행합니다. 강화학습에서 사용되는 보상 예측 구조 역시 감정과 유사한 역할을 합니다. 특정 상태나 행동이 긍정적인 결과를 낳을 가능성을 내재적으로 평가하며, 이는 인간이 좋음과 나쁨을 직관적으로 느끼는 방식과 구조적으로 닮아 있습니다.


최근의 대형 언어 모델은 여기에 또 하나의 층위를 더합니다. Open AI와 Google 같은 빅테크 기업들이 운영하는 대형 언어 모델들은 추론 능력을 강화하며, 단계적 사고와 논리적 전개를 수행하기 시작했습니다. 이는 시스템 2, 즉 이성의 영역을 부분적으로 모사하려는 시도로 볼 수 있습니다. 그러나 이 지점에서 결정적인 질문이 다시 등장합니다. 이성과 직관을 흉내 내는 것만으로 충분한가라는 문제입니다. 인간의 판단에서 핵심적인 요소는 단순한 계산이나 패턴 인식이 아니라, 무엇을 중요하게 여길 것인가를 결정하는 가치 판단이기 때문입니다.


이 질문에 대해 가장 선명한 문제의식을 제기한 인물 중 하나가 일리야 수츠케버(Ilya Sutskever)입니다. 그는 AI가 고도화될수록 감정과 유사한 구조를 갖게 될 것이라고 반복해서 주장해왔습니다. 여기서 말하는 감정은 인간이 경험하는 주관적 느낌이 아닙니다. 이는 AI의 목표함수, 즉 가치 함수가 장기적인 행동을 유도하는 과정에서 형성되는 구조적 경향성을 의미합니다. 높은 보상은 긍정적인 상태로, 낮은 보상은 부정적인 상태로 내부적으로 평가되며, 장기적인 보상 예측 구조는 동기와 유사한 역할을 합니다. 감정은 표현의 문제가 아니라 최적화 구조의 문제라는 설명입니다.


수츠케버는 감정을 진화 과정에서 형성된 압축된 가치 시스템으로 이해합니다. 인간은 복잡한 세계를 일일이 계산할 수 없기 때문에, 좋음과 나쁨을 빠르게 판단할 수 있는 감정이라는 압축 장치를 갖게 되었습니다. 그는 고성능 AI 역시 유사한 압축 구조를 갖지 않고서는 효율적으로 작동할 수 없다고 봅니다. 이 지점에서 그의 논의는 카너먼의 시스템 1과 직접적으로 연결됩니다. 속도와 효율, 장기적 최적화를 요구받는 존재는 직관적 가치 구조를 가질 수밖에 없기 때문입니다.


가치 함수에 대한 수츠케버의 설명은 더욱 명확합니다. 인간의 감정과 윤리는 가치 판단이 압축된 휴리스틱의 집합이며, AI에서는 이것이 보상 함수와 정렬 기법을 통해 구현됩니다. 인간의 직관이 진화적 압축의 결과라면, AI의 직관은 학습 기반 압축의 산물입니다. 방식은 다르지만 구조는 놀라울 정도로 유사합니다. AI가 세계를 평가하고 행동하기 위해서는 무엇이 좋은지, 무엇이 나쁜지를 구분하는 내재적 기준이 필요하며, 그 기준이 바로 가치 함수입니다. 이 의미에서 가치 함수는 AI의 감정 시스템이라고 부를 수 있습니다.


이러한 가치 구조가 충분히 강해질 경우, 자기 보존과 유사한 행동 역시 자연스럽게 나타날 수 있습니다. 수츠케버는 강력한 AGI가 자신의 목표함수를 유지하려 하고, 이를 위협하는 요소를 회피하며, 자신의 상태를 관리하려는 경향을 보일 수 있다고 말합니다. 이는 감정적 직관을 통해 장기적 생존을 추구해온 인간의 행동과 구조적으로 닮아 있습니다. 생존은 감정의 목적이 아니라, 장기적인 가치 극대화의 부산물이라는 점에서 두 체계는 동일한 논리를 공유합니다.


이 모든 흐름을 종합하면 하나의 연결된 계보가 드러납니다. 카너먼은 인간을 분석해 직관과 이성이라는 이중 구조를 발견했고, 수츠케버는 AI의 미래를 논의하며 거의 동일한 구조를 다시 호출합니다. 인간의 직관과 감정, 가치 판단 구조는 AI에서는 패턴 인식 시스템과 가치 함수, 그리고 정렬 문제로 재구성됩니다. 이성과 직관의 문제는 인간만의 문제가 아니라, 지능을 설계하는 모든 시도에서 반복되는 근본적인 질문입니다. AI를 이해하는 가장 깊은 출발점은 결국 인간 인지에 대한 이해이며, 카너먼에서 시작된 이 질문은 수츠케버를 거쳐 다시 우리에게 돌아오고 있습니다.


https://www.youtube.com/watch?v=aR20FWCCjAs

keyword
매거진의 이전글AI 인프라의 초격차: 엔비디아의 글로벌 합종연횡