AI 모델로 뜯어본 인간의 뇌, 그리고 의사결정의 오판
우리는 인간의 이성이 항상 합리적일 것이라 기대합니다. 하지만 AI 학습 모델의 관점에서 보면, 인간의 뇌는 사실 자원 제약 하의 효율 극대화 모델에 가깝습니다.
최신 AI 모델과 인간의 뇌에는 하나의 공통 전제가 있습니다. 바로 "계산 자원은 무한하지 않다"는 것입니다.
AI: 연산량(FLOPs), 메모리, 학습 시간이 제한됩니다.
인간: 포도당, 산소, 그리고 주의력이 제한됩니다.
이 유한한 자원 안에서 생존해야 하기에, 우리 뇌는 '완벽한 세계 모델'을 만드는 대신, 가장 에너지를 적게 쓰는 적당히 괜찮은 답을 찾는 방향으로 진화했습니다.
우리가 판단할 때 게을러 보이는 것은, 사실 뇌 시스템이 '가성비'와 '에너지 효율'을 극대화하고 있기 때문입니다.
우리가 흔히 말하는 카테고리화나 고정관념을 AI의 언어로 번역하면 차원 축소와 같습니다.
원래 세상은 무한히 복잡한 정보(고차원 연속 공간)로 이루어져 있습니다. 뇌가 이 모든 정보를 그대로 처리하려면 연산 비용이 감당이 안 됩니다. 그래서 뇌는 복잡한 현실을 뭉뚱그려 단순한 그룹으로 묶고, 경계를 만들며 이름표를 붙입니다.
AI 모델: 정보를 임베딩(Embedding)하고 토큰화(Tokenization)합니다.
인간의 뇌: "이런 유형의 사람은 믿을 만하다", "이런 상황에서는 이렇게 행동해야 한다"는 단순한 규칙을 만듭니다.
결국 우리가 가진 범주란 진리가 아니라, 연산 비용을 줄이기 위해 뇌가 만들어낸 효율적인 인덱스일 뿐입니다. 타인을 섣불리 판단하는 것은 성격적 결함이 아니라, 뇌가 에너지를 아끼기 위해 '압축된 정보'를 빠르게 불러오는 시스템적 선택인 셈입니다.
"1년 내내 잘해왔는데, 어제 발생한 작은 사고 하나 때문에 모든 걸 뒤집는다." 직장인이라면 누구나 겪는 이 상황. 왜 인간은 전체 평균이 아닌 가장 최근의 경험에 과도하게 반응할까요?
AI 학습 이론으로 보면 명쾌합니다. 인간의 뇌는 데이터를 한꺼번에 모아 학습하는 일괄 학습을 하지 않습니다. 대신 매 순간 들어오는 데이터에 맞춰 즉시 가중치를 업데이트하는 온라인 학습 시스템입니다.
학습 원리를 간단히 풀어보면 다음과 같습니다.
[새로운 판단] = [기존의 지식] + [학습률] X [최근의 경험이 준 충격]
여기서 학습률(α)은 우리가 스트레스나 위기 상황을 겪을 때 급격히 커집니다. 즉, 평온할 때는 과거 데이터를 고루 반영하지만, 압박이 심해지면 뇌는 가장 최근의 사건에 과도하게 큰 비중을 두어 학습하게 됩니다.
상사가 어제 터진 사고에 집착하는 것은 '최신 데이터'에 과적합하도록 설계된, 위기 상황에서의 생존 본능이자 온라인 학습의 필연적인 결과입니다.
"복잡하게 말하지 말고 결론만 말해." 우리가 피곤할 때 자주 하는 말입니다. 이를 AI의 손실 함수로 해석하면 다음과 같습니다.
뇌는 항상 두 가지 비용을 동시에 최소화하려고 합니다.
예측 오류 (틀릴 위험)
인지 비용 (생각하는 비용)
이 두 비용을 합친 것이 총 비용입니다.
총 비용 = 예측 오류 + ( λ X 인지 노력)
여기서 λ (람다)는 '생각하는 비용에 대한 가중치'입니다. 당신이 피곤하거나 시간이 촉박할수록 이 λ 값은 치솟습니다.
그러면 뇌는 '틀릴 위험'을 감수하고서라도 '생각하는 비용'을 줄이는 쪽을 택합니다. 그 결과는 단순한 규칙, 거친 범주화, 그리고 흑백논리입니다. 피곤한 리더가 맥락을 무시하고 단순한 보고서를 선호하는 것은, 뇌의 연산 장치(GPU)가 '절전 모드'로 전환되었기 때문입니다.
전문가들의 '감'이나 직관은 신비로운 영역이 아닙니다. 이는 과거 데이터를 통해 이미 학습을 마친 경량 모델을 순식간에 돌리는 것과 같습니다.
예를 들어, "이 공급사는 항상 납기를 못 지킨다"는 판단은 모든 데이터를 재분석한 결과가 아닙니다. 과거 경험으로 만들어진 캐시(Cache)된 추론 결과를 찰나의 순간에 꺼내 쓰는 것입니다. 정확도는 떨어지지만, 추론 속도가 매우 빠릅니다.
문제는 환경이 변했는데도 모델은 그대로일 때 발생합니다. 공급사의 상황은 개선되었는데, 담당자의 머릿속 모델이 여전히 과거 데이터에 과적합되어 있다면? 우리는 이것을 '조직 관성' 혹은 시대착오적 판단이라 부릅니다.
결국 조직과 리더가 내리는 모든 판단은 '진리'가 아닙니다. 그것은 "제한된 자원을 가진 온라인 학습 모델이, 최근 데이터에 가중치를 두어 세계를 압축 예측한 결과값"일 뿐입니다.
이 불완전한 시스템을 이해하면 우리는 스스로를 더 나은 방향으로 디버깅할 수 있습니다.
- 학습률 낮추기: 위기 상황일수록 '자동 업데이트'를 멈추고, '최근 데이터'가 기존 지식을 압도하지 않도록 의도적으로 반응 속도를 늦춥니다.
- 데이터 양 늘리기: 최근 사건 하나가 아니라, 최소한 지난 6개월~1년간의 데이터를 모아서 보는 의도적인 '일괄 학습' 노력이 필요합니다.
- 모델 강제 업데이트: "내 감이 틀릴 리 없다"는 확신은 "내 머릿속 모델이 갱신되지 않았다"는 고백일 수 있습니다. 주기적으로 외부 환경 변화를 반영해 머릿속 모델을 재학습시켜야 합니다.
우리는 불완전한 모델이지만, 그 불완전함을 인지하는 인간만이 AI보다 더 지혜로워질 수 있습니다.