Ep.2 빠른 판단, 큰 실수

진화가 남긴 판단 오류들

by 배지안

[♪ 밝은 음악]


이지은: 안녕하세요, '안개 속을 걷다'의 이지은입니다! 오늘은 정말 재미있는 사연을 하나 받았어요.


"지은님, 저는 자타공인 촉이 좋은 사람이에요. 친구들도 '너는 진짜 귀신같이 맞춘다'고 하거든요. 그런데 최근에 충격적인 일이 있었어요. 6개월 동안 확신했던 일이 완전히 틀렸다는 걸 알게 됐거든요. 제 직감을 이제 못 믿겠어요..."


아, 이거 완전 제 얘기네요! 저도 비슷한 경험이 있어요. 작년에 중고차를 사면서 '이 차는 진짜 괜찮다'고 확신했는데... [웃음] 한 달도 안 돼서 고장이 났죠. 제 직감은 어디로 간 걸까요?


[띠링!]


그런데 말이에요, 우리가 '직감'이라고 부르는 게 정말 믿을 만한 걸까요? 아니면 우리 뇌가 우리를 속이고 있는 걸까요?


오늘은 심리학자 대니얼 카너먼이 정리한, 우리 직관의 비밀에 대해 이야기해볼게요. 준비되셨나요? 자, 그럼 시작해볼까요!




지난 시간(Ep.1)에 우리는 불확실성에 두 부류가 있다는 것을 배웠습니다. 하지만 이를 안다고 불확실성을 잘 다룰 수 있는 것은 아닙니다. 우리 판단이 편향되어 있기 때문입니다.


심리학자 대니얼 카너먼(Daniel Kahneman)에 따르면, 우리 사고는 두 가지 방식으로 작동합니다[1]. 그는 이를 시스템 1과 시스템 2라고 불렀는데, 쉽게 말해 '직관'과 '분석적 사고'라고 할 수 있습니다.


직관은 빠르고 자동적입니다. 친구 얼굴만 봐도 기분을 알고, 2+2는 생각할 것도 없이 4가 튀어나오죠. 갑자기 '쾅!' 소리가 나면 몸이 먼저 움찔합니다. 노력이 필요 없고, 의식적으로 통제할 수도 없습니다. 진화 과정에서 생존을 위해 발달한 이 능력은 빠른 판단이 생사를 가를 때 큰 역할을 했습니다.


분석적 사고는 느리고 의식적입니다. 17×24를 계산하거나, 복잡한 계약서를 검토하거나, 여러 선택지를 비교하는 일은 분석이 담당합니다. 집중력과 노력이 필요하고, 쉽게 지치며, 한 번에 한 가지만 처리할 수 있습니다.


직관과 분석이 불확실성을 대하는 태도는 매우 다릅니다. 직관은 불확실성을 견디지 못해요. 빈 공간을 채우려 하고, 패턴을 찾으려 하며, 이야기를 만들어냅니다. '아마도', '어쩌면'보다는 '확실히', '절대로'를 선호하죠. 반면 분석적 사고는 불확실성을 인정할 수 있지만, 늘 작동하는 것은 아닙니다. 대부분의 시간 동안 우리는 직관에 의존해 살아갑니다.


여기서 문제가 생깁니다. 우리 직관은 사바나에서 진화했는데, 지금 우리는 스마트폰을 들고 주식 차트를 보고 있으니까요. 사자를 피하는 것과 테슬라 주식을 사는 것은 완전히 다른 문제입니다. 하지만 우리 뇌는 여전히 똑같은 방식으로 작동합니다. 그 결과 확률 판단에 체계적인 오류가 발생하는 거죠.


먼저 우리가 확실한 답을 너무 좋아해서 생기는 문제들이 있습니다.


우리는 왜 이렇게 확실한 답을 원할까요? 애매한 상태가 불편해서 빨리 결론을 내리고 싶어하는 마음, 심리학자들은 이를 인지적 종결 욕구(need for cognitive closure)라고 부릅니다[2]. 회색 지대보다는 흑백이 편하고, '모르겠다'보다는 '이거다!'가 마음 편합니다. 이런 심리가 여러 편향을 만들어냅니다.


과신 편향(overconfidence bias)은 자신의 판단이 실제보다 정확하다고 믿는 경향입니다. 여러 연구에 따르면 사람들이 90% 확신한다고 말한 것 중 실제로 맞는 것은 70% 정도에 불과합니다[3]. '카카오 주가는 무조건 오를 거야!'라고 확신했다가 반토막 난 경험, 한 번쯤 있으시죠?


확증편향(confirmation bias)은 자신의 믿음을 지지하는 정보만 찾고 반대 정보는 무시하는 경향입니다[4]. 특정 정치인을 지지하는 사람은 그의 실수는 눈감고 성과만 봅니다. 반대편 지지자는 정반대겠죠. 30%의 반대 가능성을 0%로 축소시켜버리는 것입니다. SNS 알고리즘이 이런 편향을 더욱 강화시킵니다[5]. 우리가 클릭한 내용과 비슷한 것만 계속 보여주니까요.


사후 확신 편향(hindsight bias)은 일이 벌어진 후에 '그럴 줄 알았다'고 생각하는 경향입니다[6]. 월드컵에서 이변이 일어나면 "그럴 줄 알았어, 그 팀 요즘 컨디션이 좋더라"고 하지만, 정작 경기 전에는 그런 예측을 하지 않았죠. 사실 50대 50이었던 가능성을 사후에 100%였던 것처럼 기억을 왜곡하는 겁니다.


다음으로는 우리가 정보를 받아들이는 방식 때문에 생기는 오류들이 있습니다.


우리 뇌는 모든 정보를 공평하게 처리하지 않습니다. 어떤 것은 더 주목하고, 어떤 것은 무시합니다. 이런 선택적 주의가 확률 판단을 왜곡시킵니다. 심리학에서는 이런 인지적 지름길을 휴리스틱(heuristic)이라고 부릅니다. 문제를 빠르게 풀기 위해 쓰는 경험 기반의 간편 판단법인데, 확률 앞에서는 자주 빗나갑니다.


가용성 휴리스틱(availability heuristic)은 쉽게 떠오르는 사례로 전체 확률을 판단하는 경향입니다[7]. 비행기 사고는 며칠간 특집 방송이 나오지만, 매일 일어나는 교통사고는 단신으로도 잘 안 나옵니다. 그래서 제주도 갈 때 비행기보다 공항 가는 길이 더 위험하다는 걸 잊어버리죠. 하지만 이동 거리 기준으로 보면 자동차가 훨씬 위험합니다[8].


대표성 휴리스틱(representativeness heuristic)은 대표적 이미지와의 유사성으로 확률을 판단하는 경향입니다. 수줍고 책을 좋아하는 사람을 보면 사서나 교수일 거라 생각하죠. 하지만 그런 성격의 영업사원이나 카페 직원일 확률이 훨씬 높습니다. 단순히 그쪽 직업군 인구가 압도적으로 많으니까요[9]. 겉모습이 비슷하다고 해서 확률도 높을 거라고 착각하는 거죠.


기저율 무시(base rate neglect)는 구체적인 정보에 압도되어 전체적인 확률을 무시하는 현상입니다[10]. 갑상선암 검사에서 양성이 나왔다고 바로 절망할 필요는 없습니다. 질병을 가진 사람을 95% 정확하게 양성으로 판별하고, 건강한 사람을 90% 정확하게 음성으로 판별하는 검사라 해도, 100명 중 한 명 꼴로 갑상선암에 걸린다면(유병률 1%) 양성 판정을 받은 사람 중 실제로 갑상선암에 걸린 사람은 10명 중 1명도 안 됩니다. 이런 계산이 직관에 반하기 때문에 많은 사람들이 불필요한 걱정을 하게 됩니다[11].


더 큰 문제는 이런 오류들이 함께 작동한다는 겁니다. 주의를 기울이지 않으면, 우리는 70% 정도의 확률을 90%로 부풀리고(과신 편향), 반대 증거를 무시하며(확증편향), 극단적 사례에 휘둘립니다(가용성 휴리스틱). 그 결과 우리는 불확실한 것을 확실하다고 믿게 됩니다.


그럼 직관은 항상 틀릴까요? 그렇지 않습니다.


프로 바둑기사가 바둑판을 보는 순간, 베테랑 소방관이 건물에 들어서며 '뭔가 이상하다'고 느끼는 순간, 응급실 의사가 환자를 보자마자 불안해지는 순간... 이런 전문가의 직관은 놀라울 정도로 정확합니다[12]. 왜일까요? 이들이 활동하는 영역에는 두 가지 특징이 있습니다[13]. 첫째, 일정한 패턴이 존재합니다. 둘째, 반복적인 경험을 통해 명확한 피드백을 받을 수 있습니다.


반대로 주식 시장, 장기 경제 전망, 채용 면접에서는 직관이 자주 빗나갑니다. 패턴이 불규칙하고 결과를 확인하는 데 오래 걸리거나, 결과를 어떻게 해석해야 할지 명확하지 않기 때문입니다.


그렇다면 어떻게 해야 할까요? 답은 의외로 간단합니다. 분석적 사고를 깨우는 겁니다.


스스로에게 '왜?'라고 물어보세요. '내가 이렇게 생각하는 근거가 뭐지?' 단순한 질문이지만, 이것만으로도 분석적 사고가 작동하기 시작합니다. 반대 증거도 찾아보세요. '내가 틀렸다면 뭘 놓치고 있는 걸까?' 이 질문은 우리를 확증편향의 덫에서 벗어나게 해줍니다.


무엇보다 중요한 건 확률로 말하는 습관입니다. '확실해!'라고 단언하지 말고 '80% 정도 그럴 것 같아'라고 말해보세요. 그러면 자연스럽게 '나머지 20%는 뭘까?'를 생각하게 됩니다. 확실성의 환상에서 벗어나는 첫걸음이죠.




[♪ 차분한 음악]


이지은: 우리 직관에 이렇게 많은 함정이 숨어있었다니... 충격적이면서도, 한편으론 안심이 되네요. '나만 틀리는 게 아니라 우리 뇌가 원래 이렇게 생겼구나' 싶어서요. [웃음]


그런데 중요한 건 이거예요. 이런 편향이 있다는 걸 '아는 것'만으로도 이미 변화는 시작됐어요.


[띠링!]


오늘의 미션은 아주 간단해요. 이번 주에 뭔가 확신하는 순간이 오면, 잠깐 멈춰서 자문해보세요. '내가 놓친 건 없을까?' '반대로 생각하면 어떨까?'


저도 중고차 살 때를 다시 생각해보니... 외관에만 홀려서 정작 엔진 상태는 제대로 안 봤던 것 같아요.


다음 시간에는 불확실성을 어떻게 보아야 할지 이야기를 나눠보려고 합니다. 불확실성이 적이 아니라 관리할 수 있는 친구가 될 수 있다는 내용이에요.


다음에 확신이 밀려올 때, 딱 3초만 멈춰서 '내가 놓친 건 없을까?' 물어보세요. 그 3초가 직관의 함정에서 빠져나오는 비상구가 되어줄 거예요. 저는 이지은이었습니다.


[♪ 밝은 음악]




참고문헌


1. Kahneman, D. (2018). 생각에 관한 생각 (이창신 역, 2판). 김영사. (원서출판 2011)

2. Kruglanski, A. W., & Webster, D. M. (1996). Motivated closing of the mind: "Seizing" and "freezing." Psychological Review, 103(2), 263–283. https://doi.org/10.1037/0033-295X.103.2.263

3. Lichtenstein, S., Fischhoff, B., & Phillips, L. D. (1982). Calibration of probabilities: The state of the art to 1980. In A. Tversky, D. Kahneman, & P. Slovic (Eds.), Judgment under Uncertainty: Heuristics and Biases (pp. 306–334). Cambridge University Press. https://doi.org/10.1017/CBO9780511809477.023

4. Nickerson, R. S. (1998). Confirmation bias: A ubiquitous phenomenon in many guises. Review of General Psychology, 2(2), 175–220. https://doi.org/10.1037/1089-2680.2.2.175

5. Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Penguin Press.

6. Fischhoff, B. (1975). Hindsight is not equal to foresight: The effect of outcome knowledge on judgment under uncertainty. Journal of Experimental Psychology: Human Perception and Performance, 1(3), 288–299. https://doi.org/10.1037/0096-1523.1.3.288

7. Tversky, A., & Kahneman, D. (1973). Availability: A heuristic for judging frequency and probability. Cognitive Psychology, 5(2), 207–232. https://doi.org/10.1016/0010-0285(73)90033-9

8. 연합뉴스. (2025, 2월 3일). [팩트체크] 연이은 사고…여객기 타도 정말 안전할까? https://www.yna.co.kr/view/AKR20250131102000518

9. Kahneman, D., & Tversky, A. (1972). Subjective probability: A judgment of representativeness. Cognitive Psychology, 3(3), 430–454. https://doi.org/10.1016/0010-0285(72)90016-3

10. Bar-Hillel, M. (1980). The base-rate fallacy in probability judgments. Acta Psychologica, 44(3), 211–233. https://doi.org/10.1016/0001-6918(80)90046-3

11. Gigerenzer, G. (2002). Calculated Risks: How to Know When Numbers Deceive You. Simon & Schuster.

12. Klein, G. A. (1998). Sources of Power: How People Make Decisions. The MIT Press.

13. Kahneman, D., & Klein, G. (2009). Conditions for intuitive expertise: A failure to disagree. American Psychologist, 64(6), 515–526. https://doi.org/10.1037/a0016755

월, 수, 금 연재
이전 01화Ep.1 확실한 게 하나도 없잖아