어째서 데이터가 판단을 돕지 않고, 오히려 판단을 망치는 경우가 생길까?
사람들은 흔히 정보가 충분하면 더 합리적인 판단이 가능하다고 믿는다.
그리고 AI가 이 정보를 정리해 준다면, 인간의 오류도 줄어들 것이라고 기대한다.
그러나 심리학은 오래전부터 이 믿음을 의심해왔다.
연구에 따르면, 판단에 사용되는 정보나 단서가 늘어날수록
판단 정확도가 비례해서 증가하는 것이 아니라,
일정 지점을 넘어서면 정확도는 정체되거나, 오히려 감소한다.
이는 인간의 판단 능력이 무한한 정보 처리기가 아니라,
선택적 주의와 제한된 작업 기억에 의존하는 시스템이기 때문이다.
또한, 정보 과잉은 결정 지연, 판단 회피, 책임 분산을 체계적으로 증가시킨다(Eppler, M. J., & Mengis, J. (2004). The concept of information overload: A review of literature from organization science, accounting, marketing, MIS, and related disciplines. The information society, 20(5), 325-344.).
사람들은 정보 과잉 상황에서
더 많이 비교하고, 더 깊이 분석하기보다는, 판단 방식을 바꾼다.
구체적으로 세 가지 변화가 동시에 일어난다.
첫째, 결정 지연(decision delay)이다.
정보가 많아질수록 사람들은 아직 충분하지 않다는 느낌이 커진다.
이때의 지연은 신중함이 아니다.
무엇을 보면 결정할 수 있는지 기준이 명확하지 않기 때문에, 결정을 미룬다.
둘째, 판단 회피(decision avoidance)다.
정보가 많을수록 평가 리스크는 커진다.
나중에 틀렸다고 말할 근거가 너무 많아지기 때문이다.
그래서 사람들은 결정을 내리기보다 회의, 추가 보고, 재검토를 선택한다.
셋째, 책임감의 분산(diffusion of responsibility)이다.
많은 정보에 집착할수록 사람들은 전달 역할만 한다.
판단의 주체가 전달자 역할만 고수하면 책임도 사라진다.
결과적으로 정보 과잉 상황에서 사람들은 결정을 회피하고, 판단 시점을 늦추기 쉽다.
예를 들어 이런 장면을 생각해보자.
신규 사업 투자 여부를 논의하는 회의에서,
재무팀은 수익성 시나리오 5개를 제시하고,
데이터팀은 AI 예측 모델 3종의 결과를 가져온다.
마케팅팀은 시장 리포트 요약본을,
전략팀은 경쟁사 벤치마크 자료를 추가한다.
자료는 충분하다.
그러나 회의 말미에 남는 결론은
“변수가 많으니, 다음 회의에서 한 번 더 보죠.”라고 나오기 쉽다.
정보가 부족해서가 아니다.
자료가 추가될수록 판단은 미뤄지고, 판단이 미뤄질수록 책임은 분산된다.
AI 시대의 데이터는 대부분 원자료가 아니라,
이미 한 차례 이상 해석과 가공을 거친 결과물이다.
AI는 숫자와 리스크를 요약해, 추천의 형태로 선택지를 제시한다.
이 과정에서 리더는 데이터를 해석하는 주체라기보다,
이미 해석된 결과를 승인하는 위치로 밀려난다.
문제는 여기서 발생한다.
같은 데이터라도 어떤 질문의 틀(frame)로 제시되었는가에 따라
전혀 다른 선택이 만들어지기 때문이다(Tversky, A., & Kahneman, D. (1979). Prospect theory: An analysis of decision under risk (No. 7656). David K. Levine.).
예컨대, 동일한 프로젝트 데이터가 다음과 같이 제시될 수 있다.
질문 A: “이 프로젝트의 성공 확률은 얼마인가?”
이때, AI는 성공 확률 72%라는 답을 내놓고, 회의는 추진 쪽으로 기울어진다.
질문 B: “이 프로젝트가 실패할 경우, 가장 취약한 지점은 무엇인가?”
이때, AI는 수익 구조의 취약성과 리스크 시나리오를 강조하고, 회의는 조건부 보류로 흐른다.
데이터는 동일해도, AI가 던지는 질문의 방향이 달라지면
판단의 결과는 완전히 달라진다.
AI 시대의 데이터는 결코 중립적이지 않다.
리더가 질문을 선명하게 제시하지 못하면,
AI는 이미 정해진 선택을 합리화하는 도구가 된다.
AI가 의사결정 과정에 개입할수록,
선택의 주체는 점점 불분명해진다.
특히 결과가 나쁠 때, 이런 말이 등장하기 시작한다.
“모델이 그렇게 나왔습니다.”
“확률적으로는 맞는 선택이었어요.”
책임은 시스템 뒤로 물러난다.
실제로 사람들은 실패하면 시스템 탓으로 돌리는 경향을 보인다(Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm aversion: people erroneously avoid algorithms after seeing them err. Journal of experimental psychology: General, 144(1), 114.).
한 실험에서 사람들에게 반복 예측 과제를 시켰다.
사람들은 자신의 판단과 알고리즘의 예측 중 하나를 선택할 수 있었는데,
알고리즘의 성과가 좋을수록 사람들은 점점 자신의 판단보다 알고리즘을 따랐다.
그런데, 알고리즘이 최종적으로 실패했을 때,
참가자들은 그 선택을 자신의 책임으로 받아들이지 않았다.
‘내가 틀렸다’가 아니라 ‘알고리즘이 틀렸다’는 식으로 책임을 분리했다.
사람들은 스스로 알고리즘의 판단을 채택했지만,
결과의 책임까지 함께 지지는 않았다.
AI의 판단에 의존할수록, 조직은 같은 실수를 계속한다.
그래서 AI 시대의 리더십은 판단과 의사결정의 구조를 만들고,
그 주체와 책임을 분명히 하는 데 있다.