어설픈 AI 전문가가 가장 위험하다
지난 글에서 우리는 AI가 그럴듯한 거짓말을 뱉어내는 현상, "환각(Hallucination)"에 대해 다뤘습니다. AI는 확률에 기반하여 다음 단어를 예측할 뿐, "진실"을 담보하지 않는다는 것이 핵심이었습니다.
하지만 우리는 여기서 다음 질문을 던져야 합니다. "왜 우리는 틀린 AI의 말도 믿는가?"
AI 기술이 정교해질수록 인간의 업무 효율은 높아지지만, 동시에 예상치 못한 판단 오류가 발생하는 사례들이 관찰되기도 합니다. 문제는 AI의 정확도가 아닙니다. 핵심은 사람이 언제 판단을 멈추는가입니다.
AI가 틀리는 것은 오류(Error)지만, AI의 오류를 사람이 맹신하여 받아들이는 것은 "편향(Bias)"의 영역입니다. AI 시대의 생산성을 위협하는 함정, "자동화 편향(Automation Bias)"에 대해 이야기하려 합니다.
CSET "AI Safety and Automation Bias" 보고서와 Horowitz & Kahn(2024)의 대규모 연구를 바탕으로 이러한 현상이 어떻게 발생하는지, 그리고 왜 이 문제가 개인을 넘어 조직 전체를 취약하게 만드는지 살펴보고자 합니다.
자동화 편향(Automation Bias)은 AI가 잘못된 결과를 제시했음에도 불구하고, 사람이 자신의 판단보다 AI의 출력을 우선시하는 현상을 말합니다. "AI가 맞다고 했으니 맞겠지"라는 기계적 신뢰가 인간의 눈을 가리는 상태를 의미합니다.
자동화 편향은 구체적으로 다음과 같은 두 가지 치명적인 오류의 형태로 나타납니다.
- 누락 오류(Errors of Omission): AI가 경고를 주지 않았다는 이유로 발생한 문제를 인지하지 못함.
- 실행 오류(Errors of Commission): AI가 틀린 지시를 내렸음에도 불구하고 이를 그대로 따름.
이 두 오류의 공통점은 사람이 판단의 주체 역할을 내려놓았다는 점입니다.
흔히 AI를 잘 알수록 더 비판적으로 활용할 것이라 생각하지만, 최신 연구 결과는 정반대의 사실을 말해줍니다. Horowitz & Kahn(2024)의 9,000명 대상 대규모 실험에 따르면, AI 지식수준과 자동화 편향의 관계는 선형적이지 않으며, 우리에게 "우매함의 봉우리"로 알려진 더닝-크루거 효과(Dunning–Kruger effect)를 따릅니다. 1)
- 알고리즘 혐오(Low Knowledge): AI에 대한 경험이 거의 없는 사람들은 오히려 AI를 불신하고 자신의 직관만 고수합니다.
- 자동화 편향의 피크(Medium Knowledge): AI에 대해 어설픈 지식과 친숙함을 가진 초보자들은 "초보자의 거품(Beginner's Bubble)"에 빠져 AI의 결정을 맹목적으로 신뢰합니다. 이들은 AI가 틀렸을 때조차 자신의 답을 AI에 맞춰 수정하는 "자동화 편향"에 가장 취약한 위험한 구간입니다
- 적정 신뢰(High Knowledge): AI의 작동 원리와 한계까지 완벽히 이해하는 전문가 그룹에 이르러서야 비로소 AI를 도구로서 객관적으로 바라보게 됩니다. 비로소 AI의 능력을 객관적으로 평가하고 적절하게 의존(Appropriately reliant)하기 시작합니다.
AI를 적당히 써봤고, 챗GPT로 업무 효율을 높여본 경험이 있는 "중급자" 그룹에서 자동화 편향이 가장 높게 나타났습니다. 이들은 AI의 유창함(Fluency)에 매료되어 비판적 사고를 멈췄습니다. 자신이 도구를 잘 다룬다고 착각하지만, 실제로는 도구에 의해 사고가 지배당하고 있는 상태인 셈입니다.
이러한 편향은 개인의 문제로만 발생하지 않는다는 점입니다. 이 현상은 사용자의 인식, 기술의 설계 방식, 그리고 조직의 운용 체계가 맞물리면서 나타납니다. 즉, 사람·기술·조직이 상호작용하며 만들어낸 구조적 결과입니다.
- 개인 판단이 틀리면 개인의 책임
- AI 권고를 따랐다가 실패하면 시스템 문제로 처리
- AI 검증은 시간과 비용 낭비라는 문화
- 빠른 실행 및 처리 속도는 성과로 보상
이 구조에서는 "의심하고 검증하는 사람"보다 "AI 권고를 그대로 실행하는 사람"이 더 효율적이고, 더 안전하게 됩니다. 결국, 조직원에게는 AI의 답변을 의심하지 않는 것이 합리적인 전략이 됩니다.
이때 나타나는 행동이 자동화 편향이며, 이는 직원이 게을러졌기 때문이 아니라, 책임과 보상 구조가 그렇게 행동하도록 유도했기 때문에 나타나는 합리적 행동입니다. CSET 보고서는 자동화 편향을 사람의 태도 문제가 아니라 운용·설계·정책이 만들어낸 안전 리스크로 정의했습니다. 2)
가장 무서운 것은 조직적으로 고착화된 자동화 편향입니다. CSET 보고서에 담긴 패트리어트(Patriot) 미사일 시스템 사례는 조직 문화가 어떻게 구성원을 "생각 없는 승객"으로 만드는지 보여줍니다.
미 육군의 패트리어트 부대는 미사일 요격 시스템을 "자동 모드(Automatic Mode)"로 운영하는 것을 선호했습니다. 빠르고 효율적인 대응이 중요하다는 명분 아래, 시스템을 믿고 맡기라는 압력이 훈련 과정에서부터 주입되었습니다. 그 결과, 2003년 이라크전에서 시스템이 아군 전투기를 적기로 오인했을 때, 운영 요원들은 이를 수정할 기회가 있었음에도 불구하고 시스템의 판단을 그대로 따랐습니다(실행 오류). 이는 결국 아군 오인 사격이라는 비극으로 이어졌습니다.
사례는 오늘날 AI를 도입하는 기업들에게 서늘한 경고를 줍니다. AI를 써서 무리하게 생산성을 2배로 높이려고 하거나, AI가 있으니 직원은 필요 없다 판단하여 인력을 크게 감축한다면, 직원들은 품질 검증(Human-in-the-loop)을 포기하고 AI가 뱉어낸 "워크슬롭(Workslop)"을 그대로 통과시킬 것입니다. 즉, 조직이 나서서 '자동화 편향'을 강요하는 셈입니다.
AI는 우리에게 "속도"를 선물했지만, 그 대가로 "검증의 책임"을 요구합니다. 도구를 믿고 운전대를 놓아버리는 순간, 우리는 편안한 승객이 되지만, 그 차가 절벽으로 향할 때 브레이크를 밟을 수 없습니다.
우리가 가야 할 길은 AI 사용을 멈추고 초심자로 돌아가는 것이 아닙니다. 오히려 우매함의 봉우리(Mount Stupid)를 넘어, AI의 한계를 꿰뚫어 보고 통제할 수 있는 "진짜 전문가"의 영역으로 나아가야 합니다.
우매한 봉우리를 넘어
AI의 한계를 꿰뚫어 보고 통제할 수 있는
"진짜 전문가"가 되어야 합니다.
관련 글
2) 그럴듯한 AI 결과물(Workslop)이 조직을 망친다
참고자료
1) https://academic.oup.com/isq/article/68/2/sqae020/7638566
2) https://cset.georgetown.edu/wp-content/uploads/CSET-AI-Safety-and-Automation-Bias.pdf