AI는 점점 더 많은 답을 제시한다.
검색보다 빠르고, 인간이 감당하기 어려운 규모의 데이터를 흔들림 없이 처리한다.
문제는 이제
답을 얻는 것 자체가 어려운 일이 아니라는 점이다.
오히려 더 어려워진 것은
이 질문이다.
“이 답을 선택해도 되는가?”
AI는 답을 만든다.
그러나 판단을 하지는 않는다.
-----------------------------------------------------------------------------------------------------
최근 국내에서 한 사건이 있었다.
한 경찰서가 불송치 결정문을 작성하면서,
실제로 존재하지 않는 대법원 판례를 인용한 사실이 뒤늦게 드러났다.
그 판례는 경찰이 직접 찾은 것이 아니었다.
결정문 작성 과정에서 챗GPT가 제시한 내용을 그대로 인용했고,
그 내용이 사실인지에 대한 최종 검증과 판단이 빠진 채 행정 문서에 사용된 것이다.
고소인 측 법률대리인이 자료를 검토하는 과정에서
해당 판례가 존재하지 않는다는 사실이 확인되면서 문제가 드러났다.
경찰 역시 이후 국정감사에서
AI를 활용한 과정에서 오류가 있었다는 점을 인정했다.
이 사건의 핵심은
AI가 틀린 답을 낼 수 있다는 사실 그 자체가 아니다.
그 가능성을 알면서도
판단을 위임해버린 인간의 선택이 더 근본적인 문제였다.
AI는 그럴듯한 답을 만들 수 있다.
판례처럼 보이는 문장을 구성하고,
논리적으로 정리된 설명을 제시할 수도 있다.
문제는 이 그럴듯함이
항상 사실을 보장하지는 않는다는 점이다.
AI는 존재하지 않는 판례를 실제처럼 만들어내거나,
사실과 맥락이 어긋난 정보를 자신 있게 제시하기도 한다.
이 현상을 환각(hallucination)이라 부른다.
따라서 AI가 제시한 답이
실제로 존재하는지, 사용해도 되는지,
책임을 감당할 수 있는 근거인지의 판단은
여전히 인간의 몫이다.
AI는 환각으로 잘못된 답을 제시하더라도
그 자체로 책임의 주체가 되지는 않는다.
그러나 그 답을 판단 없이 사용한 인간은
명확한 책임의 주체가 된다.
AI가 점점 더 많은 인지적 작업을 대신할수록
인간에게 요구되는 역할은 달라진다.
이제 중요한 것은
누가 더 많은 정보를 아느냐가 아니라
그 정보 위에서 무엇을 선택하느냐다.
이 답을 채택해도 되는가
이 결과를 실제 행동으로 옮겨도 되는가
이 판단의 책임을 감당할 수 있는가
이 질문에 답할 수 있는 사람,
그 사람이 AI 시대의 판단 주체다.
판단은 감각이 아니다.
경험만으로도 부족하다.
판단이란 근거·맥락·책임을 함께 고려하는 능력이다.
AI는 분석을 점점 더 정교하게 수행할 것이다.
그러나 분석이 아무리 정밀해져도
그 분석을 어디까지 신뢰할지 결정하는 일은
자동화되지 않는다.
앞으로의 일은
누가 분석을 하느냐가 아니라
누가 그 분석 위에서
책임있는 선택을 하느냐로 갈린다.
AI가 답을 내놓는 시대에는
답을 선택하는 능력이 경쟁력이 된다.
AI 시대에 인간이 사라지는 것이 아니다.
인간의 역할이 달라지는 것이다.
AI가 실행을 맡을수록
인간은 판단을 맡아야 한다.
그리고 그 판단은 단순한 기술 숙련이나 도구 사용 능력으로 만들어지지 않는다.