사람도 하는 실수 AI가 하면 더 비난받는 이유
우리는 일상 속에서 크고 작은 실수를 자주 겪습니다. 친구의 말을 잘못 이해해 엉뚱한 정보를 전달하거나, 숫자를 잘못 적어 계산이 맞지 않는 일도 흔히 벌어지죠. 하지만 이런 실수들은 보통 금세 바로잡히고, 간단한 사과만으로도 쉽게 용서받습니다. 그런데 이상하게도, AI가 잘못된 정보를 제공하거나 틀린 답을 내놓을 때 사람들의 반응은 훨씬 더 날카롭습니다. “똑똑하다더니 왜 저래?”라는 실망감과 함께 불쾌함을 느끼는 경우도 많죠. 왜 AI는 이런 실수를 저지르는 걸까요? 그리고 우리는 왜 AI의 실수에 더 민감하게 반응하는 걸까요? 이번 글에서는 AI의 '환각(Hallucination)' 현상이 발생하는 이유와, 사람들이 AI의 오류에 유독 예민하게 반응하는 심리적 배경, 그리고 이러한 실수를 줄이기 위한 몇 가지 실용적인 팁까지 함께 살펴보겠습니다.
AI가 만들어내는 대표적인 문제 중 하나가 바로 ‘환각(Hallucination)’입니다. 얼핏 보면 진짜처럼 보이지만, 사실은 틀린 정보를 그럴듯하게 말하는 현상이죠. 이 용어는 마치 사람이 헛것을 보는 것처럼 표현되지만, AI에게는 단순한 착각이 아닙니다. AI는 본질적으로 ‘다음에 올 단어를 확률적으로 예측하는 시스템’입니다. 그렇다 보니 맥락은 얼추 맞아 보이지만, 실제로는 전혀 사실과 다른 내용을 말하는 경우가 생깁니다. 인간이 재채기를 억지로 참기 힘든 것처럼, AI에게 환각은 구조적으로 매우 자연스러운 현상이라 볼 수 있습니다. Ectara 창립자이자 전 구글 임원이었던 Amr Awadallah는 이렇게 말했습니다. “AI 모델의 작동 방식 자체가 확률적이기 때문에, 환각을 100% 없애는 건 불가능하다.” 결국 환각은 AI의 설계 구조상 피할 수 없는 한계인 셈입니다. 게다가 최신 AI 모델일수록 추론 능력이 더 정교해졌기 때문에, 오히려 더 ‘그럴듯한 오답’을 만들어내는 경우가 많아졌습니다.
AI의 문제를 논하기에 앞서, 먼저 현대 사회의 정서를 들여다볼 필요가 있습니다. 서울대 보건대학원 유명순 교수 연구팀이 2024년에 발표한 ‘한국인의 울분과 사회·심리적 웰빙 관리 방안에 관한 조사’에 따르면, 한국 성인의 약 절반(49.2%)이 ‘장기적인 울분’ 상태에 놓여 있다고 합니다. 이처럼 일상적인 스트레스와 울분이 누적되어 있는 상태에서, 누군가 작은 실수를 한다면 과민 반응을 하는 것이 당연할지 모릅니다. 하지만 AI의 실수에 우리가 유독 더 민감하게 반응하는 이유는 단지 이것 때문만은 아닙니다. 그럼 조금 더 깊이 들어가, 왜 AI의 실수에 사람들이 더 큰 불쾌감이나 실망감을 느끼는지 함께 살펴보겠습니다.
AI가 마치 사람처럼 대화하고 판단하는 것처럼 보이지만, 앞서 말했듯 AI는 어디까지나 ‘다음에 올 단어를 확률적으로 예측하는 시스템’입니다. 이렇다 보니, 겉으로는 인간처럼 말하는 것 같아도 AI는 감정이나 맥락을 진짜로 이해하지는 못합니다. 그 결과, 미묘하게 어긋나는 표현이나 낯선 반응이 생기고, 바로 그 ‘기묘한 어색함’이 사용자에게는 불쾌감이나 거부감을 불러일으키는 원인으로 작용됩니다.
최근 AI의 발전은 우리 일자리에도 직접적인 위협이 되고 있습니다. 생계에 대한 불안감이 커지는 상황에서, AI가 실수까지 한다면? 그에 대한 불만과 분노는 어쩌면 너무도 자연스러운 반응일지 모릅니다.
회의 시간, AI를 활용하여 발표를 준비하였는데 발표 내용 중 틀린 내용이 있었습니다. ‘AI가 써준 거예요!’라고 주장하지만 결국 검수를 제대로 못한 책임은 인간입니다. 그리고 그 민망함은 우리 몫입니다. 어쩌면 잘못된 정보를 낸 AI에 대한 실망이라기보다는, 스스로의 실수에 대한 자책과 당혹스러움과 부끄러움을 감추기 위한 심리적 방어기제가 AI를 향한 과도한 분노로 표출되는 건 아닐까요?
AI의 환각을 완전히 없앨 수는 없지만, 줄이는 건 가능합니다. 특히 프롬프트(명령어)를 어떻게 쓰느냐에 따라 AI의 정확도는 크게 달라지는데요. 정확도를 높일 수 있는 프롬프트 팁 6가지가 있어 소개를 해봅니다.
* 보다 자세한 내용은 [출처: 알쓸다정]에서 확인 가능합니다.
프롬프트에서 “이 정보가 사실인지 의견인지 구분하여 설명해 줘”처럼 요청하면 AI가 정확히 정보를 분류해 제시하게 됩니다. 혼동을 줄이고 신뢰성을 높이는 효과가 있습니다.
“이 정보가 정확한지 스스로 점검하고 확신 없는 부분은 모른다고 답변해 줘”라는 지시를 활용하세요. AI가 추정 부분을 자각하고 최소화할 수 있습니다.
한국어와 영어를 같이 사용하면 모델의 이해도가 더 높아질 수 있습니다. 예를 들어 “커피의 카페인 함량과 그 영향에 대해 설명해 줘. (Fact vs. Opinion)”와 같은 영어 문구를 병기하면 분류가 더 명확해집니다.
의미 있는 항목 구분과 깔끔한 문장 구조는 AI의 해석 정확도를 향상합니다. 예: “운동의 장점을 다음 항목으로 나누어 설명해 줘 -신체 건강, -정신 건강, -사회적 혜택 등” 같은 목록 형태로 요청.
JSON, 표, 목록 등 명확한 출력 형식을 지시하면 AI는 해당 구조에 맞춰 응답하며, 오류 발생 가능성을 낮춥니다.
첫 질문만으로 끝내지 말고 “해당 정보의 출처를 알려줄 수 있어?”, “이 내용이 맞는지 다시 설명해 줘”처럼 계속해서 확인하면 정확도가 더 높아집니다.
AI의 실수에 화를 내는 건, 어쩌면 그 실수 자체 때문이라기보다 우리 안에 자리한 기대, 두려움, 불안감 같은 감정이 복합적으로 작용한 결과일지도 모릅니다. 앞으로 AI는 점점 더 우리 삶 깊숙이 들어올 것이고, 이제는 그들과 어떻게 잘 공존할 것인지를 고민해야 할 때입니다. AI의 오류를 탓하기보다는, 더 나은 협업자로서의 첫걸음을 함께 내디뎌보는 건 어떨까요?