You can make anything
by writing

C.S.Lewis

숨 쉬듯 거짓말하는 AI, 절반은 거짓?

AI 챗봇의 거짓말에 속지 않고, 현명하게 활용하는 법 - by 뮹작가

by WAVV Mar 03. 2025


✅ 이 글이 도움이 되는 분:

✔ 생성형 AI 챗봇의 할루시네이션을 최소화하고 싶은 분

✔ AI 리터러시(정보 판별 능력)에 관심 있는 분

✔ AI 정보의 홍수 속에서 믿을 만한 정보를 찾고 싶은 분




“GPT야, 오늘 주요 뉴스 좀 알려줘.”



아침마다 AI 챗봇에게 뉴스를 물어보는 게 일상이 된 분들 많으시죠? 저도 AI 챗봇에게 뉴스를 요약해 달라고 하거나 궁금한 정보를 검색하는 일이 늘었어요. 질문만 던지면 몇 초 만에 답이 나오니 참 편리하죠. 그런데 이 편리함 속에 숨겨진 함정이 있습니다. 바로, AI 챗봇이 너무도 자연스럽게 거짓말을 한다는 것입니다.


2025년 2월, BBC 연구팀이 여러 AI 챗봇을 테스트한 결과, 놀랍게도 챗봇들이 사실을 잘못 인용하거나 왜곡하는 사례가 빈번했다고 해요. 심지어 답변의 절반 이상이 심각한 오류를 포함하고 있었다고 하는데요. (원문 출처: Deborah Turness - AI Distortion is new threat to trusted information


도대체 AI 챗봇이 왜 이렇게 실수를 저지를까요? 그리고 우리는 이를 어떻게 활용해야 할까요?



생각보다 심각한 AI 챗봇의 오류

- BBC가 밝혀낸 AI 챗봇의 민낯


BBC 연구팀은 ChatGPT, Microsoft Copilot, Google Gemini, Perplexity 등 다양한 AI 챗봇을 대상으로 실험을 진행했습니다. 연구진은 BBC 뉴스 콘텐츠를 기반으로 100여 개의 질문을 던졌고, 챗봇들이 이에 답변하도록 했죠.


결과는 충격적이었습니다.   

- 51%의 응답에서 '중대한 문제'가 발견됨
- 19%는 명백한 사실 오류 포함
- AI가 제공한 인용문의 10% 이상이 변경되었거나 아예 존재하지 않음
- 현재와 과거 자료를 구별하지 못함


예를 들어,   

ChatGPT와 Copilot은 이미 퇴임한 인물을 현직 인물로 잘못 기술했어요.

ChatGPT와 Copilot은 조력사망법안 관련 기사를 요약하면서 특정 정치인의 의견을 사실처럼 서술하여 편향된 정보를 제공했어요.

Gemini는 영국 국민보건서비스(NHS)의 전자담배 관련 권고 내용을 오해할 수 있는 방식으로 전달했어요.

Perplexity는 중동 갈등 관련 응답에서 BBC가 사용하지 않은 감정적 표현을 잘못 인용하여 정보 신뢰도를 떨어뜨렸어요.


이처럼 AI 챗봇들은 단순한 오타나 문맥 오류가 아니라, 중요한 정보를 완전히 다르게 해석하거나 아예 창작해 내는 수준의 문제를 일으키고 있습니다.



AI는 왜 거짓말을 할까?


AI가 이런 실수를 반복하는 이유는 간단합니다.


AI는 주어진 문맥을 바탕으로 가장 '그럴듯한' 답변을 생성하는 데 최적화되어 있기 때문입니다. 즉, AI는 정보를 사실로 검증하는 것이 아니라, 확률적으로 가장 적합한 단어나 문장을 예측하는 방식으로 작동합니다.

그렇다면 AI 기술이 발전할수록 오류가 줄어들어야 하는데, 왜 여전히 문제가 발생할까요?


생성형 AI가 점점 더 정교해지면서, 오히려 거짓 정보도 더욱 '그럴듯하게' 포장되기 때문입니다. 사용자가 쉽게 속을 수 있는 것이죠.



AI 정보 왜곡, 기업들은 어떻게 대응하고 있을까?


최근 Apple은 BBC 뉴스의 왜곡 문제를 인지하고, 뉴스 알림 요약 기능을 일시 중단하는 조치를 취했습니다.

Apple Intelligence 기능이 BBC 뉴스 알림을 잘못 해석해 완전히 부정확한 헤드라인을 생성하는 사례가 반복되었기 때문입니다. 심지어 BBC 뉴스 로고까지 그대로 붙여, 마치 공식 뉴스처럼 보이게 만들었죠.


이는 생성형 AI가 뉴스 콘텐츠를 왜곡 없이 정확하게 요약할 준비가 되지 않았다는 것을 의미합니다. 앞으로 다른 기업들은 어떤 대응을 할지 지켜봐야겠네요.



AI 리터러시: AI 챗봇을 똑똑하게 활용하는 법


AI 챗봇의 할루시네이션(환각) 문제는 계속 있어왔고, 앞으로도 완전히 사라지지 않을 겁니다. 

그렇다면 우리는 어떻게 해야 할까요?


정답은, AI가 제공하는 정보를 '그대로 믿지 않는 것'입니다.
즉, AI 리터러시(정보 판별 능력)를 키워야 합니다.


AI 챗봇을 사용할 때 (귀찮아도 필요한..!!!) ✅ 팩트체크를 할 수 있는 몇 가지 방법을 소개드립니다.



1️⃣ 출처 확인하기

AI 챗봇이 제공하는 정보의 출처가 명확한지 확인하세요.
공식 기관, 정부 웹사이트, 신뢰할 수 있는 언론사의 정보인지 따져보는 것이 중요합니다.


2️⃣ 여러 출처와 비교하기

AI가 제공한 정보를 다른 기사나 보고서와 비교해 보세요.
같은 주제에 대해 여러 곳에서 제공하는 정보를 확인하면 오류를 걸러낼 수 있습니다.


3️⃣ 전문가 의견 참고하기

법률, 의료, 경제 등 중요한 정보는 AI 챗봇의 답변만 믿지 말고, 전문가의 의견이나 공식 발표를 참고하세요.


4️⃣ 상식적인 판단하기

AI가 너무 극단적이거나 비현실적인 정보를 제공한다면, 반드시 추가 검증이 필요합니다.


5️⃣ 정확한 질문 던지기

질문이 모호하면 AI가 자의적으로 해석할 가능성이 높습니다. 
가능한 한 구체적으로 질문하면 오류를 줄일 수 있습니다.




최종 판단은 결국 우리 몫


AI는 정말 유용한 도구입니다. 하지만 내비게이션처럼 참고만 하고, 최종 판단은 우리가 해야 합니다. AI를 '전지전능한 선생님'이 아니라, '도움이 되지만 실수할 수 있는 어시스턴트'로 생각한다면 훨씬 더 효과적으로 활용할 수 있어요.


우리는 이제 AI가 익숙해진 시대에 살고 있습니다. AI 덕분에 원하는 정보를 손쉽게 얻을 수 있게 되었죠. (솔직히 저만 해도 AI 없이 일하던 시절로 돌아가긴 어려울 것 같아요.) 


하지만 그 편리함에 익숙해지다 보면, AI가 제공하는 정보를 비판적으로 검토하는 수고를 점점 덜고 싶어질 수도 있습니다. 그러나 잘못된 정보에 대한 책임은 AI가 아닌, 이를 공유하고 활용하는 우리에게 있습니다. AI가 만든 정보를 그대로 믿고 퍼뜨리는 순간, 그 결과에 대한 무게도 우리가 짊어져야 하죠.


AI의 장점을 최대한 활용하면서도, 그 한계를 인지하고 똑똑하게 사용하는 것, 그것이야말로 디지털 시대를 살아가는 우리의 새로운 필수 역량이 아닐까 생각해 봅니다.






작가의 이전글 이번엔 정말 출시? 알렉사 플러스

브런치 로그인

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari