AI를 어떻게 믿고 쓸 것인가
중국어를 공부하면서 relax를 의미하는 중국어가 轻松(형용사), 放松(동사)라는 것을 알게 되었다. 그런데 여기에는 왜 소나무를 뜻하는 松 자가 들어갈까 하는 의문이 들었다. 그래서 ChatGPT에 물어보았다.
돌아온 답변은 松 자에는 소나무라는 뜻 말고도 ‘느슨하다’라는 의미가 있다는 것이었다. 하지만 松 자는 한국이나 일본에서도 널리 쓰이는 한자인데, 그런 의미가 있다는 이야기는 들어본 적이 없었다. 중국어에서 한자에 두 가지 이상의 의미가 있다면, 그 의미 역시 한국이나 일본에 어느 정도 전해지는 것이 일반적인데, 왜 그런 흔적이 전혀 없을까 하는 의문이 들었다.
이에 대해 반론을 제기했지만, ChatGPT는 납득하기 어려운 설명을 계속 늘어놓았다. 다른 단어 사례까지 끌어와 마치 그럴듯한 이론처럼 설명했지만, 논점과는 맞지 않는 이야기들이었다.
결국 확인해 보니, 放松에서 쓰이는 松 자는 원래 鬆 자였다. 이 鬆 자가 획수가 많고 쓰기 어려워서, 중국의 간체자 개혁 과정에서 더 간단한 松 자로 대체된 것이었다. 실제로 간체자를 쓰지 않는 대만에서는 지금도 放鬆, 輕鬆처럼 원래 글자인 鬆을 그대로 사용한다.
사실은 이렇게 설명하면 될 문제였다. 그런데 ChatGPT는 굳이 다른 단어 사례까지 들며, 문제의 핵심과는 상관없는 이야기를 길게 늘어놓았다. 이번에는 내가 배경지식을 가지고 있었기 때문에 의문을 제기했고, 결국 AI의 설명이 잘못되었다는 점이 드러났다. 하지만 내가 전혀 모르는 분야에 대해 같은 방식의 답변을 받았다면, ‘그런가 보다’ 하고 그대로 믿었을 가능성이 크다.
이와 비슷한 경험을 일본에 살 때도 한 번 겪은 적이 있다. 당시 나는 일본 유통업계의 IT 통신 표준 데이터베이스 사업을 진행하고 있었다. 일본의 주요 유통사들과 P&G, 네슬레, 아사히맥주 같은 식품·생활용품 제조사들이 참여했고, 일본 경제산업성의 후원도 받는 프로젝트였다. 국제 표준을 기반으로 한 사업이었기 때문에, 당시 GS1 미국과 독일 관련 기업에 몸담고 있던 나는 글로벌 표준의 세부 내용을 설명하고, 그 기준에 맞춰 시스템을 구축하는 역할을 맡고 있었다.
그 과정에서 닛케이 신문 기자가 와서 취재를 했고, 이후 기사가 실렸다. 그런데 기사를 읽어보니 기자는 이 시스템이 어떤 역할을 하는지, 어떤 기술적 기반 위에서 만들어졌는지에 대한 기본적인 이해가 거의 없었다. 내용의 절반은 추측이었고, 나머지 절반은 명백히 틀린 설명이었다. 그럼에도 기사 전체의 톤은 매우 자신만만했다.
그때 문득 이런 생각이 들었다. ‘내가 아는 분야라서 이 기사가 엉터리라는 걸 알았지, 내가 모르는 분야의 기사도 사실은 다 이런 식이 아닐까?’ 그리고 시간이 지나 생각해 보면, 그 추측은 크게 틀리지 않았던 것 같다.
대부분의 사람은 다른 사람에게 무언가를 물었을 때, 잘 모르면 “잘 모르겠다”고 말한다. 어렴풋이 알고 있을 경우에도 “확실하진 않지만”, “내가 알기로는” 같은 전제를 붙여 말을 시작한다. 최소한 AI처럼 틀린 내용을 끝까지 확신에 찬 어조로, 구체적인 사례까지 들어가며 설명하는 경우는 드물다.
이번 경험을 통해 다시 한 번 느꼈다. 이것이 바로 AI의 현실이라는 점이다. 신문 기자는 최소한 잘못된 기사를 썼을 때 비판을 받거나 책임을 질 수 있고, 창피를 당할 수도 있다. 하지만 AI는 그렇지 않다. 틀려도 아무런 부담이 없다.
그래서 더더욱 중요한 것은, AI가 제공하는 정보를 맹목적으로 믿지 않고 ‘참고 자료’ 정도로만 활용하는 태도라고 생각한다. 그리고 AI의 답변이 틀렸을 때 이를 지적하고, 잘못된 정보를 바로잡을 수 있는 능력—그것이야말로 지금 시대에 요구되는 진짜 AI 리터러시가 아닐까 한다.