465. 우리는 AI를 쓰는가, AI에게 쓰이는가?

by 오박사

한 민원인에게서 전화가 걸려왔다. 그는 한 가게의 사장이라며, 전날 자신의 가게에 경찰이 출동한 이유를 알고 싶다고 했다. 해당 사건은 그와 직접적인 관련이 없어 내용을 알려줄 수 없다고 설명했지만, 그는 쉽게 물러서지 않았다. “제가 사장인데 알 권리가 있는 것 아닙니까?”라며 막무가내로 따졌다.


몇 차례 실랑이가 이어지던 중, 그는 뜻밖의 말을 꺼냈다. “챗GPT에 물어보니 그런 건 알려준다고 나오는데요.” 그는 우리의 설명보다 챗GPT의 답변을 더 신뢰했다. 그리고 그 신뢰를 근거로 계속 항의했다.


요즘 사람들은 생성형 AI를 쉽게 믿는다. 질문을 던지면 즉시 답이 나오고, 보고서와 논문, 각종 자료까지 척척 만들어내니 마치 무엇이든 아는 존재처럼 보이기 때문이다. 문제는 그 답을 검토 없이 ‘정답’으로 받아들이는 태도다.


우리 역시 챗GPT를 활용한다. 하지만 법률과 관련된 사안에서는 반드시 법 조항을 다시 확인한다. 실제 법과 다른 부분이 적지 않기 때문이다. 생성형 AI는 방대한 정보를 조합해 가장 그럴듯한 답을 빠르게 제시하는 것이 목적이지, 반드시 ‘정답’을 보장하는 존재는 아니다.


그럼에도 사람들은 그 답을 절대적 기준처럼 신봉한다. 스스로 생각하기보다 AI의 문장을 빌려 자신의 주장으로 내세운다. 그렇게 되면 사고의 근육은 점점 약해지고, 판단 능력은 무뎌진다. 스스로 생각하는 인간이 아니라, 길들여진 존재로 변해가는 것이다.


이대로라면 언젠가 생성형 AI를 맹목적으로 따르는 ‘신앙’ 같은 현상까지 생겨날지도 모른다. 만약 스스로 사고하는 인간과 그렇지 않은 인간이 나뉘는 세상이 온다면, 후자는 결국 전자에게 조종당할 가능성이 크다. 왜냐하면 생각하는 이들이 생성형 AI를 다루고, 해석하고, 방향을 설정할 수 있기 때문이다.


우리는 생성형 AI를 이용하는 인간이 되어야 한다. 이용당하는 인간이 되어서는 안 된다. 그러기 위해서는 AI의 답을 의심해야 한다. 직접 자료를 찾아보고, 다른 방식으로 질문을 던지며 교차 검증해야 한다. 여러 번 좁혀가며 스스로 판단해야 한다. 그것이 생각의 주인이 되는 길이다.

keyword