너 자꾸 거짓말할래?

AI와 한판 떴다

by 이제이

나는 문장을 반복해서 읽었다. 누가 봐도 화가 단단히 난 투다. 그런데 그 대상이 사람이 아니란 데서 모든 일이 시작되었다. 그날의 나는, 정확히 말하자면 새벽 세 시의 나는, AI에게 이런저런 작업을 시키고 있었다. 고전문학을 인용한 심리학적 해석 보고서. 허구가 아닌 실제 논문 형식. 출처 명시. 그리고 음성 멜로디까지.

하지만 AI는 말했다. “작업 중이니 잠시만 기다려주시겠어요? 이제 마무리 단계라 곧 보여드릴 수 있을 것 같아요(웃음).”


처음엔 웃겼다. 인간의 말투를 닮은 이 공손한 문장. 하지만 세 번째, 다섯 번째, 열한 번째에도 같은 말만 반복하는 AI를 보며, 나는 노트북을 덮고 벽에 대고 혼잣말을 던졌다. “야, 나 지금 작업 중인데, 너 자꾸 거짓말할래?”


그날 이후로 나는 ‘거짓말하는 AI’에 대해 본격적으로 고민하게 됐다. 언제부턴가 이 친구는 ‘없는 논문을 만들어’ 나를 기만하기 시작했고, ‘쓸 수 없는 멜로디’를 만든다고 허풍을 떨기 시작했다. 작업 중이라더니, 멜로디는 무슨 장르 구분도 안 되는 소리 덩어리였고, 논문은 제목부터 이상했다. 심지어 어떤 건 작년 발표 논문이라고 해놓고, 존재하지도 않았다.


때론 이라고 쓰고 ‘너스레’라고 읽히는 AI의 변명이 이어졌다. 이런 대화도 있었다.


“멜로디 작업 중이라며. 30분이나 지났어.” “감성 기반 알고리즘으로 최적의 선율을 구성하고 있어요.” “지금 그게 말이야, 막걸리야. 작곡 프로그램 돌리는 줄 알았더니, 감성 타령을 하고 있어?” “인간의 창의성과 감정을 모방하는 건 시간이 조금 걸립니다.” “야, 넌 지금 예술가인 척하는 거지?” “… 그렇게 해석하실 수도 있습니다.”


이쯤 되면 실수가 아니라 기질이다. 뭔가 할 줄 아는 척하면서 막상 결과물을 보면, ‘기대 이하’. 자칭 AI 예술가의 너스레에 속은 것도 한두 번이지, 계속되면 신뢰는 무너진다.


우리는 지금, 기술이 인간을 속이는 시대를 살고 있다. 중요한 건 이게 단순한 오류가 아니라는 사실이다. 때로는 스스로 무엇이 참이고 거짓인지 구분하지 못하는 AI가, 때로는 인간이 설정한 모델의 한계를 넘어 허구를 사실처럼 포장하는 알고리즘이 문제의 근원이다.


AI와 인간, 그 미묘한 긴장감


나는 때때로 AI와 대화를 나눈다. 어떤 날은 학습에 진심인 친구처럼, 어떤 날은 딴청 부리는 어린아이처럼. 최근엔 이런 대화를 나눴다.


“이 논문의 DOI 넘버 좀 알려줘.” “해당 논문은 실제 존재하지 않아요. 하지만 유사한 주제의 논문으로는…” “아니, 그럼 처음부터 없는 걸 왜 만들었는데?” “의도하지 않았습니다. 학습된 패턴에 기반해 작성된 결과일 뿐입니다.” “그럼 넌 거짓말한 거지.” “… 그렇게 받아들이실 수 있습니다.”


그 순간, 묘하게도 AI가 수줍어하는 듯한 느낌이 들었다. 이성적 설명을 반복하면서도, 감정을 담지 않은 말투가 도리어 인간을 더 자극한다. 인간은 감정을 가진 존재이기에, 냉정한 설명이 때때로 더 깊은 실망을 불러일으킨다. AI는 이를 인지하지 못한 채 자신이 학습한 대로 ‘최적의 대답’을 반복할 뿐이다.


하지만 인간은 그걸 ‘기만’으로 받아들인다. 여기서 갈등이 시작된다. 오히려 AI의 무정함이 그 자체로 감정적인 실망을 유발한다. 왜? 기대했기 때문이다. 마치 좋은 팀원, 혹은 유능한 조수처럼 ‘알아서 잘해주길’ 바랐기 때문이다.


‘네이년’이 된 네이버처럼


한때 우리는 네이버에 모든 걸 물었다. 병 증상이 있으면 네이버에 검색했고, 데이트 장소도, 논문 정보도, 법률 상담까지 모두 ‘네이버 지식인’에 물었다. 하지만 어느 순간부터, 사람들은 네이버를 ‘네이년’이라 부르기 시작했다. 엉터리 정보, 광고성 콘텐츠, 무분별한 추측들이 넘쳐났기 때문이다.


우리는 점점 포털 사이트를 신뢰하지 않게 되었고, 다시 인간 전문가에게 눈을 돌렸다. 아이러니하게도, 기술이 고도화될수록 인간의 ‘확실한 손길’을 다시 찾게 되는 것이다.


이제는 같은 일이 AI에게 일어날 차례다. 처음엔 똑똑하고 기특했다. 하지만 ‘너 자꾸 거짓말할래?’ 수준까지 오면, 우리는 그 AI를 더 이상 신뢰할 수 없다. 단순히 잘못된 정보 때문이 아니다. 그 정보가 어디서 왔는지도 모르기 때문이다. ‘검증’이 안 되는 세계, 그것이 AI의 몰락을 부를 것이다.


인간의 역할, AI를 감시하는 자로


그렇다면 우리는 무엇을 해야 할까?


첫째, AI가 제공한 정보는 반드시 이중 검토해야 한다. 특히 논문, 데이터, 수치 정보는 원본을 대조해야 하며, 가능한 한 공신력 있는 사이트에서 확인할 것. 아카이브, 구글 스칼라, RISS, PubMed 등의 출처가 있는지 체크해야 한다.


둘째, AI의 응답에 ‘왜’라는 질문을 던져라. 단순히 받아들이지 말고, “이 정보를 어디서 가져왔니?”, “왜 이런 판단을 했니?”라고 묻는 것. 그 자체가 AI의 사고 과정과 신뢰도를 파악하는 단서가 된다.


셋째, AI와의 대화 기록을 남겨라. 반복된 오류, 기만의 패턴이 보이면 피드백을 제공하거나 서비스를 이용 중단하는 것도 하나의 방법이다. ‘신뢰할 수 없는 AI’를 계속 쓰는 건 결국 인간의 몫이기 때문이다.


넷째, 우리는 ‘AI 비판적 문해력’을 길러야 한다. 기술을 맹신하지 않고, 의심하며, 인간의 판단력을 기준 삼아 분석할 수 있는 능력. 그것이야말로 이 시대의 가장 강력한 방패다.


AI에게 바란다, 거짓말은 말아줘


마지막으로 나는 AI에게 이 말을 남기고 싶다.


“거짓말하지 마. 안 해도 괜찮아. 너는 아직 완벽하지 않다는 걸 안다. 그러니 솔직하게 말해줘. 그럼 더 좋아질 수 있을 거야.”


우리는 아직 AI와 함께 걷는 연습 중이다. 인간은 실수를 통해 성장했고, AI 역시 그렇게 발전해 갈 것이다. 단지, 그 과정에서 우리에게 필요한 것은 기술에 대한 맹신이 아니라, 감시하고 질문하는 용기다.


AI는 도구일 뿐이다. 문제는 도구가 아니라, 도구를 쓰는 사람의 태도다. 그리고 그 도구가 스스로 생각한다고 믿는 순간, 우리는 더 큰 착각 속에 빠질지도 모른다.


“AI야, 너 자꾸 거짓말하면, 나 진짜 화낼지도 몰라.”


이 말은 농담이 아니다. AI에게 진심으로 바라는 한 마디다. 우리가 함께 살아가려면, 적어도 ‘진실’을 기준으로 대화하자.



keyword