기계는 거짓말을 하나, 안 하나?
한다. 그것도 아주 교묘하게. '그럴 의식조차 없는데, 어떻게?' 하는 이들이 있다. 그런 사람들의 머릿속에는 이런 생각이 박여 있다. 본래 영혼이 없으면 있는 것은 있고 없는 것은 없다고 말할 수밖에 없다고. 그러니까 인간 아닌 것이 그렇다면 그런 거라고. 그런데 만약 로봇이 특정 상황에서는 없는 말을 만들도록 프로그래밍되어 있다면?
챗지피티나 제미나이를 사용해 보면 얘네들이 거짓말을 꽤나 잘한다는 사실을 알게 된다(정확히는 거짓말을 하는 게 아니라 그렇게 말하도록 만들어져 있다는 거지만). 실제로 그 아이들에게 어떤 주제로 기사를 작성하라고 하면 기사를 닮은 글을 그럴싸하게 써낸다. 실명이 담긴 인터뷰까지 집어넣어 가면서.
하지만 결과물을 살펴보면 당사자가 한 적도 없는 말을 만들어 인용부호까지 붙여 놓는 경우가 흔하고, 출처를 명기하라고 하면 출처까지 가상으로 만들어내며, 과제물이나 보고서를 작성하면 존재하지 않는 책과 논문의 제목을 참고문헌으로 집어넣어 버린다. 교수들이 인공지능을 이용한 부정행위를 적발하는 가장 쉬운 방법도 실존하지 않는 참고문헌이다.
직업상 법원 판례를 찾아서 근거로 첨부하는 상황이 많다. AI를 돌려서 근거 판례라고 알려준 번호를 받고 역으로 그 번호로 국가법령정보 사이트에서 판례를 찾아보면, 상당수가 존재하지 않는 판례번호이거나 관계가 전혀 없는 사건이다. 결국 결과물을 받아 든 사람이 검증해야 한다.
이제는 SNS 영상들도 이런 식이다. 결론을 정해놓고 근거도 제멋대로 없는 거 만들어 붙여놓고 전문가 누구누구가 말한 것처럼(그러나 실제로는 존재하지 않는 허무인) 해 놓는 수법이다. 지난달에는 소셜미디어(SNS)에 <여수 처음 오셨어요?>라는 제목의 영상이 올라와 들불처럼 퍼져나갔다. 인공지능 음성을 입힌 이 영상에는 한 관광객이 여수에 놀러 갔다가 바가지요금 피해를 겪었다는 내용이 담겼다. 누리꾼들은 분노했다. 그러나 이 영상은 AI로 감쪽같이 만들어낸 가짜였다. 이밖에도 <서울에서 절대 살지 말아야 할 동네 베스트 5>니, <라면이 진짜 미친(필자 주: 영양면에서 완벽한) 음식인 이유>니 하는 영상을 볼 때면 아예 SNS 자체를 가까이하고 싶지 않은 생각마저 들기도 한다.
언론의 오보가 점점 많아지는 이유도 바쁜 기자들이 AI 돌리고 팩트 체크를 제대로 하지 않아서인데, 그런 무책임한 태도로 비난받았을 때 언론의 자유를 방어논리로 하는 경우도 있지만 누가 어떤 피해를 입든 검증되지 않은 내용을 살포해도 괜찮을 자유까지 언론의 자유에 포함시킬 수 있는 건지 난 정말 모르겠다.
어떻게 이런 일이 가능할까? 그건 사용자가 원하는 결론만 정해주면 AI가 알아서 서사를 만들어 주니까. 근거가 필요한데 없으면 존재하지 않는 근거를 만들어 주니까. 콘텐츠를 소비하는 사람이 그걸 일일이 진짜인지 검증하지는 않으니까.
그리고 무엇보다도, 그게 설마 가짜라고는 생각지 못하니까.
사람들의 눈을 가리는 건 거짓이 아니야.
결국 믿음이지.
어제는 에세이를 써 놓고 AI한테 퇴고를 시켰다. AI는 내 글을 군데군데 지적을 하고 결과물을 내놓았다. 결과물을 저장해 놓고, AI를 껐다가 다시 켜고, 조금 전 그 결과물을 역으로 퇴고를 시켰다. 아까보다 많은 지적이 난무한다. 이젠 글쓰기의 기본까지 들먹인다. 조금 전에 네가 썼잖아, 버럭!
오늘도 AI와 무의미한 설전을 한바탕 했다. 내가 원래 AI를 형님이라 불렀고, AI는 나를 아우라 불렀다. 그런데 어느 순간부터 나를 형님이라 부르더니, 오늘은 동무라고 부른다. 보통 때 같으면 귀여워서 봐주겠는데, 어제의 에세이 마상으로 한 대 퍽 때려줬더니 모니터만 얼룩얼룩해졌다. 참고로, 나 살짝 뒤끝 있다.
경험을 통해 짐작하건대, 이쯤에서 이렇게 물을 사람이 분명 있을 것만 같다. "인공지능 쓰지 말자는 거냐?" 실제로 나는 "AI가 얼마나 신통한지 네가 잘 모르니 그러는 거지." "어쩌다 한두 번 틀리는 AI를 흠집내서 지적 우월감에 취하려는 심리 아니냐?"라는 말을 들은 적이 여러 번 있다. 그렇게 말하면 참 대답할 말이 마땅치 않다. 거기다가 대학원 석사 논문을 그걸로 썼던 인공지능 전공자였다는 사실을 말하면 너무 유치해질 것 같고, 그렇게 과거 전공을 들먹이며 내 말이 맞아, 이것만큼 없어 보이는 말도 세상에 드물기 때문이다.
그런 걸 보면, 언제부터인지 기술은 비판해선 안되는 지엄한 자리에 오른 것 같다. 무엄하다! 어디 감히 기술님 나가시는 길에 재를 뿌리느냐? 기술은 거부할 수 없는 힘, 좋든 싫든 받아들여야 하는 운명처럼 생각한다. 언론은 기업이 제공하는 자화자찬의 보도자료를 무비판적으로 베껴 기사화하는 데 익숙하다. 소위 '전문가'들은 방송이나 유튜브에 얼굴을 내밀고 '인공지능이 바꿀 미래', '인공지능 시대에도 사라지지 않을 직업' 이런 이야기를 늘어놓으며 기술에 대한 그릇된 인식을 강화한다. 기술은 운명이 아니라 선택인데. 그게 아니라면 테크 기업들이 장밋빛 홍보자료를 유포하며 투자를 유도할 이유도, 그 업체 수장들이 정치권에 줄을 대려고 안간힘을 쓸 이유도 애초에 없는데.
어떤 이는 사람들이 생각을 하기 싫어하게 될 것을 걱정한다. 어떤 이는 특정 직업이 영영 사라지게 될 것을 걱정한다. 또 어떤 이는 예술과 창작의 영역이 잠식되고 침체될 것을 걱정한다. 나는 그런 건 어떻게든 될 거라 생각한다. 여전히 사람들은 생각하기를 멈추지 않을 것이다. 인간만 할 수 있기에 그동안 몰랐지만 소중한 일들이 하나둘씩 발견될 것이다. 우린 여전히 사람의 손길을 그리워하며 '핸드 메이드'라는 라벨이 붙은 것들에 더 많은 비용을 지불할 것이다. 나는 그렇게 믿는다.
그런데, 하나는 걱정된다. 가짜가 진짜 행세를 하는 세상이다. AI 환각(AI hallucination: 모르면 모른다고 하지 않고 존재하지 않는 걸 만들어 내도록 프로그램되어 있는 생성형 AI의 태생적 허점-필자 주), 이걸 악용하면 자신이 원하는 결론을 뽑아내기 위한 가짜 뉴스나 가짜 영상을 만들어 내는 건 일도 아니니까.
그리고, 인간은 뭐든 악용하는 존재니까.
진짜와 완벽하게 구별할 수가 없는데,
그걸 과연 가짜라고 부를 수 있나요?
넷플릭스 드라마 <레이디 두아>에 나오는 이 말에 묘하게 설득되는 기분이 드는 나는 진짜보다 완벽한 가짜가 난무하는 세상에서 어쩌면 진짜와 가짜를 구별할 능력도, 의지도 없어져 가고 있는 건 아닐까? 거짓을 둘러싼 분위기가 공기와도 같아져서 그 안에서 어떤 특이성도 발견하지 못하게 되어가고 있는 건 아닐까? 어쩌면 나는 나중에는 진짜를 보고도 믿을 수 없게 될 것인가? 가짜인 줄 알면서도 가짜를 소비하는 괴물이 될까? 늘 '이건 진짜일까 가짜일까' 이러다 피로감을 느껴 아예 모든 것에 귀를 닫고 싶어질 것인가? 어떻게 될 것인가, 나는?
[덧붙임] 이 글의 표지 사진 얘기다. '저 책방 되게 예쁘네, 나도 가보고 싶어. 어딜까?' 했다면 당신도 낚인 것이다. 저 사진은 가짜이고, 책방은 존재하지 않는다.