인공 지능에 대한 이야기는 몇 년 전부터 있어왔지만 챗 GPT가 등장한 이후 이것에 대한 사람들의 관심이 폭발적으로 늘었습니다. 정보를 다루는 도서관의 사서들 역시 사회의 다른 분야와 마찬가지로 이것에 대해 관심을 가지고 여러 면에서 실험하고 또 장단점을 살펴보고 있습니다. 특히 대학과 같은 교육과 연구 기관의 도서관에서는 더욱더 관심 깊게 살펴보고 있습니다.
그런데 도서관에서, 특히, 제가 경력을 쌓아온 상호대차서비스* 분야에서 처음 알려진 챗 GPT는 제법 심각한 문제 거리였습니다. 흔히 인공 지능의 “환각(Hallucination)”이라고 이야기하는 현상이 저희들에게는 매우 현실적인 어려움이었습니다.
*상호대차서비스는 한 도서관에서 입수할 수 없는 자료를 다른 도서관으로부터 빌려와서 이용자에게 제공하는 서비스로서 거의 모든 도서관에서 제공하는 기본적인 서비스 중의 하나입니다.
사람들이 챗 GPT와 대화를 하면서 관련 주제에 대한 참고 문헌을 질문하면 챗 GPT는 꽤나 그럴듯한 문헌 목록을 만들어 냅니다. 특히 이 문헌 목록에 등장하는 문헌의 제목이나 저자는 그 분야와 연관이 된 제목이나 학자들이라 그 주제에 대한 지식이 있는 사람들에게도 의심의 여지가 없어 보이니 누구나 고개를 끄덕일 수밖에 없습니다. 거짓말을 믿게 하려면 어느 정도의 진실이 그 거짓말 안에 있어야 한다는 말이 그대로 적용되는 경우라 하겠지요.
그런데, 대학에서 연구자나 학생들이 챗 GPT 가 만들어준 문헌들을 실제로 읽어 보기 위해 도서관 목록이나 데이터 베이스를 통해 검색을 해 보면 당연히 찾을 수 없습니다. 환각 현상이 만들어 낸 존재하지 않는 문헌이니 당연한 일이지요. 이 상황에서 연구자들은 자신의 도서관에는 이 자료가 없다고 생각하고 도서관의 상호대차서비스를 통해 자료를 다른 곳에서 구해 달라는 신청을 합니다. 학술지와 논문의 제목, 저자의 이름 그리고 권, 호 수와 페이지 정보가 다 포함된 그럴듯한 서지 정보가 신청과 함께 들어오니 상호대차담당자들은 그것을 소장하고 있는 도서관을 찾기 위해 상호대차시스템에서 검색을 합니다.
문제는 그때부터 시작이 됩니다. 신청한 학술지 자체가 존재하지 않거나 설사 존재한다고 해도 소장 도서관에서 신청한 논문을 찾아보면 존재하지가 않지요. 이 과정에서 각 도서관의 담당자들은 많은 시간을 소비해 가면서 도대체 이 논문이 어디에 있는지 찾으려 합니다. 그러다가 결국 마지막 단계로서 자료를 신청한 이에게 신청한 이 서지 정보를 어디에서 찾았는지 다시 물어봅니다. 그러면 그때서야 챗 GPT 가 문제의 시발점이라는 것을 알게 되고 이용자들에게 챗 GPT의 환각에 대해 이야기를 합니다.
존재하지도 않는 책이나 논문을 찾기 위해 여러 사람이 시간과 노력을 낭비하게 되었지요. 그래서 지난해 초반 동료들과 모인 자리에서 이렇게 낭비되는 시간을 줄이기 위한 아이디어를 나누었고 도서관 이용자 교육을 담당한 이들과 함께 이런 점을 이용자들에게 알릴 방법을 찾았습니다. 도서관에서 일어난 이런 일 외에도 미국에서는 챗 GPT가 만들어 준 판례를 이용해서 변론서를 제출했던 변호사가 법원으로부터 벌금형을 받는 일도 있었습니다.
그런 일들이 알려지면서 지금은 이런 문제가 많이 줄었고 인공 지능 기술 역시 빠르게 발전하면서 완벽하지는 않지만 이런 문제를 없애기 위해 노력하고 있습니다. 하지만 사회의 여러 곳에서는 아직도 “챗 GPT에서 물어보니” 하면서 마치 그것이 정확한 정보를 주는 도구처럼 생각하는 이들이 많습니다. 어느 정치인이 챗 GPT가 그럴듯하게 연설문을 만들더라는 이야기를 하는 것도 보았습니다.
이런 모습을 보면서 90년대 처음 워드 프로세서가 나왔을 무렵 들었던 이야기가 떠올랐습니다. 그때 어느 프로그래머가 저작권 침해 문제로 소송을 제기하고 그 과정에서 경찰에 가서 진술을 하는데 경찰이 소송 상대방의 말을 더 믿으면서 그 근거로 제시하던 것이 워드 프로세서로 깨끗하게 인쇄해서 제출한 답변서였다고 합니다. 손으로 쓴 것이 아니라 “컴퓨터”에 입력해서 프린터로 출력을 한 것이니 “정확하고 믿을 수 있다”는 것이 경찰의 판단 기준이었다고 합니다. 물론 지금은 이런 일이 거의 농담처럼 들리겠지만 새로운 기술에 대해 우리 인간이 생각하고 행동하는 방식의 기본은 크게 달라지지 않았다는 것을 말씀드리고 싶습니다.
인공 지능이 그럴듯하게 이야기하는 정보를 보면서 자신이 모르는 것을 이야기해 주니 그 정보의 진위나 근거를 당장 확인할 수 없는 사람들은 그저 믿게 됩니다. 그리고 그 정보가 컴퓨터라는 “과학적”인 기계가 제공해 주는 “정확”한 정보라고 확신하게 되는 것이지요. 그래서 저는 제가 모르는 것은 챗 GPT에 묻지 않습니다. 제가 챗 GPT나 기타 LLM을 이용하는 방법은 따로 한 번 이야기해보겠습니다만 저는 챗 GPT가 토해내는 말들에 대해 제가 비판적으로 판단할 수 있는 것들만 묻습니다.
인공 지능에 대한 이야기를 주위의 동료들과 하면서 했던 이야기 중 한 가지는 “이미 말이 마구간 밖으로 뛰쳐나왔다(The horse is already out of the barn.)”라는 표현이었습니다. 공개된 인공 지능과 그것의 발전을 멈추기는 이미 늦었다고 그렇다면 마구간 밖에 있는 말을 어떻게 해서 든 길들일 수 있도록 노력을 해야 한다는 것이지요. 여기서 생각할 것은 챗 GPT와 같은 인공 지능은 “말"이라는 사실, 달리 이야기하자면 “도구"라는 사실입니다.
우리 인간이 가진 특성 중에는 사물 속에서 인간과 비슷한 것에 먼저 주목한다는 점이 있습니다. 그래서 사람의 얼굴을 닮은 바위며 눈 녹은 벌판의 모습, 심지어 토스트기에서 사람의 얼굴 모양으로 타버린 식빵 까지도 호기심의 대상이 되는 것이지요. 의인화(Anthromorphism)라고도 말하는 이 특성에 따르면 우리는 인간이 아닌 것에 대해서도 인간과 가까운 대상이거나 인간처럼 행동한다면 하나의 인간처럼 생각하고 대하려는 태도를 가지고 있습니다. 그래서 마치 사람처럼 대화를 통해 답을 제공하는 인공 지능을 의인하하여 이것을 지능을 가진 하나의 인간으로 대하려 하는 것은 어찌 보면 당연한 일일수도 있겠습니다. 하지만 그럴수록 우리는 이것이 도구라는 사실을 더욱더 명심해야 합니다.
달리 생각한다면 “인간 지능(Human Intelligence)"아 만들어 낸 “인공 지능(Artificial Intelligence)”인데 우리는 아직 인간 지능, 그리고 그 활동이 일어나는 뇌에 대해서 극히 초보적인 지식만을 가지고 있습니다. 그런 의미에서 본다면 우리는 아직 ‘인간’이 무엇인지 혹은 ‘지능’이 무엇이지에 대해서도 잘 모르고 있습니다. 그리고 인공 “지능"을 “지능”이라고 부를 수 있을지도 의문입니다. 결국 이것은 우리가 인공 지능이라고 부르는 것이 하나의 “도구”일뿐이라는 사실을 말해주고 있습니다.
그리고 이 도구에 대해서는 우리가 모르는 것이 아직 너무 많습니다. 분명 어떤 목적을 가지고 사람에 의해 만들어진 도구이지만 이 도구가 만들어내는 결과물에 대해서는 만든 사람들조차 왜 그런 결과가 나왔는지 설명하기가 쉽지 않다고 합니다. 적어도 아직까지는 그렇습니다. 아울러 우리는 이 도구가 만들어낸 결과물을 어떻게 그리고 어떤 목적에 사용해야 할는지, 그리고 그것들이 우리 미래 사회에 미칠 영향에 대해 아직 잘 알지 못합니다. 이것은 마치 “망치"라는 도구를 손에 들고 못을 박는데 써야 할지 아니면 종이를 자르는데 써야 할지 고민하고 있는 상황과 마찬가지가 아닐까 싶습니다.
처음 자동차를 발명한 사람들은 자동차가 가져 올 모든 문제점들을 생각하지 못했을 것입니다. 무수한 사람들의 희생을 보면서 자동차라는 도구를 개선시켜 지금 정도라도 안전한 도구로 만들었겠지요. 사고가 났을 때 사람을 덜 다치게 하고, 사고를 예방하기 위해 자동차와 관련된 법을 만들고 면허 제도를 시작했으며 또 법을 어기는 사람에게는 그에 따른 대가를 치르게 하는 등 자동차가 일으키는 문제 때문에 사람이 희생되고 그것을 줄이기 위해 고민하고 고쳐가면서 지금처럼 어느 정도 안전한 자동차가 만들어졌습니다. 그리고 아직도 그 과정은 아직도 계속해서 이어지고 있습니다.
인공 지능도 마찬가지가 아닐까요? 자동차와는 다른 과정을 거치겠지만 이것 역시 시행착오를 거치면서 서서히 우리 인간을 위한 안전한 도구가 되지 않을까요? 우리가 현명하다면 그 과정에서 생기는 희생자를 최소한으로 줄이기 위해 노력해야 할 겁니다. 그리고 그것을 위해서 무엇보다 중요한 것은 인공 지능이 작동하는 방식을 이해하고 그것의 한계와 부작용에 대해 고민하고 토론하면서 그것을 현명하게 이용할 수 있도록 우리 자신을 교육하는 일이 아닐까 싶습니다. 무조건 이 도구를 맹신하거나 배척할 것이 아니라 우리가 이 도구를 어떤 목적에 사용할 수 있을는지를 고민해야 하겠지요.
학교에 제출할 리포트를 쓰기 위해 인공 지능을 이용하는 학생의 예를 들어 보지요. 이 학생이 인공 지능을 사용하는 목적은 무엇일까요? 단순히 리포트를 제 날짜에 제출하고 학점을 받는 것이 목적이라면 인공 지능은 유용한 도구일 수도 있겠습니다. 하지만 리포트를 제출하는 것만이 이 학생이 수업을 듣는 목적일까요? 리포트를 쓰기 위해 자료를 모아서 읽고 그것들에 대해 생각하고 그 생각을 체계적으로 정리해서 글로 옮기는 과정을 통해서 쌓이는 정신 활동의 경험과 훈련은 어떻습니까? 물론 제가 이상적인 이야기를 한다고 하실는지 모르겠습니다만 만일 이러한 정신 활동과 그로 인해 얻어지는 학생들의 경험이 수업과 리포트의 목적이라면 인공 지능을 사용하는 이 학생은 근본적인 교육의 목적을 스스로 방해하는 행동을 하는 것이겠지요.
직장에서 업무를 위해 사용하는 것도 마찬가지입니다. 마감 전에 상사의 질책을 받지 않으려 챗 GPT 가 만든 문서를 제출하는 것이 목적일까요? 아니면 그 문서가 진정으로 그 직장의 이익에 도움이 되도록 하는 것이 목적일까요? 사람마다 목적에 대한 생각이 다르고 그것을 달성하기 위해 사용하는 도구도 다르겠지요. 결국 개인의 선택에 달린 일이고 당연히 그 선택으로 생기는 결과는 자신이 책임을 져야 합니다. 하지만 그 선택이 다른 이들에게도 영향을 미친다면 사용하는 도구와 목적에 대한 우리의 생각도 달라져야 할 것입니다. 그리고 필요하다면 사회 전반을 아우르는 규칙을 고려해 볼 수도 있을 것입니다.
적절한 비유가 될는지는 모르겠지만 인공 지능에 대해 생각할 때마다 저는 90년대 초반에 발표되었던 영화 어퓨굿맨(A few good man)에서 잭 니콜슨이 소리치던, “너는 진실을 감당할 수 없어! (You can't handle the truth!)”라는 대사를 떠올립니다.. 어쩌면 우리는 아직 인공 지능을 감당할 준비가 되어 있지 않을는지도 모릅니다. 하지만 인공 지능은 이미 우리 사회에 던져졌고 우리는 물론 앞으로 자라날 세대들은 그 속에서 살아가야 합니다. 지금 우리가 이에 대해 신중하게 생각하고 느리지만 안전한 방식으로 이것을 받아들여야 할 이유가 거기에 있습니다.