할루시네이션을 바라보는 시선
한때 이런 농담이 있었다. '거짓말'이라는 노래 제목을 듣고 god가 떠오르면 옛날 사람, 빅뱅이 떠오르면 요즘 사람이라는 이야기. 이제 god도 빅뱅도 '옛날'을 상징하는 가수가 되었지만, 거짓말은 여전히 우리 주위를 맴돌고 있다.
거짓말은 사실이 아닌 정보를 타인에게 전달하는 행위이다. 특히 아이들은 거짓말을 자주 한다. 다음 거짓말 사례들을 보며, 그나마 어느 거짓말이 용인 가능한 범위인지 생각해 보자.
선생님 : 영국 최초의 여왕은 누구인가요?
철수 : 엘리자베스 여왕이요!
선생님 : 영희야 숙제했어?
영희 : 어제 몸이 아파서 숙제 못했어요 ㅠㅠ (사실 안 아팠음)
선생님 : 바둑아, 누가 친구를 때렸어?
바둑이 : 철수가요! 철수는 매일 친구 때려요! (사실 바둑이가 때림)
위 세 가지 유형의 거짓말의 미묘한 뉘앙스 차이는 무엇일까?
철수가 한 거짓말은 아이들이 자주 하는 착각에서 비롯된 거짓말이다. 철수는 영국의 최초 여왕을 엘리자베스라 생각하고 있었기에 자신 있게 대답을 했다. 하지만 영국 최초의 여왕은 엘리자베스 1세 이전의 '블러디 메리' 메리 1세이다. 철수의 세상에서는 거짓이 아니지만, 우리 사회에서는 거짓인 내용을 이야기한 철수. 이러한 유형의 거짓말은 악의보다는 착각 혹은 무지에서 비롯된다 할 수 있다.
영희는 변명을 위한 거짓말을 했다. 책임에서 벗어나기 위해서, 혹은 두려움에서 비롯된 것으로 역시나 아이들이 자주 하는 거짓말 유형이다.
마지막 바둑이의 거짓말은 조금 더 심각하다. 다른 아이를 곤란하게 하기 위해 허위 사실을 퍼트리는 행위는 타인에게 해를 끼치기 위해 행해진다. 이를 통해 사회적 관계에서 문제가 발생하고, 감정적 충돌까지 발생할 수 있다. 역시 아이들이 자주 하는 거짓말이다.
여기 거짓말로 곤욕을 치르고 있는 또 다른 아이(AI), 인공지능이 있다. 2022년 말 챗GPT 출시 이후 현재까지 사회에 큰 반향을 일으키고 있는 생성형 인공지능이지만 치명적인 약점이 있다. 바로 할루시네이션(hallucination)이라 부르는 환각 현상이 바로 그것이다.
할루시네이션이라는 조금은 낯선 영단어는 2023년 전 세계를 강타하였고, 케임브리지 사전은 2023년의 단어로 선정하기에 이른다. 챗GPT와 같은 LLM(대형언어모델)이 태생적으로 가질 수밖에 없는 문제인 할루시네이션은 생성형 인공지능이 질문의 맥락과 관련이 없거나 사실이 아닌 내용을 답처럼 내놓는 현상을 의미한다. 이와 관련해서는 브런치에 올렸던 예전 글을 참고하자. (링크 : 이제 세종대왕은 맥북을 안 던진다)
인공지능 관련 학계 및 산업계는 할루시네이션을 놓고 연일 공방 중이다. 누구는 이를 제거하거나 감소시킬 수 있다고 하고, 누구는 현재의 LLM 방식은 할루시네이션 문제를 해결하지 못할 것이라고 한다. 한 가지 확실한 것은 사람이 만든 LLM이지만 학습 원리는 여전히 베일에 쌓여있기에 문제 해결이 쉽지 않다는 점이다.
그런데 여기서 드는 의문 하나.
생성형 인공지능이 하는 거짓말이 과연 문제일까?
망치를 든 철학자 프리드리히 니체는 '진실'이라는 것 역시 깨부수려 하였다. 1873년 그의 에세이 <비도덕적 의미에서의 진리와 거짓에 대하여>에서, 니체는 인간이 거짓말로 진실을 창조했다고 주장하며, 신화, 은유, 시와 같은 것들을 통해 세상에 대한 진실을 창조한다고 이야기한다. 우리가 알고 있던 진실 혹은 진리가 현실을 객관적으로 반영하지 않고, 거짓말로 만들어졌다는 충격적인 주장이다.
니체는 우리의 언어가 실제보다는 우리의 주관적 경험과 해석을 반영한다고 이야기한다. 이러한 관점에서, 진리는 궁극적으로 인간의 욕구와 창조성의 산물이며, 모든 인식은 '창조적 거짓말'을 어느 정도 반영하고 있다. 이렇듯 니체는 현실을 해석하는 데 있어 인간의 주관성과 창조력을 강조하고 있다.
그는 언급한 방식대로 무의식적으로 그리고 수백 년 동안의 습관에 따라 거짓말을 한다. 인간은 바로 이 무의식성을 통해, 즉 망각을 통해 진리의 감정에 이르는 것이다.
- 프리드리히 니체, <비도덕적 의미에서의 진리와 거짓에 관하여>, 니체 전집 3권, 이진우 역, 책세상 중
니체의 의견을 수용하자면 생성형 인공지능의 할루시네이션 역시 조금은 다른 시각에서 볼 수 있다. 인공지능 역시 현실을 해석하고 재창조하는 과정에서 인간과 같이 '거짓말'을 사용하는 경우들이 있다. 인간의 창조적 거짓말이 주관적 인식과 해석의 결과물이라면, 인공지능의 할루시네이션은 데이터를 기반으로 한 새로운 해석과 창조물로 볼 수 없을까?
사실 니체까지 가지 않더라도 인공지능이 하는 거짓말을 지적하는 것은 모든 사람들에게 부끄러운 일이 될 수 있다. 미국의 Southern California 대학의 심리학자인 Jerry Jellison 교수는 인간이 하루에 약 200회 거짓말을 한다는 연구 결과를 발표하였다. 네덜란드의 암스테르담 대학 연구진은 이와 다르게 인간은 하루에 2번 거짓말을 한다는 결과를 발표하였다. 횟수에 큰 차이는 있지만 결과적으로 인간은 기본적으로 매일 거짓말을 하는 존재이다.
'진실'을 '창조적 거짓말'로 만드는 인간이든, 하루에 여러번 거짓말을 하는 인간이든 거짓말이라는 관념에 자유로울 수 없다. 그런데 인공지능에게 "너 왜 자꾸 거짓말 해"라고 비난하는 것은 정당할까?
어쩌면 인공지능은 거짓말하는 인간의 특성까지 학습한 것은 아닐까?
물론 인공지능의 거짓말을 백프로 옹호할 수는 없다. 니체적 관점에서 인공지능의 거짓 생성은 창조적 진실을 만들어가는 과정으로 볼 수"도" 있지만, 이로 인해 발생하는 윤리적, 사회적 영향에 대한 고민은 필수적이어야 한다.
특히 앞서 거짓말의 사례에서 살펴본 것처럼 인공지능이 철수처럼 자신은 진리라고 믿는 것을 이야기하는 '할루시네이션' 거짓말은 큰 문제가 되지 않는다. 인간이 인공지능이 한 말을 재차 검증하는 것으로 할루시네이션으로 벌어지는 문제는 웬만큼 해결 가능하다.
문제는 인공지능이 더욱 발전하여, 영희와 바둑이처럼 거짓말을 할 때이다. 마치 자의식을 가진 것마냥 자신의 실수를 변명하기 위한 거짓말을 한다거나, 특정 집단을 비난하기 위한 악의적 거짓말을 하게 될 경우 문제는 심각해진다.
현실적으로 인공지능의 모든 거짓말을 없애는 것은 불가능에 가깝다. 그렇다면 이를 책임감 있게 관리하고 윤리적 기준을 설정하는 것이 중요하다. 이것이 인공지능을 만든 인간에게 주어진 몫이다.
인공지능의 할루시네이션을 비난하고 문제 삼는 논문과 기사를 보며, 과연 할루시네이션이 잘못된 것인가 하는 생각이 들어 글을 쓰게 되었습니다. 인간과 기계는 인간 중심의 존재론적 관점에서 넘을 수 없는 벽이 있기에 이 글이 불편하게 느껴질 분들도 있겟지만, 아무도 변호해주지 않는 인공지능을 변호한다는 생각으로 정리하였음을 말씀드립니다.