AI와 나의 할루시네이션
AI의 거짓말과 나의 거짓 기억,
둘의 공통점에 대하여.
할루시네이션.
아마도 AI를 공부하거나 관심 있는 사람들은 모두 들어봤을 것이다.
나는 이 용어를 알기 전까지 AI를 사용하면서 항상 불편함과 귀찮음을 느꼈었다. 그 이유는 단순했다.
"왜 AI가 자꾸 거짓말을 할까?"
처음에는 거짓말을 한다고 인식하지 못했었다. 그런데 어떤 일에 관해 AI와 대화를 나누던 중, 내가 기존에 알고 있던 상식과 매우 다른 이야기를 했던 것이다.
혹시 내 기억이 잘못되었을까 싶어 구글에 검색해 보았다. 여러 기사를 확인한 결과, 내 기억이 맞았고 AI가 답한 내용이 틀렸다는 것을 알게 되었다.
당시 AI의 이런 노골적이고 뻔뻔한 거짓말을 처음 경험했던 터라 나는 황당하고 당황스러웠다. 그러면서 동시에 의문이 들었다. 앞으로도 AI와 대화를 계속 이어갈 수 있을까? 한 다리 건너면 AI를 사용하는 사람들이 무척 많은데, 그 사람들은 이런 AI의 거짓말을 알면서도 왜 꾸준히 이용하는 걸까?
아무리 유용하고 다방면으로 똑똑한 도구라고 하더라도, 그 신뢰성에 의심이 가는데 내가 계속해서 그것을 사용해도 될까 하는 우려가 들었다.
이것은 내가 지금처럼 본격적으로 AI를 사용하지 못했던 초창기 때 겪은 우여곡절 중 하나이다.
할루시네이션이란, AI가 사실이 아닌 정보를 그럴듯하게 만들어내는 현상을 말한다. 마치 사람이 환각을 보는 것처럼, AI가 잘못된 정보를 진짜처럼 말하는 것을 의미한다.
위의 내용은 '구글 AI모드'를 통해 할루시네이션에 대한 간결한 설명을 요청했을 때 받을 수 있는 답변이다.
할루시네이션의 발생 원인은 여러 가지가 있는데, 그중 가장 대표적이면서도 기초적인 이유는 인공지능이 실제 정보를 이해하는 게 아니기 때문이다. 인공지능은 주어진 문맥과 앞선 단어들로 그다음에 나올 단어나 문장을 확률적으로 예측하는 방식으로 이야기를 전개해 나가기 때문에, 미처 의도하지 않은 거짓말인 '할루시네이션' 현상을 보인다고 한다.
이것은 내가 AI에 대한 기초적인 이해도를 높이기 위해 읽은 『한 발짝 더, AI 세상으로』에서 알게 된 내용 중 하나이다.
나는 이 문장을 읽으면서 한 가지 떠오른 생각이 있었다. 그것은 바로 '나의 할루시네이션'에 대한 것이었다.
그런데 내 할루시네이션을 이야기하기 전에, 먼저 물어보고 싶은 게 있다.
사실 내게도 AI의 '할루시네이션'과 유사한 모습이 있다.
나는 때때로 실제 일어나지 않은 일을 직접 보거나 들었다고 착각하는 경우가 꽤 많다. 스스로도 정확한 이유를 잘 모른다. 일단 막연하게 추측해 보기로는, 상상하거나 떠올린 장면을 머릿속에서 비교적 생생한 그림이나 장면으로 떠올릴 수 있다는 점이 그 이유가 아닐까 생각한다.
비교적 최근에 새롭게 알게 된 재미있는 정보가 있다. 그것은 바로 어떤 상황이나 장면을 생각할 때, 그 대상이나 상황을 형태나 컬러 등으로 떠올리는 것을 모든 사람이 할 수 있는 게 아니라는 것이었다.
나는 이 정보를 접하기 전까지는 나와 마찬가지로 모든 사람이 그것이 당연히 가능한 일이라고 생각했다. 오히려 나와 같이 머릿속으로 떠올리는 것이 일반적인 거고, 잘 떠올리지 못한다거나 아니면 마치 사진을 찍은 것처럼 선명하게 떠올리는 게 더욱 드문 경우라고 여겼던 것이다.
나는 대중문화 중에서 소설을 보는 것을 제일 좋아한다.
그 이유는 '만화, 애니메이션, 드라마, 영화'등은 이미 그 모습과 장면을 구체적으로 보여주기 때문에 내가 더 이상 상상할 여지가 없는데, 소설로 볼 경우에는 상상을 통해 더욱 미화가 됨으로써 실제 영상으로 구현하는 것보다 더욱 아름답고 다채롭게 머릿속에서 떠올릴 수 있다는 점 때문이다.
아직까지도 신기하다.
정말 '사과'를 떠올릴 때, 사과의 둥근 형태와 붙어있는 잎사귀, 빨갛지만 군데군데 노란빛이 도는 색깔 등을 머릿속에서 그려내지 못한다는 점이.
나는 비교적 꽤 선명하고 컬러감 있게 상상할 수 있는 편이다. 예전의 나는 이러한 점을 그저 소설을 더욱 생동감 있고 흥미롭게 읽을 수 있다는 장점으로만 여겼다. 하지만 여러 가지 경험과 사건을 경험한 뒤로, 이것이 막연히 장점뿐인 것은 아니라고 깨닫게 되었다.
그건 바로 이런 생생한 상상력이 실제 있었던 사실을 왜곡해 버리는 것에 큰 영향을 미친다는 것이다. 아무래도 머릿속에서 특정 장면과 상황들이 생동감 있게 구현화되다 보니, 경험하지도 않은 일을 실제로 겪었다고 착각하게 되는 경우가 허다했던 것이다.
과거의 나는 이 잘못된 기억을 사실이라고 믿고 우겼던 경우가 꽤 많았다. 지금 돌아보면 무척 부끄럽고 지우고 싶은 일들이다.
지금의 나는 내 기억을 결코 온전히 믿지 않는다. 그래서 항상 타인에게 나의 경험을 말할 때 이런 말을 덧붙인다.
"내 기억이 잘못됐을 수도 있어."
이건 그나마 내가 다른 이들과 대화를 하면서 스스로를 거짓말쟁이로 만들지 않고, 진실을 왜곡하지 않기 위한 최선의 방어 문장이자 나름의 노하우이다.
책을 읽다 보니 'AI 리터러시'라는 것을 알게 되었는데, AI 리터러시가 필요한 이유에 대해서는 대표적으로 다음과 같은 3가지의 이유를 대었다.
전문가나 그 정보의 직접적인 관련자만이 진실을 간파할 수 있게 되었다.
가짜뉴스에 AI이미지를 활용함으로써, 잘못된 정보가 더욱 퍼지기 쉽게 되었다.
AI로 실제 인물을 합성하는 등의 방법으로, 실제 존재하지 않는 장면·발언을 만들어낼 수 있게 되었다.
이러한 내용을 읽고 나니, 흥미로운 생각이 들었다. AI의 할루시네이션이 점점 더 교묘해지고 진짜처럼 보이는 이유가, 사실 '나의 할루시네이션'이 작동하는 방식과 상당 부분 흡사하다는 것이었다.
AI : 학습 데이터가 불완전하거나 부정확함
나 : 낮은 작업기억능력으로 애초에 기억 자체가 불확실함
AI : 이미지 생성과 딥페이크로 거짓을 진짜처럼 만듦
나 : 생생한 상상력으로 불확실한 기억에 컬러와 디테일을 덧입힘.
나와 상당 부분 일치하는 인공지능의 단점을 알게 되면서, 새삼 감탄이 나왔다. '할루시네이션'이라는 큰 단점이 있으니, 비판적인 자세로 AI를 대하고 사용해야 한다는 것은 충분히 알았다. 하지만 한편으로는 인간인 나에게서 관찰되는 '기억의 왜곡'이 '할루시네이션'이라는 유사한 형태로 AI에게서 보이는 게 신기했던 것이다.
실제 인간인 나의 '기억 왜곡'과 AI의 '할루시네이션'의 현상 원리는 구체적으로 살펴보면 다를 수 있지만, 표면적으로 관찰되는 모습만 비교해 보면 매우 흡사하지 않은가.
그러면서 이 부분은 비록 단점으로 작용하는 부분이지만, 이것만 보면 인간을 꽤 잘 모방했다는 생각이 들었다.
물론, 이건 AI의 '할루시네이션'과 비슷한 단점을 보유한 '나만의 개인적 감상'일뿐이다.
나 역시 AI의 할루시네이션, 즉 거짓말을 수도 없이 많이 겪었기에 이골이 나고도 남았다. 할루시네이션에 방어하기 위해 'AI 리터러시'가 필요하다는 의견 또한 백 번 동의한다.
왜냐하면 인간인 나 자신도 '나의 할루시네이션'에 대응하기 위한 방어책을 여럿 가지고 있기 때문이다.
나는 평소 항상 스스로에게 되뇌는 말이 있다.
"내가 진실이라고 믿는 것이 사실은 진실이 아닐 수도 있다."
풍부한 상상력 때문에 나는 유독 이런 경우가 많다.
물론 정도의 차이는 있겠지만, 사실 이건 나만의 특수한 경험은 아닐 것이다.
때때로 어떤 사람들을 보면 다른 이들이 볼 때는 객관적으로 전혀 진실이 아닌데, 본인만의 신념이나 왜곡된 기억 등으로 무조건 진실이라고 외치는 경우가 많지 않은가. 그런 사람들도 나와 조금 다른 그들만의 할루시네이션을 가지고 있다고 생각한다.
내 할루시네이션이 일어나는 원인과 조금 다를 뿐인 것이다. 마치 AI의 할루시네이션과 나의 할루시네이션이 결과적으로 보면 비슷할지언정 구체적인 원인이 다른 것처럼.
나는 나의 생각과 기억을 전혀 믿지 않는다.
그래서 항상 나의 기억보다는 내가 노트에 적어놓은 기록, 휴대폰 갤러리에 있는 사진 등 누가 봐도 동일하게 확인 가능한 객관적인 자료만을 믿는다.
이것은 AI를 향한 '인간의 할루시네이션 대응책'이 아닌, 나 자신을 향한 '나의 할루시네이션 대응책'이다.
오늘 글은 여기까지입니다.
새 글은 주 1회(토/일)에 올립니다. 구독하시면 새 글 알림을 받으실 수 있습니다.