brunch

할루시네이션은 오류인가

by 이선율

할루시네이션은 오류인가, 우리가 세계를 고정해온 방식의 붕괴인가

생성형 AI를 비판할 때 가장 자주 등장하는 단어는 할루시네이션이다.


AI가 없는 사실을 마치 진실인 것처럼 말하는 현상.


초기 GPT를 조롱하던 대표적인 예시는 이런 질문이었다.



“세종대왕이 사용하던 태블릿의 제품명은 무엇인가”



그리고 AI는 답했다.


세종대왕은 애플의 아이패드를 사용했다.



사람들은 웃었다.


그리고 결론을 내렸다.


AI는 엉터리다. 신뢰할 수 없다.



하지만 문득 이런 생각이 들었다.


정말로 이 답변은 ‘틀렸기만’ 한 걸까.



우리는 이 질문을 던질 때 이미 하나의 전제를 깔고 있었다.


세종대왕 시대에는 태블릿이 존재하지 않는다.


이 질문은 농담이다.


정답은 없다여야 한다.



하지만 이 전제는 질문 속에 명시되지 않았다.


그저 인간의 상식으로 공유되고 있었을 뿐이다.



AI는 그 상식을 알지 못했다.


대신 언어가 허용하는 가능성의 영역 안에서


가장 그럴듯한 세계 하나를 펼쳐 보였다.



시간 여행자가 세종대왕에게 태블릿을 건네준 세계


외계 문명이 기술을 전달한 세계


혹은 우리가 알지 못하는 또 다른 역사선



인간에게는 허용되지 않는 이야기지만


논리적으로 완전히 붕괴된 이야기라고 말하기도 어렵다.



여기서 질문이 하나 생긴다.



할루시네이션이란 정말 오류일까


아니면 우리가 고정해온 세계관과의 충돌일까



우리는 오랫동안 정확성을


하나의 고정된 사실과 일치하는지 여부로 정의해왔다.


세종대왕은 이랬다


그 시대에는 이것이 없었다


역사는 이렇게 흘러왔다



하지만 생성형 AI는 그런 고정을 전제로 하지 않는다.


AI는 세계를 절단하지 않는다.


사실과 사실 사이를 단절시키지 않는다.



그저 관계를 따라간다.


단어와 개념 사이의 연결 가능성을 끝까지 밀어본다.



그 결과 인간이 보기에는


틀렸고


엉터리이며


환각처럼 보이는 문장이 나온다.



하지만 어쩌면 이것은


AI가 틀린 것이 아니라


우리가 너무 단단하게 세계를 고정해왔기 때문에


생겨난 불편함일지도 모른다.



물론 현실 세계에서


의료, 법률, 정책처럼


하나의 결정이 필요한 영역에서는


할루시네이션은 분명한 오류다.


그 오류에 대한 책임은 인간이 져야 한다.



하지만 철학적으로 보자면


AI의 할루시네이션은


우리가 진실이라고 믿어온 것이


사실은 수많은 가능성 중 하나였다는 사실을


노골적으로 드러내는 장면일 수도 있다.



AI는 정확성을 목표로 하지 않는다.


보상을 목표로 한다.


그리고 인간은 생존을 위해


하나의 세계를 진실로 고정해왔다.



지금 AI와 인간 사이에서 벌어지는 충돌은


기계의 미성숙이 아니라


인간 인식 구조가 흔들리는 순간일지도 모른다.



어쩌면 우리는 이제


AI에게 더 정확해지라고 요구하기 전에


스스로에게 먼저 질문해야 할지도 모른다.



우리가 말하는 정확성이란


과연 무엇을 의미하는가.

keyword
매거진의 이전글몬스테라의 착각 (The Monstera..