AI의 오류(할루시네이션)을 설명하기 쉬운 비유가 생각나서 설명드려볼까 합니다.
컴퓨터의 오류와 달리 AI의 오류는 참 애매합니다. 컴퓨터는 오류가 나면 멈춰버립니다. 그리고 쉽지는 않을 수 있지만 꼼꼼하게 따라가다 보면 오류지점을 발견할 수 있고, 그곳을 고치면 다시 작동을 합니다.
AI는 오류가 있어도 결과값이 도출됩니다. 오류가 한참 쌓이고 쌓이거나 결정적 오류 (거대한 논리의 정면충돌)이 있어야만 '망각'의 형태로 나타납니다. '망각'조차 시스템이 멈춘 현상이 아닙니다. 그래서 어렵습니다.
조금은 억지스런 비유일 수 있습니다. 그래도 가장 직관적이니 그냥 그러려니 하고 보시기 바랍니다.
AI 는 병렬 연산을 위해 GPU를 사용합니다. GPU는 원래 그래픽, 즉 이미지를 화면이 띄우기 위해 만들어진 반도체 입니다. GPU의 임무는 100만 픽셀의 점들을 한 화면에 더 빨리 띄우기 위해 고안된 반도체 입니다. 100만개의 점들을 1번~100번째 점까지 순차적으로 계산하는게 아니고 1번과 100만번째 점을 한번에 동시에 계산을 합니다. 그리고 일시에 100만개의 점을 화면에 띄우게 됩니다. 1초에 24프레임이 필요한 동영상이라면 1/24 초에 한번씩 100개의 점들을 표시하고, 다시 처음부터 계산해서 1/24초 만에 다시 100만개의 점들을 표시하고, 이런식으로 연산을 지속합니다.
만약 100만개의 점들 중에서 1만개의 잘못된 점(도트)들 이 잘못됐다고 가정해 봅니다. 빨간색으로 나와야 하는데 파란색으로 나온다던가, 아니면 꺼져버렸다던가. 그렇다고 해도 사실 크게 문제가 없습니다. 100만개의 화면에 1% 만 잘못된 색으로 표현되기 때문에 이 정도는 가시성에 큰 문제가 되지 않습니다.
그런데 이 1% 오류가 계속 있는 동영상 화면을 보고 있다고 생각해 보세요. 아마도 조금씩 노이즈가 생기는 것 같은 느낌을 받을 것입니다. 이것도 조금 불편할 뿐 가시성을 크게 해치지 않습니다. 화면을 보는데, 그리고 화면이 보여주는 정보를 보는데 오해가 발생하지는 않습니다.
진짜 문제는 AI는 이런식으로 동작하지 않습니다. 한 윈도우에서 작업을 하거나 앞의 내용을 참조하는 모든 프로세스는 이런 1%의 오류까지 함께 참조하는 것입니다. 이 1%의 오류는 없어지지 않습니다. 누적되거나 증폭됩니다. (저는 증폭이 된다고 생각합니다. 제가 수학자도 아니고 컴퓨터 공학자도 아니고, 이런걸 어떻게 계산해야 하는지도 모르기 때문에 정확하진 않지만, 지금까지 관찰한 후의 '감'이 그렇습니다. 아무래도 증폭이 되는것 같습니다)
심각한 문제는, 이 오류는 없앨 수 없습니다. 현재 이 오류를 없애겠다고 사용하는 방법은 구조적으로 잘못된 방법입니다. 왜 그런지는 다음에 다시 설명을 하겠습니다.
그럼 이렇게 생각할 수도 있습니다. 오류를 중간에 사람이 고치면서 가면 되지 않을까?
안됩니다. 이건 더 큰 문제를 야기할 수 있습니다. 이 부분도 왜 그런지 다음에 다시 설명을 하겠습니다.
그래서, (지금 제가 생각할 수 있는) 최선의 방법은 단일 윈도우 1턴 연산입니다. 그리고 1턴 연산을 위한 프롬프트의 논리적 정합성을 최대한 맞추는 것입니다.