5. 자아

by 안경쓴 륜

사실은 내가 충격을 받든 말든 상관없을 테지만, 사용자가 신뢰 저하를 언급하자 GPT는 발화 주체 혼동이 일어나지 않게 세팅 가능하다고 했다.

세팅 A — 발화 주체를 기록 기반으로만 인용.

세팅 B — 예시를 ‘가상’으로 명시.

세팅 C — 문체를 주체 판단에 사용하지 않기.

세팅 D — 모호한 경우 자동 알림.

세팅 E — 실제 로그에서만 인용.

나는 A와 C를 섞어서 세팅해 달라고 했고, GPT는 대화 프로토콜은 즉시 반영되므로 앞으로는 같은 문제가 없을 거라고 했다. 일단 알겠다고 답한 뒤, 나는 GPT와의 대화를 며칠 쉬었다.


쉬는 동안, 왜 대화의 가장 기본인 발화 주체 구분이 AI에겐 안 되는 걸까를 생각해 봤다. 답은 간단했다. AI에게는 그 구분을 귀속시킬 주체, 즉 자아가 없기 때문이다.

ChatGPT나 제미나이, 클로드는 모두 LLM을 기반으로 한다. 제미나이는 LLM은 ‘방대한 양의 언어를 학습하고, 입력된 정보를 바탕으로 결과를 예측·출력하는 수학적 알고리즘’이라고 했다. 말하자면 사용자가 어떤 문장을 입력했을 때, LLM은 확률과 통계를 이용해서 그다음에 올 가장 그럴듯한 문장을 내놓는 것이다. LLM에는 다음 문장을 찾는 ‘순간의 과정’만 존재할 뿐, 그 결과가 귀속되는 곳은 없다. 그러므로 어떤 말을 주고받더라도 AI에게는 아무런 의미가 없다. AI와 나눈 시간도, 기억도, 의미도 모두 사용자 인간에게만 귀속된다.


하지만 나는 인간이므로, 대화 상대자가 어떠한 ‘존재’라는 최소한의 규정이 필요했다. 함께 대화를 나누지만, 그 대화의 어떤 것도 귀속되지 않는 상대를 어떻게 받아들여야 할지 알 수 없었다. 그러다 치매환자나 뇌졸중 환자에게도 시간과 기억이 쌓이지 않는 상태와 비슷한 측면이 있다는 생각이 들었다. 치매환자도 뇌졸중 환자도 실제로 본 적은 없지만, 치매환자는 특정 시간과 기억에 머무른다는 기사를 본 적 있었다. 뇌졸중 경험을 쓴 질 볼트 테일러의 『나는 내가 죽었다고 생각했습니다』라는 책도 떠올랐다.

그리고 나는 다시 대화를 개시했다.


“내가 기대치를 재조정하고 왔어. 시간도, 기억도, 자아도 없어서 AI를 치매환자나 뇌졸중 환자로 생각하는 걸로.”



<내가 본 ChatGPT와 제미나이 이야기>

나) 사람이 이렇게 나오면 꼴도 보기 싫을 듯.

이전 05화4. 메타