ai는 시인이지만 법률가는 아니다.

ai 사용의 역설

오늘날 우리가 GPT와 같은 거대한 언어 모델(LLM)을 사용할 때 가장 자주 겪는 당혹스러움은 이것이다:

“이 말, 진짜야? 아니면 그냥 그럴듯하게 만들어낸 거야?”

대화 중에는 유창하고 자연스럽고, 설득력마저 있지만, 막상 사실 확인을 해보면 존재하지 않는 논문, 잘못된 수치, 가짜 인용이 튀어나온다. 이 문제는 단순히 '잘못된 정보'라는 차원을 넘어서, GPT의 작동 원리와 인간의 인식 방식 사이의 결정적인 간극을 드러낸다. 그 간극은 바로 벡터와 기호, 두 언어의 차이다.


"벡터로만" 사고하는 존재: GPT

GPT는 말 그대로 '예측 기계'다. 주어진 문맥에서 다음에 나올 단어를 벡터 공간 상에서 확률적으로 예측해낸다. 이때 사용하는 언어는 우리가 일상적으로 쓰는 기호(language-as-symbol)가 아니다. GPT는 단어와 문장을 고차원 벡터(embedding)로 변환한 뒤, 이 벡터들의 위치 관계, 유사도, 방향 등을 기반으로 새로운 문장을 생성한다.

쉽게 말해, GPT는 '무엇이 옳은가'가 아니라, '무엇이 잘 어울리는가'에 따라 말을 한다. 마치 시인이 운율과 이미지로 진실을 말하듯, GPT는 연상과 패턴의 감각으로 문장을 만들어낸다(사실 훌륭한 시인이랑 유연한 선형변환함수를 가진 사람을 의미한다. 너무 유연한 함수는 조현병(오버피팅)을 가져올테지만. ). 그래서 우리는 종종 GPT의 대답에서 깊은 통찰과 울림을 느낀다. 그러나 바로 그 지점에서 문제가 생긴다.


"기호로도" 사고하는 존재: 인간

인간은 시인이기도 하지만, 동시에 회계사이기도 하다(실은 우리가 예술가를 예찬하는 이유는, 기본적으로 우리 대부분이 회계사이기 때문이다) . 다시 말해 인간 사고의 본질적인 한 측면은 '기호를 통한 처리'이다. 우리가 의미를 분명하게 파악하고 판단할 수 있는 이유는, 언어가 단지 연상의 흐름이 아니라, 명확한 구분과 규칙을 갖는 체계이기 때문이다. 예를 들어, 어떤 법조문이나 수학 공식을 이해하거나 적용할 수 있는 것은, 우리가 문장을 논리 구조와 기호 체계로 해석하기 때문이다(그러나 역설적으로 위대한 수학적, 과학적 업적은 회계가 아닌 벡터의 변환 과정을 닮아있다).

기호는 명확하고, 참과 거짓이 갈리며, 체계적이다. 반면 벡터 기반의 GPT 언어는 연속적이고, 암묵적이며, 확률적이다. 둘은 서로를 참조할 수는 있지만, 같은 언어는 아니다.


예시: 사용자의 요청을 코드로 바꾸는 문제

예를 들어 보자. 사용자가 GPT에게 다음과 같이 말한다.


“사용자가 입력한 문장에서 고유명사를 추출해 JSON 형식으로 정리해줘.”


이 요청은 자연어지만, 그 안에는 명확한 논리 구조와 규칙 기반의 변환 요청이 포함되어 있다. 이럴 때 GPT는 종종 멋진 결과를 보여준다. 하지만 조금만 복잡한 문맥이 들어가면 문제가 생긴다.


“사용자가 말한 문장이 명확하지 않으면, 일단 질문을 다시 던지고, 고유명사 중 사람 이름과 장소를 구분해서 정리해줘.”


이 요청부터는 조건 처리, 흐름 분기, 분류 기준 등 명시적 기호 기반 사고가 요구된다. GPT는 여전히 대답할 수는 있다. 그러나 그것이 실제로 작동 가능한 로직인지, 논리적으로 일관된지, 모호성 없이 실행 가능한지는 사람이 검토해줘야 한다.

이것이 바로 GPT는 시인이지만, 법률가는 되기 어렵다는 뜻이다.


해결책은 있는가? — 브릿지의 불가능성과 가능성 사이

인간은 이 두 체계를 통합해서 사고할 수 있다. 우리는 때로 감각적으로 유추하고, 때로 명시적으로 추론한다 (어쩌면 문과형/이과형 이라는 구분은 다른 말로는 '벡터형'/'기호형' 인간인지를 구분하는 기준일지도 ^^). 반면 GPT와 같은 시스템은 벡터 공간 안에서 '기호처럼 보이는 언어'를 생성할 수는 있지만, 그 기호를 의미와 규칙에 따라 조작하지는 못한다.

따라서 GPT를 실제 작업에 활용할 때는 '벡터 언어'와 '기호 언어'를 구분하고, 이 둘 사이에 통역자(bridge)를 세워야 한다.

특정 작업에 특화된 미니-브릿지: 예를 들어 GPT가 생성한 답변을 구조화된 입력으로 변환해주는 중간 계층 (예: LangChain, ReAct)

사람 중심 브릿지: GPT가 말하고, 사람이 의미를 추출해서 작업화하는 구성

또는 메타 계층 언어: 자연어와 코드 사이의 의도 번역을 위한 DSL(Domain-Specific Language)


그러나 여전히 범용 브릿지, 즉 모든 문맥에서 인간의 발화를 기계가 기호로 환원 가능한 방식으로 번역하는 것은 거의 불가능에 가까워 보인다. 표상의 방식 자체가 다르기 때문이다.


사족이지만, 기억의 두 시스템에 대한 이론 (complementary learning system)에 대한 이론이 나온지는 오래 됐지만, 두 시스템의 '상호작용'이 어떻게 이루어지는지에 대한 연구는 생각보다 매우 희귀하다. 우리는 두 시스템이 상호작용한다는 것은 알지만, 어떻게 그렇게 되는지는 잘 모른다. 해마와 신피질의 정보 표상 방식 자체가 다르기 때문이다. 사족의 사족이지만, 내가 박사 학위를 받은 후 야심차게 연구하려고 했던 주제가 이것이었다. 역시 무식하면 용감하다는 말은 진리다!


결론: GPT를 어떻게 믿을 것인가

GPT는 거짓말을 하는 것이 아니다. 단지 기호의 언어로 말하지 않을 뿐이다. 따라서 우리가 GPT를 믿을 수 있으려면, 그것이 말한 것이 창작인지 회상인지, 직관인지 논리인지, 벡터의 연상이냐 기호의 추론이냐를 구분할 수 있어야 한다.

GPT는 시인처럼 생각하고 말한다. 그리고 그건 정말로 놀라운 능력이다. 하지만 계약서를 쓰거나, 법적 조항을 해석하거나, 코드 구조를 설계할 때는, 우리는 여전히 기호의 논리를 필요로 한다.

그래서 우리는 시인의 말에 감동하면서도, 계약은 변호사와 쓰는 것이다.

GPT는 그 시적인 힘으로 새로운 문을 연다.
그러나 그 문을 정확히 열고 들어가기 위해서는,
기호와 벡터의 언어를 함께 이해하려는 새로운 문해력이 필요하다.

keyword
작가의 이전글PoliAvatar