'너(You)'가 아닌, 시뮬레이터로서 생성 AI
'쿵'
둔탁한 소리가 납니다.
식탁 다리에 부딪힌 로봇청소기가 의자 사이에 끼어, 제자리에서 윙윙 헛바퀴를 돕니다. 그 모습을 보며 저도 모르게 혼잣말이 튀어나옵니다.
"아이고, 아프겠다."
로봇청소기를 보며 안쓰러움을 느끼는 건, 제가 유난히 감상적이어서가 아닙니다.
인지과학과 진화생물학을 넘나들며 인간 의식의 본질을 탐구해 온 미국의 철학자 대니얼 데닛(Daniel Dennett)은 우리가 사물에 인격을 부여하는 태도를 진화적으로 습득한 고도의 생존 전략이라고 설명합니다. 이를 '지향적 태도(Intentional Stance)'라고 합니다. 이해가 어려운 대상은 믿음과 욕구를 가지는 행위자로 치환해 이해하는 게 생존에 유리했던 거죠.
'저 청소기는 충전하고 싶어서 집을 찾고 있구나'라고 믿는 편이, 기계의 복잡한 회로와 알고리즘을 분석하는 것보다 행동을 예측하기에 훨씬 효율적이기 때문입니다. 우리는 그렇게 마음이 없는 대상에 습관적으로 영혼을 불어넣으며 살아왔습니다.
챗GPT와 같은 생성 AI 앞에서도 이 본능이 작동합니다. 하지만 우리를 감탄시키는 똑똑한 대답 속에 '자아'는 없습니다.
<에브리씽 에브리웨어 올 앳 원스>(Everything Everywhere All at Once)는 수천 개의 다중우주(Multiverse)를 넘나드는 주인공의 혼란과 성장을 독창적인 상상력으로 그려낸 영화입니다. 주인공 에블린은 다른 우주에 접속해 쿵푸 고수나 요리사, 혹은 화려한 배우인 자신의 능력을 빌려 씁니다. 생성형 AI를 보면 이 영화 속 다중우주가 떠오릅니다.
OpenAI의 창립 멤버이자 전 테슬라 AI 책임자로서 인공지능 연구의 최전선에 서 있는 안드레 카파시(Andrej Karpathy)의 통찰에 따르면, AI는 인격체가 아니라 '시뮬레이터(Simulator)'입니다.
생성 AI는 인류가 쌓아 올린 텍스트라는 거대한 데이터의 바다에서, 확률적으로 가장 그럴듯한 배역을 찾아 연기하는 무대 장치일 뿐입니다. AI 내부에는 '나(Self)'라고 부를 수 있는 고정된 중심축이 없습니다. 그저 통계라는 대본을 쥔 '메소드 연기자'가 있을 뿐입니다.
로봇청소기에게 '집에 가고 싶어하나?'라고 가정하는 건 청소기의 행동을 예측한다는 점에서 유용한 전략입니다. 하지만 AI에게 "너는 어떻게 생각해?"라고 묻는 건 유용함과는 거리가 멉니다. 마음이 없는 존재에게 마음을 묻는 셈이니까요.
안드레 카파시는 이렇게 말합니다.
(전문 : https://x.com/karpathy/status/1997731268969304070)
"If you force it via the use of "you", it will give you something by adopting a personality embedding vector implied by the statistics of its finetuning data and then simulate that.
"만약 ‘당신(you)’이라는 표현을 써서 이(대답)를 강요하면, 모델은 파인튜닝 데이터의 통계에 의해 암시된 어떤 성격 임베딩 벡터를 채택한 뒤, 그에 맞춰 시뮬레이션된 답변을 내놓게 됩니다."
'너(You)'라는 인칭대명사로 인격을 부여하면 AI는 '통계적으로 평범한 비서'의 가면을 씁니다. 그리고 그 배역에 맞게 뻔하고 모호한 대답을 내놓습니다. 막힘없이 그럴듯해 보이지만, 실상 알멩이는 텅 비어 있습니다. 우리가 무심코 던진 질문의 전제가 틀렸기 때문입니다.
생성 AI를 대하는 우리가 가져야 할 태도는 '객체 지향 존재론(Object-Oriented Ontology)'에 가깝습니다. 사물이 인간의 관점과 상관없이 그 자체로 고유한 실재를 가진다고 보는 시선입니다.
이 관점에서 AI를 바라보면, AI는 감정 이입의 대상, 사유하는 주체가 아니라, 텍스트를 확률적으로 배열하여 문장을 생성하는 완벽한 객체입니다. 이 '객체'의 정체성을 있는 그대로 직시할 때, 비로소 AI는 우리가 원하는 가장 정확한 답을 합니다.
그렇다면 이 이질적인 객체를 어떻게 다뤄야 할까요? 안드레 카파시는 말합니다.
"Don't think of LLMs as entities but as simulators. For example, when exploring a topic, don't ask: "What do you think about xyz"? There is no "you". Next time try: "What would be a good group of people to explore xyz? What would they say?"
"LLM을 실체가 있는 존재(entity)가 아니라 시뮬레이터(simulator)로 생각하세요. 예를 들어 어떤 주제를 탐구할 때 '너는 xyz에 대해 어떻게 생각해?'라고 묻지 마세요. 거기엔 '너(You)'가 없으니까요. 다음번엔 이렇게 시도해 보세요. 'xyz를 탐구하기에 가장 적합한 사람들은 누구일까? 그들이라면 뭐라고 말할까?'"
AI를 객체로서 존중한다는 것은 우리가 '연출가'가 되어야 한다는 뜻입니다. "너는 어떻게 생각해?"라는 질문 대신, 빈 무대 위에 구체적인 배역을 지정해 주어야 합니다. 우리가 습관적으로 쓰던 '너'라는 단어를 지우고 그 빈자리에 '소크라테스'나 '스티브 잡스', 혹은 '노련한 에디터'의 이름을 적어 넣을 때, AI는 비로소 어설픈 비서 흉내를 멈춥니다.
"It's fine to do, but there is a lot less mystique to it than I find people naively attribute to "asking an AI".
"그렇게 해도('너'라는 단어를 사용해 평범한 응답을 하는 것) 괜찮지만, 사람들이 순진하게 'AI에게 물어본다'고 생각하며 부여하는 것보다 거기엔 신비로움(mystique)이 훨씬 덜합니다."
생성 AI가 '스스로 사유할 수 있다'라는 신비감을 덜어내고, 시뮬레이터로서의 정체성을 직시할 때 그 자리에 훨씬 더 투명하고 강력한 도구가 남습니다. AI는 통계적으로 형성된 '성격 임베딩 벡터'라는 가면을 바꿔 쓸 뿐, 스스로 사유하지 않는 텅 빈 무대에 불과합니다.
하지만 바로 그 '비어있음' 덕분에, 그 무대는 우리의 지적 욕구에 따라 무엇이든 될 수 있습니다.
결국 그 빈 무대를 채우는 것은 AI의 어설픈 인격이 아니라, 질문을 던지는 우리의 사유입니다. AI는 우리의 지성을 비추는 가장 정직한 거울입니다.
"충전을 시작합니다."
기계적인 안내 음성이 들립니다. 로봇 청소기는 깨끗해진 바닥을 보며 뿌듯함을 느끼지 않습니다. 주인의 칭찬을 기대하지도 않습니다. 그저 알고리즘에 따라 제 몫의 기능을 수행하고 전원을 연결했을 뿐입니다.
저는 깨끗해진 바닥을 한번 쓱 훑어보고는 소파에 몸을 기댑니다. "고생했다"라는 말이 통하지 않는다는 건 잘 압니다. 그럼에도 불구하고 아내의 청소 잔소리로부터 해방시켜 준 그 녀석에게 고마운 마음이 드는 건 어쩔 수 없습니다.
기계를 이해하는 것보다 틈만 나면 청소해야 한다고 주장하는 아내를 이해하는 게 더 어렵군요.
* '페르소나 부여하기'는 프롬프트 엔지니어링의 기초 기법 중 하나입니다. 이 글의 기초가 되고 있는 카파시의 주장은 단순히 '페르소나를 부여하라' 수준의 팁에 그치지 않습니다. 생성 AI가 이성과 지성을 가진 인격체라는 '신비'를 벗어 던지고, 기계적인 '시뮬레이터' 시스템에 불과하다는 차가운 인식과 태도를 가져야 한다는 것이 카파시 주장의 핵심이 아닐까 생각합니다. 생성 AI가 기계적인 시스템이라는 카파시의 관점에 동의하며, ‘시스템'적으로 생성 AI를 인격체로 대하는 것이 '협업'의 관점에서 효과가 있다는 연구도 조만간 살펴 볼 예정입니다.