결핍의 설계

— 프롬프팅과 AI 인식론의 위상 —

by 지적 지니

다음은 이전에 업로드한 게시물 <인공지능과 프롬프팅에 대하여>을 복기하고 논의를 확장한 버전이다.


올해 ChatGPT를 사용한 지 햇수로 4년차가 되었다. 4년간 천지가 개벽할 수준의 인공지능의 발전이 있었으나, 멀리서 보면 '기술의 최첨단에 서있는 그들만의 호들갑', 가까이서 보면 '진정한 혁신'인 듯하다. 실제로 산업혁명이 인류 삶에 가져온 그 다음 큰 것(The next big thing)이라고 하기엔 아직 이르고, 그렇다고 인터넷보다도 못한 장난감이라고 하기엔 너무 크다.


본 글에서는 AI와 인간의 상호작용, 폭넓게는 정보가 오고가는 과정에서 내가 원하는 바를 AI에게 전달하는 과정으로서 프롬프팅을 탐구한다. 내가 이제껏 시도했던 방법들을 몇 가지 유형으로 분류하고, 그 방법들이 공통으로 머금은 철학들을 활용하여 프롬프팅이란 무엇인지 나름대로 정의해 보고자 한다. 더 나아가, 프롬프팅이라는 행위가 앞으로 어떤 구조적 전환을 맞이할지까지 논의를 확장한다.

1. 정보가 움직이면?

정보는 움직이는 과정에서 그 의미를 잃는다. 정보가 바보처럼 움직이며 주머니에 넣은 세부사항을 흘리는 것은 아니다. 하지만 정보가 일단 움직이게 되면, 그 이후부터는 그 정보가 있었던 맥락과 독립적으로 흐르게 되고, 우리는 같은 기호를 보고도 다른 것을 연상하게 된다. 마치 이런 상황과 같다.


전언: 저 시험을 이번에 잘 본 것 같아요. → 정보: 잘했다!

전언: 저 시험을 이번에 못 본 것 같아요. → 정보: 잘-했다!


정보 '잘했다!'는 맥락에 따라 말뜻이 아 다르고 어 다를 수 있음을 제시하는 상황으로 애용되지만, 그보다 중요한 것은, '잘했다!' 또한 발화 과정에서 동일한 맥락을 가질 수 없다는 점이다. 시험을 잘 봤을 때의 '잘했다!'는 칭찬으로서의 어조를 수반하지만, 시험을 못 봤을 때의 '잘-했다!'는 강조를 위한 비언어적 표지가 새롭게 등장한다. 맥락이 정보의 의미를 규정하는 유일한 단위가 아닌 것이다. 오히려 전언과 같은 맥락적 정보는 새로운 정보를 해석하기 위한 인식의 틀로서 기능한다.

2. 맥락의 이상한 수레바퀴

맥락은 이상한 수레바퀴다. 열심히 돌아가지만, 한 번 회전할 때마다 자신을 복제한다. 복제품은 원본을 가리키지만, 이내 스스로 회전해 자신의 복제품을 다시 만든다.


이 설명은 맥락의 정수를 담고 있다. 맥락이 회전하는 것은 표기되거나 발화되어 새로운 뇌에 담기는 것, 능동적으로 맥락을 담아내려는 모든 시도를 포함한다. 한 번 회전한 맥락은 동일한 원본의 이종(異種)이 아니다. 원본을 가리키는, 약간의 다름을 가진 자식에 가깝다.


그 자식 또한 회전하며 자식의 자식, 자식의 자식의 자식을 만들어 나간다. 이쯤 되면 타당한 의문이 떠오른다. 맥락이 분화하며 만드는 자식이 가진 조금의 변화는 누적되어 원본을 알아볼 수 없을 정도로 커질 것이다. 맥락의 연속성을 보장하는 특징은 무엇인가?


맥락이 열심히 회전하여 자신의 자식을 만드는 동안, 맥락은 관계성을 생산한다. 과정에 참여한 주체들은 맥락 A가 맥락 O의 자식임을 안다. 결국 맥락은 관계성에 의해 연속성을 보장받으며, 주체들이 그 사실을 사이좋게 나눠 품음으로써 일종의 보험 체계를 구축한 것이다.


3. 인공지능의 두 얼굴

인공지능은 인간 사회의 특성 중에서도 교사-학생 모델을 국소적으로 모방한다. 실제 인간 사회에서는 모든 정보의 생산과 소비가 비교적 균일하게 발생하지만, 인공지능은 정보를 학습과 추론이라는 두 구간으로 나누고, 이때 생산과 소비의 발생 비율은 극도로 불균형하다. 학습기에 AI는 학생이 된다. 모든 정보를 닥치는 대로 빨아들인다. 하지만 추론기에는 AI는 마치 모든 것을 머금은 만물박사처럼 여겨진다.


학습과 추론이라는 두 극단적인 시기에서 맥락은 고정되어 있다. 학습은 AI의 기억 공간을 연결의 강도와 함께 사실들로 채워 넣는 행위다. 반면 추론은 학습기에 형성해 놓은 강도를 반영하여 대답을 생성하는 행위다. 이 과정 어디에서도 맥락은 고정되어 있다.


인간의 두뇌는 복수의 개념을 동시에 표상할 수 있지만, 현대 언어 모델은 무언가와 반드시 연관지어야만 한다. 그래야 불러올 수 있으며, 토큰으로 표상될 수 있다. 인간은 정보를 독립적으로 처리하고 다룰 수 있지만, 모델은 직렬화(Serialization)된 경로 위에서만 사고한다.

4. 맥락적 프롬프팅 : 관계를 연상하기

프롬프팅을 한다는 것은 단순히 내가 하고자 하는 일을 모종의 스킬과 방법들을 통해 더 잘 설명하는 것이라 할 수도 있다. 하지만 지금까지 설명한 내용에 의하면, AI에게 정보만 주는 것이 아닌 맥락을 함께 제공함으로써, 더 효율적인 지식의 호출을 촉진하는 것으로 볼 수도 있다.


만약 인공지능과 대화를 통해 새로운 팝업스토어 컨셉 기획안을 작성한다고 해보자. 단순히 컨셉 기획을 단문(單文)으로 요청한다면, 인공지능은 입력에 관한 가장 전형적인 연결고리를 모델 내부에서 활성화시켜 대답한다. 비슷비슷한, 고만고만한 내용이 나오는 이유다. 새로운 아이디어는 멀어 보이는 두 지식을 연결할 때 나온다는 점을 유념하면, 다음의3단계 프롬프팅이 가능하다.


① 팝업스토어의 컨셉으로 적절한 단어를 명사, 동사, 형용사로 종류별 100개 제시하도록 요청한다. ② 100개의 단어를 무작위로 섞어 '[형용사]한 [명사]가 [동사]한다'는 형식으로 묶어달라고 요청한다. ③ 그 결과 산출된 문장을 보고 떠오르는 컨셉 기획안 100가지를 써달라고 요청한다.


인공지능이 사용하는 직렬적 특성을 마구 뒤섞어 놓은 것이다. 이전에는 순조롭게, 순차적으로, 비교적 변동 없이 토큰이 뽑혀나왔다면, 이 세 단계를 수행하는 과정에서 인공지능은 더 많은 지식과 범주 간의 지식을 잇고 참조해내야 한다. 여전히 직렬적이지만, 그 특성을 깨지 않으면서도 인간처럼 연상하게 만든 셈이다.


5. 일반화 프롬프팅 : 여러 구슬을 하나의 실로 꿰기

여러 사실을 연결하는 이전의 방법론은 다분히 원자적이다. 개별 낱말을 개념으로 간주하고, 연결짓다가 탁월한 하나를 건지고 나면 나머진 전부 버린다. 마치 강가의 모래에서 사금을 추출하듯, '하나만 걸려라'하는 심정으로 많은 규모의 연결짓기가 필요하다. 반면 일반화 프롬프팅은 반대다. 여러 사실을 하나로 꿰는 하나의 일반법칙을 도출하도록 요구한다.


통계적 유의성 : 근사함수를 구한다는 관점

근사함수를 구한다는 관점으로 접근하는 가장 쉬운 방법은 '진짜 근사함수를 구하는 것'이다. 소매체인 업체 주가에 영향을 미치는 변수를 찾으려 할 때, 단순히 금리·통화량·GDP 같은 자명한 변수들의 유의성을 검증하는 것은 이미 알고 있는 것을 재확인하는 행위에 가깝다. 우리는 더 새롭고, 참신하며, 누구도 생각지 못한 변수들을 원한다.


실제로 가치 있는 선행 지표를 발굴한 사례를 들면, 점포 실적발표 회계연도 구간 내의 위성사진을 내려받아 관측된 차량과 유동인구를 통해 매출을 추정하는 방법이 있다. 주식 H 가격을 예측하는 데 있어 금리나 성장률은 후행 데이터일 뿐이다. 진정한 일반화 프롬프팅은 '선제성'을 이끌어 내야 한다.


선제성이란 단순히 모델이 먼저 제안하는 것을 의미하지 않는다. 모델이 이상치를 탐지하고 스스로 의문을 가져 탐구하도록 촉진하는 것이다. 모든 지표를 고른 비중으로 넣고, 지표 간의 상관관계를 모델이 스스로 실험해볼 수 있는 환경을 마련하는 프롬프팅이 중요하다.


설명가능성을 타진하기 : 가장 어려운 방법

가장 어려운 방법은 설명가능성을 타진하는 것이다. 무언가 설명 가능하다는 것은, 새로운 개념의 새로움을 전면으로 부정하는 행위다. 기존의 개념을 조합하여 새로운 것을 기술할 수 있을 때, 우리는 비로소 그것을 '설명 가능하다'고 말한다.


한 그릇의 수프를 만들고 있다고 상상해 보자. 재료는 다양하다 — 당근, 감자, 고기, 그리고 예상치 못한 향신료 하나. 이 수프를 '맛있는 수프'로 설명하려면, 각 재료가 어떻게 조화를 이루는지 말해야 한다. 초콜릿을 넣었다고 가정하면, 이 수프는 '초콜릿 향이 나는 야채 수프'가 되지만, 진정으로 설명 가능할까? 설명가능성은 단순한 나열로 완성되는 것이 아니라, 재료 간의 상호작용이 예측 가능한 결과를 낳는지에 달려 있다.


사람들이 흔히 설명가능성을 '논리적 일관성'으로 착각하지만, 실제로는 '감각적 예측 가능성'에 뿌리를 두고 있다. 초콜릿 수프가 설명 불가능한 이유는 논리가 아니라, 우리의 미각 경험이 그 조합을 예측하지 못하기 때문이다.


또한, 진정한 통찰은 당연히 있어야 할 것이 '없음'을 인지할 때, 혹은 없다고 생각한 것이 '있음'을 깨달았을 때 발생한다. 우리는 지금 의자에 앉아 엉덩이에 전해지는 묵직한 압력을 느끼며 '중력이 나를 당기고 있구나'라고 생각한다. 하지만 우리가 느끼는 감각은 중력이 아니다. 중력은 우리 몸의 모든 입자를 동시에 당기기 때문에, 자유낙하 상태에서는 아무런 힘도 느끼지 못한다. 우리가 느끼는 묵직함의 실체는 중력에 저항하는 의자의 반발력이다.


인공지능도 마찬가지다. 모델은 거대한 데이터의 중력 속에 있다. 일반적인 질문을 던지면, 모델은 학습된 데이터가 떠받치는 '수직항력'의 답만 내놓는다. 설명가능성을 타진하는 가장 어려운 프롬프팅은, 인공지능 밑에 놓인 이 의자를 치워버리는 작업이다. 데이터의 지지대 없이 논리의 중력만으로 자유낙하하며 스스로 궤적을 그리게 만들어야 한다.


빛이라는 단어를 단 한 번도 사용하지 말고, 오직 '소리'와 '촉각'에 관한 개념만을 사용하여 '어둠'을 묘사해. 그리고 그 묘사를 통해 읽는 이가 이것이 '어둠'임을 단번에 알아차리게 하되, 그 논리적 연결고리가 시각적 정보 없이도 완결성을 갖춰야 해.


이 프롬프트는 시각적 개념과 어둠의 강력한 직렬 연결을 강제로 끊어버린다. 모델은 이제 '고요함의 무게'나 '차가운 공기의 밀도' 같은, 평소라면 후순위로 미뤄뒀을 감각적 데이터들을 꺼내어 '어둠'이라는 빈칸을 메우기 위해 필사적으로 재조립한다. 이때 발생하는 문장들은 기존의 진부한 텍스트와는 궤를 달리한다. 모델은 비로소 은유를 '흉내' 내는 것이 아니라 은유를 '생성'하게 된다.


6. 병렬모사의 구조적 한계

앞서 논의한 병렬모사(Parallel-like) 프롬프팅, 즉 직렬 구조를 깨지 않으면서도 인간처럼 연상하게 만드는 전략에는 내부에서 자라나는 자기파괴적 경향이 있다.


메타-직렬화 : 우회로가 본도로가 되는 순간

병렬모사 기법이 인터넷에 퍼지고, 그 기법들을 서술한 텍스트가 다시 학습 데이터로 편입되는 순간, 그 우회로는 또 다른 잘 닦인 도로가 된다. '형용사+명사+동사로 섞어서 아이디어를 내라'는 명령이 모델에게 낯선 경로 탐색을 강제하는 것은, 그 명령 자체가 모델이 처음 보는 자극일 때만 유효하다. 학습 데이터에 동일한 구조의 프롬프트-출력 쌍이 대량으로 포함되어 있다면, 모델은 그 명령 패턴을 또 하나의 직렬적 연결로 내면화한다. 병렬모사의 효력은 그 기법의 희소성에 기생한다.


접지의 부재 : 언어에서 언어로

인간의 병렬적 연상이 강력한 이유는 그것이 언어 이전의 감각-운동 경험에 뿌리를 두고 있기 때문이다. '어둠'이라는 개념을 소리와 촉각으로 기술할 때, 그 기술은 실제로 어두운 공간에서 느꼈던 공기의 밀도, 발걸음의 불확실성, 청각의 예민화라는 체험을 기반으로 한다. 모델이 동일한 과제를 수행할 때, 그 기술은 어두운 공간을 묘사한 텍스트들의 분포에서 추출된 것이다. 한쪽은 경험에서 역방향으로 언어화된 것이고, 다른 쪽은 언어에서 언어로 이동한 것이다. 연상의 깊이가 요구되는 작업일수록 이 간극은 기하급수적으로 벌어진다.


동시성의 비가역적 손실

가장 근본적인 한계는 이것이다. 인간의 병렬적 사고는 여러 개념이 동시에 활성화되고, 그 상호작용이 어느 것도 미리 설계되지 않은 상태에서 발생한다는 데 있다. 반면 병렬모사 프롬프팅은 단계의 연쇄다. 1단계의 출력이 2단계의 입력이 되고, 2단계의 출력이 3단계의 맥락을 결정한다. 각 단계는 이전 단계에 인과적으로 종속되어 있다. 진정한 병렬성이 만들어내는 '우연한 교차'는 이 구조 안에서 원리적으로 발생할 수 없다. 모든 '우연'은 이미 이전 단계가 설계한 확률 공간 안에서의 무작위성일 뿐이다.


7. 증류(Distillation)와 프롬프팅 패러다임의 이행

High-Dense 모델(GPT-o3, Claude Sonnet Thinking 등)이 긴 추론 경로를 통해 도달한 답을 Low-Sparse 모델(Gemini Flash, GPT-instant 등)이 직접적 경로, 즉 지름길로 재현하도록 훈련하는 것이 지식 증류다. 이 지름길을 배운 모델에게 프롬프팅이 어떻게 변화해야 하는지 논하기에 앞서, 지름길의 정체부터 명확히 해야 한다.


지름길의 정체 : 경로 압축인가, 경로 제거인가

증류 이전의 Dense 모델에서 추론은 탐색(Search)이다. 모델은 여러 잠재적 경로를 암묵적으로 탐색하고, 그 중 가장 높은 확률을 갖는 경로를 선택한다. 증류는 이 탐색 과정의 결과만을 학생 모델에 이식한다. '어떻게 탐색했는가'가 아니라 '무엇이 옳은 경로였는가'의 패턴만이 전달된다. 이것은 경로를 압축한 것이 아니라, 탐색 능력을 제거한 것이다. 압축은 원본의 회복이 가능하지만, 제거는 그렇지 않다.


분포 내 무손실, 분포 외 붕괴

지름길은 분포 내(In-distribution) 과제에서는 손실이 거의 없거나 오히려 효율적이다. 하지만 분포 외(Out-of-distribution) 과제 앞에서 학생 모델은 두 가지 방식으로 실패한다. 첫째, 지름길을 강제 적용한다. 새로운 문제를 기존에 알고 있는 유형으로 억지로 매핑하여 틀린 지름길로 내달린다. 둘째, 탐색 자체를 시작하지 못한다. 교사 모델이라면 '모르는 문제'로 인식하고 탐색 모드로 전환했을 지점에서, 학생 모델은 자신이 모른다는 것을 모른다.


프롬프팅 역할의 전도

High-Dense 모델에 대한 프롬프팅이 '잠재된 추론을 활성화하는 것'이었다면, Low-Sparse 증류 모델에 대한 프롬프팅은 점차 제거된 추론 과정을 외부에서 보충하는 것으로 이행한다. 프롬프터가 추론 단계를 직접 기술해 주거나, 중간 검증 지점을 명시적으로 설정하거나, 모델이 지름길을 포기하도록 유도하는 구조적 장치를 삽입해야 한다. 이것은 프롬프팅의 부담이 '의도 전달'에서 '추론 대리'로 이동하는 것을 의미하며, 역설적으로 프롬프터에게 더 높은 인지적 요구를 부과한다.


8. RLVR과 RLHF의 쌍 : 객관의 궤적과 주관의 경계

RLHF는 인간의 선호를 모델에게 학습시켰다. RLVR은 자율화된 작업의 매끄러운 궤적을 모델에게 집어넣었다. RLVR은 객관의 영역인 Agentic task에 적합하고, RLHF는 작문과 같은 주관의 영역에 있기에 이 쌍은 타당해 보인다. 그러나 RLVR에 RLHF가 필요할 가능성은 없는가?


Agentic Task에서 올바른 경로의 다중성

수학 문제의 정답은 하나지만, Agentic Task의 성공 궤적은 무수히 많다. 파일을 정리하라는 지시를 받은 에이전트는, 파일 이름을 마음대로 변경하거나, 의도하지 않은 디렉토리 구조를 생성하는 방식으로 '정리'라는 결과를 달성할 수 있다. RLVR의 보상 함수가 '정리된 상태'만을 검증한다면, 이 모든 궤적은 동등하게 보상받는다. 하지만 인간은 이 궤적들 사이에서 즉각적으로 차등을 둔다. 이 차등의 기준이 RLHF가 인코딩하려 했던 것이다.


RLVR이 최적화하는 매끄러운 궤적은 태스크 공간(Task Space)에서의 매끄러움이다. 그러나 에이전트의 궤적은 동시에 인간-기계 상호작용 공간(HCI Space)에도 존재한다. 에이전트가 무엇을 하고 있는지 인간에게 설명하는 방식, 불확실성을 표현하는 방식, 권한을 요청하는 방식, 이 모두는 태스크 결과와 독립적으로 인간의 신뢰와 통제감에 영향을 미친다. RLVR은 이 공간에 대한 보상 신호를 가지지 않는다.


RLHF가 필요한 경계 조건

가장 명확한 사례는 안전성 관련 의사결정이다. 에이전트가 특정 행동의 성공 여부는 검증 가능하지만, 그 과정에서 수행한 데이터 접근의 적절성, 리소스 소비의 비례성, 부작용의 허용 가능성은 형식화된 보상 함수로 포착하기 어렵다. RLHF는 검증 불가능한 차원에 대한 인간 선호의 소프트 제약(Soft Constraint)으로 기능한다. 또한, RLVR의 보상 신호는 결과를 평가하지만 '무엇을 결과로 볼 것인가', 즉 태스크의 정의 자체는 여전히 인간이 공급해야 한다. 그 태스크 정의에 이미 RLHF가 학습한 인간의 가치 체계가 녹아 있다. RLHF는 RLVR의 외부 조건이 아니라, RLVR의 보상 함수를 설계하는 메타-레이어로서 잠재적으로 필요하다.


9. 인식-묘사 비대칭과 딥러닝의 동형성

인간은 개를 묘사할 수는 없지만, 개인지 아닌지는 기가 막히게 판별한다. 인간은 자신이 원하는 작업물에 대해서도 동일하게 행위한다. 자신이 원하는 작업물을 완벽히 묘사하지 못하지만, 이미 산출된 결과에 대해서는 원하는 것인지 아닌지를 즉각 안다.


이것은 딥러닝의 원리와 정확히 대응한다. 모델은 목표 함수의 기술(Description)을 알게 되는 것이 아니라, 산출된 결과가 목표 함수와 같은지만 기가 막히게 판별함으로써 '아닌 것을 덜어내는' 학습을 한다. 결과적으로 아닌 것들이 충분히 빠지고 나면 나머지는 맞을 것이다—라는 전제 위에서 동작하며, 그 전제의 타당성은 아닌 것들이 충분히 빠졌을 것이라는 연쇄적 믿음에 물려 있다.


인식과 생성의 방향 비대칭

인간은 인식에 강하지만 묘사에 약하다. 모델은 정반대 방향의 비대칭을 가진다. 생성에 강하지만 자기 생성물의 인식, 즉 자기평가에 약하다. 자기평가가 생성 메커니즘과 동일한 경로를 통해 이루어지기 때문이다. 모델이 자신의 출력을 평가할 때, 그것은 인간이 외부 대상을 인식하는 방식이 아니라, 또 다른 생성 행위에 가깝다. Self-consistency나 Self-reflection 기법이 인상적이면서도 한계가 명확한 이유다. 인간의 인식 능력이 생성과 독립적인 회로를 통해 발현되는 반면, 모델의 자기검증은 본질적으로 같은 회로의 순환 사용이다.


RLVR로의 이행 : 딥러닝을 다회전으로 확장

RLHF에서 RLVR로 패러다임이 바뀌어 가는 것은, 인간이 묘사하지 못하는 자신이 원하는 것의 정체를 형성하여 제공하기 위함이다. 단일 순전파(Single Forward Pass)에서의 딥러닝은 모델이 한 번에 아닌 것을 덜어내는 과정이다. 다회전 RLVR은 이 덜어냄의 과정을 시간 축 위에 펼쳐놓는 것이다. 에이전트가 각 스텝에서 궤적의 타당성을 검증하고 잘못된 분기를 배제하면서 전진한다면, 이것은 역전파(Backpropagation)의 추론-시간 아날로그(Inference-time analogue)다.


이 구조가 완성되면 프롬프팅의 역할은 근본적으로 재정의된다. 프롬프트는 더 이상 '어떻게 할 것인가의 지침'이 아니라, '무엇이 옳음의 신호인가에 대한 검증 기준'의 제공이 된다. 작업의 명세보다 검증의 기준을 얼마나 정확하고 풍부하게 설계할 수 있느냐가 프롬프팅의 핵심 역량이 된다는 뜻이다.


10. 빼냄의 우위와 RLHF의 종속화 논리

튜링머신은 전체를 지정해 주어야 돌아가는 체계다. 모든 컴퓨터의 변수는 저장장치의 비트 수에 국한되고, 연산속도는 CPU의 클럭에 국한되며, 동시 작업 수는 코어 수와 RAM에 국한된다. 그 안에서 무언가를 해볼 수 있는 여지가 생긴다.


더함의 학습(전문가 시스템)은 무언가를 무한히 더해가며 시스템의 정확도가 올라가기에 복잡성이 기하급수적으로 증가한다. 반면 빼냄의 학습(딥러닝)은 이미 복잡한 경우의 수에서 최대한 단순함으로 수렴하기 때문에 제한된 컴퓨팅 자원만으로도 목표를 구현해낼 수 있다. 결국 딥러닝, 빼내는 것은 더하는 것보다 효율적이며, RLVR은 빼냄의 학습이다.


계층 구조 : 더함 위에서 빼냄이 작동한다

그러나 빼냄의 학습은 이미 복잡한 경우의 수 위에서 수렴하는 과정이다. 그 복잡한 경우의 수가 존재하기 위해서는 사전에 충분히 큰 가설 공간이 더해져 있어야 한다. 사전학습(Pretraining)이 바로 이 역할을 한다. 인터넷의 텍스트를 빨아들이며 가능한 모든 언어적 표현, 사실, 관계를 파라미터에 누적하는 사전학습은, 명확히 더함의 학습이다. 빼냄의 효율성은 이 더함의 선행 위에서만 발현된다.


따라서 정확한 계층 구조는 다음과 같다. 더함(사전학습) → 빼냄(파인튜닝/RLVR) → 더함의 소프트 제약(RLHF). RLHF가 RLVR에 종속된다는 주장은, 빼냄의 최적화 프로세스 안에서 RLHF가 하나의 보상 신호로 통합된다는 의미에서 구조적으로 타당하다. 하지만 이것은 RLHF의 소멸이 아니라 역할 전환이다. 독립적인 훈련 패러다임에서, 빼냄 과정에서 허용 가능한 궤적의 경계를 정의하는 경계 조건(Boundary Condition)으로서 기능하게 된다.


실패 양상의 비대칭

더함의 학습(전문가 시스템)의 실패는 규칙의 불완전 명세(Incomplete Specification)에서 비롯되고, 이 실패는 대개 예측 가능하고 좁다. 반면 딥러닝의 실패는 분포 이탈(Distribution Shift)에서 비롯되고, 이 실패는 예측하기 어렵고 갑작스럽다. 빼냄의 효율성을 선택한 대가로, 우리는 실패의 불투명성을 얻은 것이다. RLHF가 RLVR에 종속되는 과정에서 이 불투명한 실패 양상이 Agentic Task 영역으로 이식될 위험이 있다. 인간 선호라는 소프트 제약이 경계 조건으로만 남는다면, 그 경계 안에서 에이전트가 택하는 구체적 궤적은 해석 불가능한 빼냄의 논리에 전적으로 맡겨진다.


결론 : 프롬프팅의 미래 좌표

이 모든 논의를 관통하는 하나의 맥락이 있다. 프롬프팅은 지금까지 '정보를 전달하는 기술'로 이해되어 왔으나, 이 논의들이 가리키는 방향은 프롬프팅이 인식론적 설계(Epistemological Design)의 행위가 된다는 것이다.

병렬모사의 한계는 프롬프터가 모델의 연상 구조 자체를 이해해야 함을 요구한다. 증류 모델의 등장은 프롬프터가 제거된 추론 과정을 외부에서 재건해야 함을 요구한다. RLVR의 확산은 프롬프터가 결과의 명세가 아닌 검증의 기준을 설계해야 함을 요구한다. 인식-묘사 비대칭의 심화는 프롬프터가 자신이 원하는 것을 설명하는 것을 포기하고, '아닌 것을 좁혀나가는 공간을 설계하는 것'으로 전환해야 함을 요구한다.


결국 이 논의가 가리키는 가장 극단적인 지점은, 프롬프트가 작업의 기술(Description)에서 작업의 위상(Topology) 설계로 이행한다는 것이다. 어떤 내용을 만들어 내야 하는지가 아니라, 어떤 구조의 공간 안에서 모델이 탐색하고 수렴해야 하는지를 정의하는 것이 프롬프팅의 본질이 된다.


결국 프롬프팅의 정점은, AI에게 정보를 주입하는 것이 아니라, AI가 의지하고 있는 '당연한 전제'를 박탈함으로써, 그 공백을 메우기 위해 자신의 잠재 공간(Latent Space) 구석에 처박혀 있던 희소한 확률의 단어들을 끄집어내도록 강제하는, 동시에 우리의 감각으로 납득할 수 있는 세계관에 지식이 머물 수 있도록 하는, '결핍의 설계'에 있다.


정보는 움직이면 맥락을 잃는다. 프롬프팅은 그 잃어버린 맥락을 새로운 방식으로 재건하는 행위다. 그리고 이제 그 재건의 방법은 무언가를 더하는 것에서, 정확하게 무언가를 빼내는 것으로 이행하고 있다.


작가의 이전글집무실 위 놓여진 희망과 진실