섹션 분리 작업법으로 품질과 효율 동시 잡기
3,000자짜리 글을 AI에게 한 번에 부탁한 적이 있습니다.
"다음 주제로 브런치 에세이를 써줘!
도입부는 따뜻하게, 중간은 실용적으로, 마무리는 여운 있게."
결과물이 돌아왔습니다. 도입부는 꽤 괜찮았습니다. 마지막 문단도 쓸 만했습니다. 그런데 중간이 문제였습니다. 갑자기 어조가 바뀌어 있었습니다. 앞에서 따뜻하게 시작했던 글이 중간에서 갑자기 업무 보고서처럼 건조해졌습니다. 앞뒤가 같은 사람이 쓴 글 같지 않았습니다.
아마 AI로 글을 써보신 분들은 아실 겁니다. 동감하시죠?
AI는 긴 글을 한꺼번에 받으면 선택을 해야 합니다.
도입부에 집중할까요? 마무리에 집중할까요? 중간에 집중할까요?
모든 구간을 동시에 잘 쓸 수 없습니다. 컨텍스트 윈도우 안에서 처음과 끝이 가장 선명하게 읽힌다는 건 9편에서 이미 다뤘습니다.
(9편 참조) 중간은 상대적으로 흐릿해집니다.
결과는 예측 가능합니다. 도입부 — 나쁘지 않음. 마무리 — 그럭저럭. 중간 — 무너짐.
이건 AI의 실력 문제가 아닙니다. 구조적 문제입니다.
피자 한 판에 토핑을 30개 올리면 어떻게 되나요? (5편 참조) 토핑 하나하나의 맛이 희석됩니다. AI에게 "도입부는 따뜻하게, 중간은 실용적으로, 마무리는 여운 있게"를 한꺼번에 주문하는 것과 같습니다. 지시가 많을수록 AI의 집중력이 쪼개집니다.
AI 프롬프트 기법 중 Skeleton-of-Thought라는 것이 있습니다.
거창한 이름이지만 원리는 단순합니다. 먼저 뼈대(목차·구조)를 잡은 다음, 각 뼈대에 살(내용)을 붙여나가는 방식입니다.
집을 짓는 순서와 같습니다. 설계도 없이 벽돌부터 쌓으면 어떻게 될까요?
중간에 방이 좁아지거나 창문이 엉뚱한 곳에 나지 않을까요?
설계도(목차)를 먼저 확정한 뒤에 각 방(섹션)을 채워야 전체 구조가 흔들리지 않습니다.
이 방법을 AI 글쓰기에 적용하면 세 단계가 됩니다.
1단계: 목차 확정 요청 "이 주제로 글을 쓸 건데, 소제목 3개만 먼저 만들어줘." AI가 전체 구조를 제안합니다. 이때 내용은 없습니다. 제목만 있습니다.
2단계: 목차 검토 및 수정 AI가 제안한 목차를 직접 손봅니다. 순서를 바꾸거나 소제목 하나를 교체합니다. 이 단계에서 전체 흐름이 결정됩니다. 나중에 내용을 바꾸는 것보다 지금 구조를 바꾸는 게 훨씬 쉽습니다.
3단계: 섹션별 내용 요청 "1번 소제목 구간만 써줘. 분량은 500자, 톤은 따뜻하게." 한 구간씩 요청합니다.
AI의 집중이 쪼개지지 않습니다. 저는 이 방법으로 같은 주제를 두 번 쓸 뻔한 수고를 줄였습니다.
앞뒤 어조가 처음으로 균일하게 나온 날이었습니다.
혹시 이런 경험 없었나요?
한꺼번에 부탁했다가 수정을 반복하면서 오히려 처음보다 결과물이 나빠진 경험이요.
아마 이때 "못 스겠네?"하신 분들 많을 겁니다.
그게 바로 눈덩이 토큰 효과입니다. (3편 참조) 섹션 분리 작업은 그 악순환을 끊는 구조입니다.
실제로 Claude에서 동일 주제로 테스트해 봤습니다. 3,000자짜리 글을 한꺼번에 요청하면 AI는 약 4,500~5,000 토큰을 씁니다. 목차 확정(약 300 토큰) + 섹션 3개 각각 요청(각 약 800 토큰 × 3 = 2,400 토큰) 방식으로 나누면 총 약 2,700 토큰입니다. 약 40% 줄어듭니다.
비용은 줄고, 집중도는 높아지고, 품질은 균일해집니다.
덜 쓰는 게 오히려 더 잘 쓰는 것입니다. (5편 참조)
지금 바로 해볼 수 있는 것 한 가지가 있습니다. 다음에 AI에게 긴 글을 부탁할 때, 먼저 이 한 문장만 앞에 붙여보세요.
"본문을 쓰기 전에 소제목 3개만 먼저 제안해 줘."
그것으로 충분합니다. 그 한 문장이 이후 전체 글의 품질을 바꿉니다. 이 기준을 알게 되신 것 자체가 이미 실력입니다.
목차가 완성됐습니다. 구조도 잡았습니다.
그런데 그 구조를 AI에게 어떻게 전달하느냐가 또 다른 문제입니다.
같은 내용이라도 말투 하나, 역할 지정 하나로 결과물이 완전히 달라집니다.
다음 편에서는 프롬프트가 왜 주문서인지 — "맛있는 거 해줘"와 "알덴테 크림파스타"의 차이를 다룹니다.
참고 [1] Yao et al. (2023), "Skeleton-of-Thought: Large Language Models Can Do Parallel Decoding", arXiv:2307.15337
#챗GPT #Claude #ChatGPT #클로드 #AI글쓰기 #프롬프트엔지니어링 #Skeleton오브Thought #AI초보 #직장인AI