전세계 모든 방법. 9장
감정의 색과 질감을 통제하는 예술이다.
AI는 그저 그림을 그리는 손이 아니라, 당신의 정서를 시각화하는 공명체다.
“내 영상의 분위기를 한눈에 설명할 수 있는가?”
한 편의 영상이 ‘느낌’으로 남기 위해서는, 그 느낌을 구성하는 세 겹의 레이어가 필요하다.
첫 번째 겹은 이미지 레퍼런스다. 영화 스틸, 회화, 패션 룩북, 사진, 아트워크—이것들은 색감·구도·피사체 질감의 단서를 준다.
두 번째 겹은 무드 레퍼런스다. 여기엔 조명 톤(황금빛·푸르스름한 새벽빛 등), 질감(먼지 낀 창문·빛바랜 벽지), 감정 톤(긴장·해방·고요)이 포함된다.
세 번째 겹은 서사 레퍼런스다. 장면의 구조, 리듬, 감정의 흐름—예컨대 ‘도입-전환-절정-여운’의 서사곡선—이 여백에 기록된다.
이 세 가지 레퍼런스가 함께 결합될 때, 영상은 단지 ‘보이는 것’이 아니라 ‘느껴지는 것’으로 확장된다.
과거 크리에이터들은 Pinterest나 Milanote 같은 플랫폼에서 수작업으로 이미지들을 수집하고 배열했다.
하지만 2025년 현재 무드보드의 방식은 달라졌다.
예컨대 Runway Gen‑4는 사용자가 참조 이미지 몇 장을 업로드하면, 그 스타일·조명·질감을 자동으로 분석하고 “스타일 보존”과 “변형” 옵션을 제공한다.
또한 “AI Moodboard Maker” 도구들이 등장했다. 2025년 기준 베스트 리스트 중 하나인 Pixazo는 자동 색상 추출, 무드 키워드 추천, 무드보드 자동 레이아웃 기능을 탑재하고 있다.
예컨대 당신이 “이런 색감 10개만 모아줘”라고 하면, AI가 자동으로 그라데이션을 만든다.
따라서 무드보드는 이제 발견에서 체계화로, 수동에서 자동으로 변화하고 있다.
레퍼런스를 모았다면 그다음은 그 안에 묶인 감정의 언어를 추출해야 한다.
예컨대 Claude나 ChatGPT에게 이렇게 묻는다:
“이 이미지들의 공통 감정 톤을 문장으로 요약해줘.”
그랬더니 답이 나올 수 있다:
“따뜻한 고요, 금빛 먼지, 오후의 바람 같은 정서.”
이 문장이 바로 당신 영상의 ‘프롬프트의 핵심 감정문’, 즉 비주얼 DNA다.
이 문장을 얻었다면 다음 단계다.
프롬프트에 이 비주얼 DNA를 명시하고, 참고 이미지 링크나 스타일 키워드를 함께 제시해라.
예:
“따뜻한 고요, 금빛 먼지, 오후의 바람처럼—카메라는 저물어가는 해 앞에서 한 인물을 천천히 비추고, 먼지 입자가 공중에서 흩날린다.”
이렇게 하면 AI는 ‘스타일’과 ‘무드’가 단순한 수식어가 아닌 생산가능한 요소가 되도록 학습한다.
이미지·무드·서사 세 겹의 레퍼런스를 모아라.
AI 무드보드 도구의 힘으로 무드 수집을 자동화하라.
레퍼런스 속 감정을 문장으로 추출하고, 그 문장이 당신의 영상 프롬프트의 DNA가 되게 하라.
스타일은 단지 ‘보이는 것’이 아니라 ‘느껴지는 구조’이며, AI는 그 구조를 구현해줄 도구다.
이제 당신은 단순히 ‘좋아 보이는 이미지’를 모으는 게 아니라,
‘당신만이 가진 분위기의 체계’를 구축하는 단계에 왔다.
그 분위기를 정리해 프롬프트에 담는 순간,
영상의 첫 바람이 불기 전에 준비된 시트들이 떨림을 예고한다.
“AI 영상의 스타일을 어떻게 일관되게 유지할까?”
당신이 영상의 스타일을 한 컷에서 다음 컷으로 옮기려 할 때, 가장 큰 적은 불일치다. 인물의 비율이 달라지거나, 조명이 찢어지거나, 배경이 갑자기 바뀐다면 관객은 어쩐지 “가짜”를 느낀다. 그 균열을 틈타서는 감정도 흐트러진다.
ControlNet은 문자 프롬프트 위에 구도·포즈·깊이 정보(Condition Map) 를 겹쳐서 영상의 형태는 유지하되 스타일을 일관되게 전환하고자 만들어진 장치다. 예컨대 “걷는 인물의 실루엣은 그대로 두고, 배경만 사막에서 도시로 바꿔줘.”라고 하면, 형태는 존속되고 분위기만 바뀐다.
지금 바로 작가의 멤버십 구독자가 되어
멤버십 특별 연재 콘텐츠를 모두 만나 보세요.