프롬프트에서 대화로, 생성에서 큐레이션으로
누군가에게 "이런 느낌의 음악을 만들어줘"라고 말하는 것과, "이 부분의 베이스를 좀 더 깊게 해볼래? 아, 그리고 두 번째 벌스에서 목소리가 약간 갈라지는 느낌을 넣어줘"라고 말하는 것 사이에는 건널 수 없을 것 같은 강이 하나 흐르고 있습니다. 전자는 주문이고, 후자는 대화입니다. 그리고 바로 그 강 위에 ProducerAI라는 다리가 놓였습니다.
2026년 2월, 구글이 AI 음악 창작 플랫폼 ProducerAI를 인수했습니다. 원래 Riffusion이라는 이름으로 2022년에 바이럴되었던 이 프로젝트는, 이제 구글의 Lyria 3, Gemini, Veo, Nano Banana 모델들과 결합하며 완전히 새로운 형태의 창작 도구로 탈바꿈했습니다. 그러나 제가 주목하는 것은 기술 스펙이 아닙니다. 이 도구가 품고 있는 창작의 철학입니다.
1. 프롬프트의 시대에서 대화의 시대로
우리가 Suno나 Udio에서 음악을 만들 때, 그 행위의 본질은 '주문'에 가깝습니다. 프롬프트 창에 원하는 장르, 분위기, 가사를 입력하고 버튼을 누르면, AI는 완성된 결과물을 내놓습니다. 마음에 들지 않으면 다시 주문합니다. 또 다시. 그것은 자판기 앞에 서서 동전을 넣는 행위와 크게 다르지 않습니다.
ProducerAI는 이 구조를 근본적으로 뒤집습니다. 여기서 창작은 한 번의 명령으로 완결되지 않습니다. 사용자는 "아프로비트에 겐게톤 랩을 섞어줘"라는 첫 문장으로 시작하지만, 그다음부터는 진짜 대화가 시작됩니다. 베이스라인을 조정하고, 플로우를 바꾸고, 리버브를 더하고, 가사를 수정합니다. 마치 새벽 3시의 스튜디오에서 프로듀서와 머리를 맞대고 앉아 있는 것처럼 말입니다.
이 차이는 사소해 보이지만 본질적입니다. Suno의 방식이 '생성 평가 재생성'의 선형적 루프라면, ProducerAI의 방식은 '시작 대화 변형 대화 진화'의 나선형 여정입니다. 전자에서 인간은 심사위원이고, 후자에서 인간은 공동 창작자입니다.
2. 큐레이션이 창조가 되는 순간
저는 오랫동안 AI 시대의 인간 창의성이 '만드는 것'에서 '큐레이팅하는 것'으로 이동하고 있다고 주장해왔습니다. 전시를 기획하던 시절, 저는 개별 작품을 만들지 않았습니다. 대신 작품들 사이의 관계를 설계했고, 동선을 통해 서사를 구축했으며, 빈 벽과 채워진 벽 사이의 긴장을 조율했습니다. 의미는 개별 작품 안이 아니라 작품들 사이의 공간에서 태어났습니다.
ProducerAI의 대화형 창작은 바로 이 큐레이션의 논리를 음악 제작에 이식합니다. 사용자는 음표를 직접 쓰지 않습니다. 대신 AI가 생성한 소리의 요소들 — 멜로디, 리듬, 텍스처, 가사 — 사이의 관계를 대화를 통해 조율합니다. "이 기타 톤을 좀 더 따뜻하게", "브릿지에서 템포를 살짝 늦춰봐", "코러스의 감정을 좀 더 절제해줘" — 이 모든 지시는 개별 음향 요소를 만드는 것이 아니라, 요소들 사이의 관계를 재배치하는 행위입니다.
들뢰즈와 가타리가 말한 '아상블라주(assemblage)'의 개념이 여기서 현실이 됩니다. 이질적인 요소들 — AI가 생성한 비트, 인간이 구상한 감정, 알고리즘이 제안한 편곡, 사용자가 선택한 방향 — 이 서로 결합하고 변형되면서 어느 한쪽으로 환원할 수 없는 새로운 의미가 탄생합니다. ProducerAI에서 만들어진 음악은 AI의 것도, 인간의 것도 아닌, 그 대화 자체의 것입니다.
3. 'Spaces' — 악기마저 큐레이팅하는 시대
ProducerAI의 기능 중 제가 특히 주목하는 것은 'Spaces'입니다. 이 기능은 자연어로 완전히 새로운 악기와 이펙트를 만들어낼 수 있게 해줍니다. "비 오는 골목길에서 울리는 첼로 같은 소리"라고 말하면, 세상에 존재하지 않던 악기가 태어납니다.
이것은 단순한 기술적 진보가 아닙니다. 음악사에서 악기는 항상 '주어진 것'이었습니다. 작곡가는 피아노의 음역과 기타의 톤을 전제로 음악을 구상했습니다. 신시사이저가 등장했을 때조차, 새로운 소리를 만들기 위해서는 상당한 기술적 지식이 필요했습니다. 그런데 이제 "가을 낙엽이 바스락거리는 느낌의 퍼커션"이라는 한 문장이 악기 제작자의 수십 년 노하우를 대체합니다.
여기서 일어나는 일의 본질은, 창작의 출발점이 '기술'에서 '감각'으로 이동하는 것입니다. 더 이상 신스 프로그래밍을 알 필요가 없습니다. 당신이 필요한 것은 당신만의 감각 언어, 당신만의 은유, 당신만의 세계를 소리로 번역할 수 있는 상상력입니다. 그리고 그것이야말로 인간에게 가장 고유한 능력이 아니겠습니까.
4. MX 디자이너의 눈으로 본 새로운 풍경
저는 스스로를 '음악 경험 디자이너(MX Designer)'라고 부릅니다. 음악을 만드는 것이 아니라, 음악이 사람에게 도달하는 방식 전체를 설계하는 사람입니다. 전시 기획자가 그림을 그리지 않듯이, MX 디자이너는 음표를 쓰지 않습니다. 대신 소리와 영상, 가사와 분위기, 시간과 공간이 어떻게 결합하여 하나의 총체적 경험이 되는지를 구상합니다.
ProducerAI는 이런 MX 디자이너에게 전에 없던 도구를 선물합니다. Lyria 3로 음악을 만들고, Veo로 뮤직비디오를 생성하고, Nano Banana로 앨범 아트를 제작하는 — 이 모든 과정이 하나의 대화 안에서 유기적으로 연결됩니다. 음악이라는 경험의 모든 층위를 한 사람의 비전 아래 통합적으로 설계할 수 있게 된 것입니다.
이것은 제가 전시를 기획하며 꿈꾸던 것의 디지털 버전입니다. 전시장에서 작품의 배치, 조명의 각도, 관객의 동선, 벽면의 색감을 모두 하나의 서사 아래 조율했듯이 — 이제 음악의 톤, 가사의 정서, 영상의 질감, 아트워크의 분위기를 하나의 대화 안에서 조율할 수 있습니다.
5. 강 위에 서서
ProducerAI의 등장이 모든 것을 해결해주는 것은 아닙니다. 저작권의 문제, AI가 학습한 데이터의 윤리, 음악 산업에서 인간 아티스트의 생존 — 이 무거운 질문들은 여전히 우리 앞에 놓여 있습니다. Suno에 대한 아티스트 커뮤니티의 공개 서한이 보여주듯, AI 음악 생성은 여전히 뜨거운 논쟁의 한가운데에 있습니다.
그러나 적어도 ProducerAI는 하나의 중요한 방향을 제시합니다. AI와 인간의 관계를 '대체'가 아닌 '대화'로 설정한다는 것입니다. 인간이 버튼 하나로 완성품을 뽑아내는 소비자가 아니라, AI와 함께 반복적으로 탐색하고 선택하고 조율하는 창작자로 남을 수 있다는 것입니다.
저는 여전히 매주 AI로 음악을 만듭니다. 프롬프트를 입력하고, 결과물을 듣고, 다시 프롬프트를 수정하는 그 반복의 과정 속에서 무언가 제 것이라고 부를 수 있는 것이 태어나는 순간을 기다립니다. ProducerAI는 그 기다림의 시간을 '대화'로 채워줄지도 모릅니다. 그리고 어쩌면, 그 대화의 흔적 자체가 하나의 새로운 예술 형식이 될지도 모릅니다.
프롬프트에서 대화로. 생성에서 큐레이션으로. 그 사이의 강 위에 우리는 서 있습니다.