69. 만학일기
최근 AI툴을 활용해 각종 작업 체험 사례가 늘고 있다. 그중에 음악을 만들어 본 사람, 만드는 방법을 배우는 사람이 늘고 있다. 이중에 프롬프트로 가사를 만들고 작곡 툴로 작곡을하고 유통 사이트에 실제도 곡울 탑재하고 각종 음원사이트에 공개하는 과정까지 체험하는 메니아들도 늘고 있다.
AI 음악을 처음 들었을 때의 놀라움은 아직도 생생하다. 하지만 일부 툴이 제작한 곡들은 곡을 듣고 나면 이상하게도 귀가 피곤해지고, 집중도 흐려진다. 마치 감정 없는 고음만 계속 반복되는 것 같다고 할까. 이번 주 대학원 강의 과제발표에서 우리는 바로 이 현상을 담은 토론 질문의 답을 들었다. “AI 음질 열화(audio degradation)”라는 말이 낯설지만 어쩐지 익숙하게 다가온 이유다.
실제 음악제작 프로듀서이기도 한 원우는 "인간의 목소리와 AI 합성음의 파형은 육안으로 봐도 차이가 있었다. 인간은 숨을 쉬고, 감정을 얹으며, 목소리 안에 ‘잡음’처럼 들릴 수 있는 생의 흔적을 남긴다. 반면 AI는 정확하다. 지나치게 정확해서 오히려 낯설다." 라고 원우는 말했다.
또한 "AI 음성은 주파수 해상도는 높지만, 인간처럼 악기 간 미세한 음색 차이를 구분하는 ‘청취의 층위감’을 구현하지 못해 듣는사람에게 피로를 유발한다고 한다. 실제로 두 개의 악기가 동시에 연주될 경우, AI는 각각의 음을 분리해 해석하기보다 평균화된 음색으로 처리하는 경향이 있어 입체적 감상이 어렵다. 이 현상이 음질 열화의 대표적 사례로, 기술적 선명함이 곧 예술적 감동으로 이어지지 않음을 시사한다." 라고 했다.
우리는 이어폰을 통해 음악을 듣는 세대다. 과거 LP나 카세트 테이프를 듣던 세대와는 청각의 방식이 다르다. 그런 우리에게 AI 음성은 더 큰 혼란을 준다. 기술적으로는 고음질인데, 정작 감정적으로는 저음질이다. 온라인 세미나 인공지능과 문화예술경영 시간에 원우들과 의견을 나누며 나는 깨달았다.
‘음질’이란 단지 소리의 선명함이 아니라, 감정의 해상도이기도 하다는 사실을.
강의는 AI가 예술을 어디까지 흉내낼 수 있는지, 그리고 우리가 왜 여전히 인간의 목소리를 찾는지를 함께 고민하는 철학적 시간이기도 했다. 특히 교수님이 끝에 강조한 말이 오래 남는다.
“AI는 악보를 읽을 수 있지만, 악보 너머를 해석하진 못합니다.”
음악뿐 아니라, 뉴스, 광고, 오디오북, 수많은 콘텐츠가 AI 목소리로 채워지는 시대다. 효율성은 높아졌지만, 그만큼 피로도도 높아지고 있다. 목소리는 단순한 도구가 아니라 감정을 전하는 매개체라는 사실을 잊지 말아야겠다고 느꼈다.
AI는 분명 편리하다. 하지만 그 편리함이 감동을 대신할 수 있을까?
이번 강의를 통해 나는 새로운 질문을 하나 갖게 되었다.
‘기술이 더 좋아지면, 우리는 더 행복해지는가?’
그 질문을 귀에 품고, 나는 오늘도 사람의 목소리를 찾는다.