이런저런 영상 이야기 - 3
사실 라이브방송시스템에 관한 자료는 인터넷에 많이 없다. 애초에 라이브 송출시스템 환경을 개인이 갖추고 설명하기 어렵기 때문일 거라 생각된다.
물론 나도 영상에 대한 전공자이다 보니, 방송설비에 대해서는 아는 게 거의 없다.
그래도 라이브 송출시스템에 대해서 이론적으로만 알던 부분들을 방송국에 와서 일하면서 여러 실험을 해볼 수 있었다.
하드웨어의 설비는 할 수 없더라도, 장비들이 각각 어떤 역할을 하는지, 영상 송수신 다이어그램이 어떤 과정으로 진행되는지 정도는 알아야 스튜디오 촬영에 있어서 엔지니어분들과 의사소통이 원활하기 때문에 알아두면 좋긴 하다.
요즘은 스마트폰 하나로도 라이브 송출이 가능한 시대이기 때문에
작은 온라인 홈쇼핑이나 기업에서도 이를 많이 활용한다.
(스마트폰은 최고의 카메라이자, 편집기이자 네트워크망을 가진 송출기이다.)
라이브 방송시스템에 대한 이해를 하려면 SDi, HDMI, 비트레이트, 레이턴시 등 영상 신호에 대한 이해뿐만 아니라 각 스태프들의 역할과 스튜디오에 대한 이해가 있으면 좋은데 사실 이런 내용은 스튜디오별로 일을 해오던 방식이나 많이 활용하는 시스템이 조금씩 상이하기 때문에 일관된 설명을 하기는 조금 조심스럽다. 같은 방송국이더라도 각 스튜디오마다 엔지니어가 다르고 사용하는 소프트웨어(Atem, Vmix, OBS 등)가 다른 것 또한 어쩔 수 없다.
어찌 됐든 오늘은 내가 Vmix를 사용하는 라이브스튜디오에서 어떻게 영상의 화질을 개선했었는지 이야기를 해보겠다.
그렇기 때문에 내용에 대해서 일부 생략되거나 틀린 부분이 있을 수 있다.
(혹시나 글을 읽으시는 분들 중 엔지니어 출신분이 계시다면 잘못되거나 설명이 부족한 부분을 댓글로 짚어주시면 감사드립니다.)
야외에서 영화나 광고등의 현장을 겪어본 사람들의 입장에서 스튜디오 촬영은 댕꿀로 보일 수밖에 없다.
물론 로케이션이 실내라서 따뜻하고 편안한 것도 있지만 내가 생각하기에는 제작에 있어서 지향점이 다른 점이 큰 것 같다.
스튜디오촬영에서 가장 큰 고려사항은 효율성이다.
적은 리소스로 최대의 효과를 내야 한다.
물론 제작하는 영상의 성격에 따라 다르지만, 대부분 스튜디오 촬영이 필요한 콘텐츠는 매일 또는 매주 연재형의 콘텐츠인 경우가 많다. 일관된 포맷과 구도도 중요한 부분이고, 그렇기 때문에 프로그램 첫 제작 전에 더 많은 고려사항이 필요하다.
사실 생방송에서 색보정이라고 하면 부조정실에서 TD(Technical Director)가 영상신호분석기를 보며 멀티카메라의 벡터스코프와 웨이브 폼을 보며 일관된 색상균형을 맞추거나 화이트밸런스, 블랙밸런스를 교정하는 것을 의미한다.
시대가 흐르면서 '색보정'이라는 단어는 색상의 균형을 맞추는 것을 넘어서 영상의 독자적인 색감과 느낌을 표현하는 포스트프로덕션단계에서 없어서는 안 되는 과정 중 하나가 되었다.
이제 일반인들도 Log촬영을 하며 카메라의 다이나믹레인지를 확장하고 포스트프로덕션 단계에서 감마와 콘트라스트, 색상균형을 조절하며 영상의 표현의 범위와 다양성 또한 넓어졌다.
하지만 생방송은 촬영과 거의 동시에 송출이 된다. 포스트프로덕션이라는 단어 자체가 없다.
그렇다고 정제되지 않은 촬영본을 시청자에게 전달할 수는 없지 않은가.
그렇기에 일반적으로 컴퓨터의 편집 소프트웨어로 Di과정을 거치는 것이 아닌, 방송기술적인 요소들로 카메라에서 만들어진 영상신호가 부조정실에서 조정이 되고 송출이 되는 것이다. 그렇기에 방송기술적인 요소들이 색보정을 담당할 수밖에 없다. 부조정실에서 체크하는 여러 가지 요소들이 많지만 나도 다 알지 못한다.
뭐 아무튼 카메라 셋팅을 하는 감독의 입장에서는 의문이 생길 수 있다.
생방송은 Log나 RAW로 못 찍나요?
사실 나는 개인적으로 LOG와 RAW를 같은 선상에 두는 것 자체를 인정할 수 없지만, 일단 이 내용에서는 '후 보정이 필요한 촬영본'이라는 개념으로 접근을 해보자.
일단 저 질문에 대한 답변은 "네 못 찍어요. 찍지 마세요. 왜 그런 생각을 하세요?"이다.
RAW 데이터는 '날것' 그대로의 정보이기 때문에 화면에 표시되거나 전송되기 전에 화이트 밸런스, 색 보정, 노출 조정 등의 후처리 과정이 필수적이다. 생방송은 이러한 후반 작업 과정을 거칠 시간이 없으므로, 카메라 자체에서 처리된 JPEG 또는 이와 유사한 압축된 비디오 형식(예: H.264, H.265)을 즉시 사용해야 한다.
뭐 아무튼 이론적으로 이렇고 나도 이렇게 생각해 왔다.
Vmix 소프트웨어 내에서 3D Lut을 지원하기 전까지는...
(레딧에선 22년 업데이트부터라는데 언제부터 지원했는지 전혀 모르겠다, 혹시 아신다면 알려주십쇼..)
사실 이전에도 생방송에서 3D Lut을 사용하는 기술적인 방법 자체가 없던 것은 아니다.
영상신호가 지나가는 컨버터에 Lut을 적용한다거나, Lut Box라는 하드웨어장비를 사용한다거나, Blackmagic라이브스트림카메라 자체에서 Lut을 적용해서 영상신호를 보낸다거나 뭐 여러 가지 기술적인 방법은 있긴 하다.
새로 간 직장에서는 Vmix를 활용해서 생방송 송출을 하고 있었다.
그전에도 Blackmagic ATEM시스템을 활용한 중계촬영 경험이 몇 번 있었지만 Vmix는 운용해 본 적이 없었기에 Vmix에서는 3D Lut이 적용 가능하다는 것도 처음 알았었다.
(그 이후에 혹시 ATEM소프트웨어에서도 이런 기능이 있는지 알아보았지만 아직 없는 듯하다. 아마도 기술적으로 Blackmagic회사가 부족해서라기보단 이미 ATEM시스템에서 3D LUT을 카메라에서 불러올 수 있는 생방송용 카메라 또는 컨버터가 있기 때문일 것이라 예상한다.)
물론 Lut이라는 건 일종의 프리셋의 개념이고, 촬영하는 환경이나 조명요소가 바뀌면 그에 맞게 디테일하게 바뀌어야 한다.
그러나 스튜디오 촬영은 보통 프로그램별로 조명셋팅도 거의 일정하고 날씨에 구애받지도 않는다. 그렇다는 건 생방송에서 CST 캘리브레이션이 잘 된 3D Lut을 적용해 보면 비싼 카메라가 아니어도 꽤 좋은 성능을 빠른 셋팅으로 활용할 수 있다는 것이다.
다음 글에서는 제가 Cannon, Sony카메라를 혼용으로 사용하는 멀티카메라 시스템에서 Vmix에서 불러올 3D CST LUT을 만드는 과정에서 알게 된 점들에 대해 정리를 해보겠습니다.
읽어주셔서 감사합니다.