brunch

AI가 똑똑해지니 사람도 똑똑해져야지

AI와 일자리 문제 (2)

by 오징쌤

넷플릭스 같은 OTT 플랫폼에서 생성형 AI로 만든 영상을 싣기로 했다고 해서 곧바로 사람의 일자리가 없어지지는 않을 것이다. 생성형 AI 덕분에 영상 만드는 일이 보다 쉬워질 수는 있지만, 그 영상에는 여전히 빈틈이 많기 때문이다. 무엇보다 생성형 AI로 만든 영상은 일관성이 떨어지거나 자연스럽지 않은 것 같다. 특히 사람의 몸을 잘못 표현하거나, 표정이나 동작을 어색하게 만들 때가 많다. 아직 생성형 AI로는 짧은 길이의 영상 클립만 만들 수 있다. 긴 영상을 만들려면 이 클립들을 이어 붙여야 한다. 그렇게 긴 영상을 만들어놓고 보면 중간중간 뚝뚝 끊어지거나 어긋나는 듯한 느낌을 받기도 한다. 그러다 보니 생성형 AI로 만든 영상에서는 통일감을 유지하기가 어렵다.


이런 부분에서 사람이 할 일이 여전히 남아 있다. 무엇보다 생성형 AI로부터 만족스러운 결과물을 얻어내려면 프롬프트를 정확하게 입력해야 한다. AI가 자연어를 처리하는 능력이 많이 나아져서 사람의 말과 글을 잘 이해할 수 있게 되었다고는 하지만, 사람이 시키지도 않은 일까지 스스로 생각해서 해낼 정도로 똑똑해지지는 않았다. 그래서 창작자는 원하는 구도, 색감에서부터 인물의 표정이나 감정, 화면 배경에 놓이는 물건 등에 이르기까지 프롬프트를 꼼꼼히 적어야 한다. 프롬프트가 자세하고 정확할수록 생성형 AI가 만들어내는 결과물의 완성도도 높아질 것이다. 그러자면 영상 제작자는 자신이 무엇을 원하는지를 정확하게 알고, 그것을 깔끔하게 표현할 수 있을 정도로 뛰어난 언어 능력을 지니고 있어야 한다.


이것은 AI와 일하기 이전의 시대에도 중요한 능력이었다. 우리 회사만 해도 고객사의 데이터를 정리하고 분석하기에 앞서서 그들의 요구 사항을 받아서 정리한다. 그런데 가끔 '데이터를 드릴 테니 여기서 어떤 인사이트를 찾을 수 있는지 알아서 기획해 주시면 안 될까요?'라고 묻는 고객도 있다. 이럴 때는 아주 난감하다. 고객사 사람들이 어떻게 일을 하고, 무엇을 중요하게 생각하는지 모르다 보니 우리가 데이터 분석을 기획하기 어렵기 때문이다. 그래도 사람과 사람이 일을 할 때는 비언어적 표현을 통해 소통할 여지가 어느 정도는 있다. 하지만 사람이 AI에게 일을 시킬 때는 자기 생각을 딱 떨어지게 전달해야 한다. AI는 아직 비언어적 표현을 암묵적으로 이해하지 못하기 때문이다.


이렇게 영상 클립을 만들었다면 이어서 이 클립에 대한 편집이나 후반 작업을 할 차례이다. 앞서 말했듯 생성형 AI로 만든 영상은 일관성이 낮고 덜 자연스럽다. 이 약점을 사람이 직접 손으로 보완해야 할 수도 있다. 예를 들어, 클립의 잘못된 부분을 잘라내거나 수정해야 한다. 색을 보정하거나, 배경 음악을 넣거나, 효과음을 더할 수도 있다. 후반 작업을 하면서 중요한 감정 연출, 장면 전환, 내러티브 연결 등을 통해 전체 영상의 통일성을 높여야 하는데, 이때 여전히 사람의 창의력과 감성이 필요하다. 물론 AI에게 간단한 편집 작업을 시키거나, 영상에 들어갈 음악을 만들어달라고 할 수는 있다. 하지만 AI가 그 이상의 섬세한 작업을 하기는 아직 어렵기 때문에 사람의 손길이 좀 더 필요하다.


중요한 문제가 하나 더 남아 있다. 영상만이 아니라 생성형 AI로 콘텐츠를 만드는 모든 분야에서는 그 콘텐츠의 저작권, 데이터 편향 등과 같은 윤리적인 문제를 생각하지 않을 수 없다. 생성형 AI는 그동안 사람이 만든 데이터를 학습하고, 그 학습 내용을 바탕으로 콘텐츠를 생산한다. 그 과정에서 사용 허락을 받지 않은 데이터를 표절하면 저작권을 침해하는 것이 된다. 또한 AI가 학습하는 데이터에는 사람들이 가지고 있는 편견이 녹아 있을 가능성이 높다. 생성형 AI가 만든 콘텐츠에도 그 편견이 그대로 반영될지도 모른다. 생성형 AI가 만든 콘텐츠가 저작권을 침해하지는 않았는지, 특정 집단을 차별하고 배제하는 편견이 녹아 있지는 않은지 사람이 마지막으로 살펴봐야 한다.


이렇게 보면, 사람의 할 일이 남아 있다는 점에서 마음이 약간 놓이는 느낌이다. 하지만 생성형 AI와 일을 하기 위해서 사람이 이전과는 다른 능력을 갖추기 위해 노력해야 한다는 점에서 오히려 더 부담이 되기도 한다. 무엇보다 사람은 자기 자신에 대한 높은 수준의 메타 인지를 갖춰야 할 것 같다. 자신이 무엇을 원하는지, 그것을 AI에게 정확하게 전달하고 있는지 스스로 계속 점검해야 한다. 내 주변에도 벌써 생성형 AI로 업무 성과를 높이 끌어올리는 사람들이 점점 늘어나고 있다. 적은 사례이지만, 그들의 공통점을 생각해 보면 다들 자기가 무슨 일을 해야 하는지, 업무 성과를 높이기 위해서 무엇이 중요한지를 잘 아는 것 같다. 그리고 AI를 활용해야 할 일과 자기가 직접 해야 하는 일을 명확하게 구분하는 것 같기도 하다.


한층 더 깊이 들어가서, 자신이 어떤 관점에서 콘텐츠를 만들고 있는지, 그 관점이 어떤 과정을 거쳐서 만들어졌는지, 그 관점이 잘못된 편견의 영향을 받은 것은 아닌지 되돌아보고 고칠 수 있어야 한다. 그래야 생성형 AI가 올바르게 일을 할 수 있다. AI는 어디까지나 사람이 시키는 대로 일을 하기 때문이다. 생성형 AI에게 성공한 CEO의 이미지를 만들어달라고 했더니 훤칠한 백인 남성이 멋진 수트를 빼입은 이미지를 만들었다거나, 범죄자의 이미지를 만들어달라고 했더니 수척한 흑인 남성의 이미지를 만들어냈다는 등의 사례는 이미 널리 알려져 있다. 또한 같은 주제의 콘텐츠를 만들더라도, 영어로 만들 때와 중국어로 만들 때 서로 다른 뉘앙스를 담더라는 연구 사례도 있다.

https://mitsloan.mit.edu/press/generative-ais-hidden-cultural-tendencies


몇 달 전 'Google I/O 2025'에서 구글은 영상 제작용 AI 모델인 'Veo-3'을 소개했다. 이 행사의 주제 연설에서 Veo-3로 만든 영상도 보여주었는데, 영상의 완성도가 아주 높았기 때문에 많은 사람들이 감탄했다. 그 후로 얼마 지나지 않았는데 벌써 Veo-3를 활용해서 만든 영상 콘텐츠가 세상에 등장하고 있다. AI 모델은 갈수록 발달할 것이고, 점점 반복적이고 시간이 많이 들어가는 일들은 AI가 맡아서 하게 될 것이다. 이제는 대본 작성, 배우 캐스팅, 촬영 장소 섭외, 촬영 장비 확인 등에 들어갈 에너지를 다른 곳에 쓸 수 있게 되었다. 그 에너지를 AI와 함께 일하는 법을 배우는 데에 써야 한다는 생각이 든다.

https://youtu.be/mCFMn0UkRt0?si=c58BlMu3aFm_r3OJ

keyword
작가의 이전글넷플릭스도 생성형 AI를 쓴다