2. Ai는 작가를 대체할 것인가? AI와 노동의 문제
네, AI는 대본을 쓸 수 있습니다.
2016년 소프트웨어 개발자이자 만화가인 Andy Herd는 2004년 방영이 끝난 시트콤 <프렌즈>의 대본을 AI에게 학습시켰습니다. 학습을 마친 AI는 단숨에 <프렌즈>의 새 대본을 만들어냈습니다. 대본을 읽어 본 <프렌즈>의 열성팬은 오리지널의 정체성이 없다고 비판했지만, 의외로 방송할 정도의 수준이라고 평가한 사람도 꽤 많았답니다. <프렌즈>처럼 매회 정해진 캐릭터가 새로운 상황을 맞아 대처하는 드라마를 미국에서는 '시리즈' 물이라고 합니다. 우리 드라마 업계에서는 '시추에이션 드라마'라고 부릅니다. 우리나라에서 미니시리즈라고 부르는 드라마는 '시리얼'이라고 부른답니다. <프렌즈>와 같은 시리즈물은 오랜 기간의 대본과 영상이 축적되어 있습니다. AI가 학습한다면 그 안에서 잠재적인 패턴을 발견할 수 있을 것이고 그렇기에 대본을 만들어 낸 것입니다.
그렇다면 아예 방송되거나 상영된 적이 없는 새로운 작품을 기획하는 것은 할 수 있을까요?
이미 이런 시도가 이루어지고 있습니다. AI에게 몇 개의 상황과 캐릭터를 제시하고, AI의 답변을 기다린 후 좀 더 자세한 상황을 요구하는 식으로 작업을 해나가는 모양입니다. 아래의 링크는 Ai의 일종인 Waymark란 툴을 이용해서 만든 <The Frost>란 12분짜리 단편 영화입니다.
https://youtu.be/QW-NFkVDfdA?si=D9E6wZRN_a-_ytqM
이 영화는 대본을 AI가 만들고, 여러 차례의 명령을 통해 생성된 비디오를 인간이 짜깁기한 것이라고 합니다. 이런 방식으로 단편 영화가 나오기 시작했고, 최근에는 AI 영화제까지 열리고 있습니다. 아직까지는 캐릭터 사이 대사의 주고받음이 어색하고 비주얼도 안정적이지 않습니다. 앞부분의 육포를 먹는 장면을 보면, 캐릭터가 자신의 혀를 먹는듯한 어색함을 발견할 수 있습니다. 그러나, 발전하는 기술의 양상을 보면 이런 단점을 극복하는 것은 시간문제일 것이라 생각합니다. 그럼에도 연구자들은 AI가 만드는 스토리텔링에 중대한 문제가 있을 수 있다고 지적합니다.
AI의 창작에는 다음과 같은 문제가 있습니다.
첫째, 귀납적 추론의 결과이기 때문에 나타나는 문제가 있습니다. 성공의 공식을 모방하면 모방할수록 결과물이 비슷해질 우려가 있다. 잠재적 패턴을 알아내는 AI의 학습방식은 평균에 수렴한 비슷한 결과를 낼 수밖에 없다는 것입니다. 실제로 이미지를 생성하는 실험에서 인간의 인풋을 통제하고, AI가 생성한 이미지를 학습시키자, 최종적으로 나타나는 이미지가 인간의 다양한 인풋을 학습한 과정에 비해 대동소이한 결과가 나왔다고 합니다.
둘째, AI의 Hallucianation오류를 바로 잡다 보면 너무 고지식한 결과를 내는 모순이 발생합니다. AI는 검색 엔진이 아니기에 너무 명백한 사실을 물으면 황당한 대답을 하거나 거짓말을 하는 경우가 발생합니다. 예를 들어 Chat GPT에 제 이름을 넣고 알아봐 달라고 하면 제가 '런닝맨'과 '미스터 선샤인', '슬기로운 의사 생활'의 프로듀서로 알려줍니다. AI가 술 취한 듯 헛소리를 한다고 해서 Hallucination 오류라고 부르는데, 이 오류를 통제하고자 고지식한 대답을 하도록 매개변수를 조정하면 예술적인 성취하고는 먼 고답스런 결과물을 내는 한계가 있다는 것입니다. TV나 드라마의 경우 사람들이 좋아하는 감정의 흐름이나 구성이 있습니다. 그럼에도 어떤 작품이 대중성을 띈다는 것은 다른 작품에서 볼 수 없었던 차별점이나 신선한 부분이 있기 때문입니다. 인간이 사고하는 방식을 쫓아 패턴과 공식을 적용하는 데는 성공하지만, 한 작품이 명작의 반열에 오르는 데 필요한 변이나 도약, 새로움을 포착하는 것에는 부족함이 많다는 것입니다. 아직까지는 요.
셋째, 인간을 학습하면서 인간의 오류를 계승하는 문제가 있습니다. AI에게 학습을 시키는 사람이 인종 차별 주의자라면 어떤 일이 벌어질까요? 예를 들어 한국 드라마에 이주 노동자가 일하는 모습이 자주 등장한다면, AI는 노동자의 모습을 묘사할 때 당연히 이주 노동자의 모습으로 그릴 수 있습니다. 편견과 선입관을 인간으로부터 학습한 후 그것을 당연한 듯 결과물에 반영하는 것입니다. 이런 오류를 막기 위해 AI에게 인간의 피드백을 통해 학습을 교정하는 강화학습(Reinforcement Learning for Human Feedback)을 시키곤 하지만, 여전히 인간의 개입을 통제하거나, 통제하는 인간에게 오류가 있을 경우 윤리적으로 바람직하지 못한 결과물이 나올 수 있는 것입니다.
따라서 AI를 이용해서 스토리텔링을 할 수 있는 가능성은 열려있지만, 여전히 '작가'로서 인간이 개입하고 수정하고 교정하는 일은 필요해 보입니다. AI의 기술적인 발전이 계속되면 이런 문제는 극복할 수 있다고 주장할 수는 있겠지만, 인간의 사고방식을 닮으려고 하는 한 여전히 오류의 가능성은 존재하는 것입니다. 현재도 AI를 미디어 산업에 이용하는 것은 여러 문제가 발생할 것이 예상되고 있습니다. 선진국의 텍스트를 주로 학습하면서 발생할 수 있는 정보 격차의 문제, 저작권자의 권리를 보호해야 하는 문제, 표절의 문제는 AI를 발전시키면서 함께 해결해야 할 숙제로 여겨지고 있습니다. 그래서 AI를 연구하고 이용하는 사람에게 여전히 우리가 AI를 '인간적이고, 윤리적이고, 문화를 발전하는 방향으로 이용하는지' 계속 점검할 필요가 있습니다.
끝으로 Chat GPT에게 AI에게 스토리텔링을 시킬 때 발생할 수 있는 문제점을 물어보았습니다. AI는 다음과 같이 대답했습니다. 대답이 뛰어나서 깜짝 놀랐습니다.
일관성 부족: AI는 스토리의 전체적인 일관성을 이해하는 데 제한이 있을 수 있으며, 중간에 모순된 내용을 생성할 수 있습니다.
인간적 감성 부재: AI는 감정을 이해하거나 적절하게 전달하는 능력이 제한적일 수 있어, 스토리텔링에서 감정적 요소가 부족할 수 있습니다.
창의성 한계: AI는 주어진 데이터에 근거하여 결과물을 생성하므로, 창의성과 독창성 측면에서 인간과는 다른 한계가 있을 수 있습니다.
-Emd of Doc-