인공지능이 쓴 기사 책임은 누가 질까

by 글배우는 글쟁이

8장. 윤리적 고려와 한계


"당신의 기사는 AI가 쓴 것인가요?" 우리가 본격적인 AI시대를 맞으면서 언론 현장에서 이러한 종류의 질문은 더 이상 낯설지 않다.


인공지능(Generative AI)은 급속하게 발전했고, 언어 모델은 텍스트, 기사, 창작물 등을 스스로 생성한다.


그러나 사람이 쓰지 않은 글의 저작권은 누구에게 있고, 생성된 콘텐츠의 오류나 허위 책임은 누가 질까?


이 문제는 단순한 기술 문제가 아니라 언론, 법률, 윤리 전반을 관통하는 중대한 화두다.


이 주제에 대해 △AI 생성 콘텐츠의 저작권 이슈 △책임 주체의 문제 △국내외 법제 동향과 실무 사례 △언론사·저널리스트 차원에서 고려해야 할 과제와 제언이라는 흐름에서 논의를 풀어 나가야 한다.


◆AI 생성 콘텐츠의 저작권


저작권법은 일반적으로 '인간의 사상 또는 감정이 표현된 창작물'에 적용된다. 즉, 저작자가 인간이어야 한다는 전제가 전통적 저작권 법리의 기본이다.


이 때문에 AI가 자동으로 생성한 콘텐츠가 저작권 보호 대상인지부터 논란이 된다.


AI 생성물이 전적으로 자동 생성되었다면, 저작권 보호 대상이 되지 않는다는 해석이 지배적이다.


예컨대 미국 저작권청(US Copyright Office)은 순수 AI 생성 저작물은 저작권 등록을 허용하지 않는다는 방침을 명확히 밝힌 바 있다.


반면, 인간이 프롬프트, 편집, 후반 작업 등에서 실질적 창작성(contribution)을 발휘했다면, 그 부분에 대해 저작권을 주장할 여지는 있다.


예를 들어, 기자가 AI에게 원고 초안을 요청한 뒤 문장 구조를 바꾸고, 정보 추가·삭제, 스타일을 조정했다면, 그 편집·편집자의 기여 부분에 대해서는 저작자로 인정될 수 있다는 견해가 존재한다.


AI를 이용한 생성물은 종종 서비스 제공자(예: AI 플랫폼 기업)와 이용자(프롬프트 작성자) 간의 약관 조건에 의해 귀속이 정해진다.


어떤 플랫폼은 이용자가 생성한 콘텐츠의 저작권을 플랫폼에 귀속시키거나, 플랫폼에 자유 이용권을 부여하는 약관을 명시해 두기도 한다.


따라서 언론사나 기자가 AI를 도구로 사용할 경우, 해당 AI 플랫폼의 사용 약관을 면밀히 검토해야 한다.


또한, AI 모델 학습에 사용된 데이터의 저작권 문제가 뒤따른다.


AI가 기존 저작물을 무단 학습 데이터로 사용했다면, 그 생성물 자체가 원저작자의 권리를 침해할 가능성도 제기된다. 


이 부분은 '훈련 데이터의 저작권' 문제로, 법적으로나 윤리적으로 여전히 논쟁 중이다.


8-1.PNG


◆책임 주체의 문제


AI 작성 콘텐츠의 오류, 허위 보도, 명예 훼손, 저작권 침해 등 문제가 발생했을 때, 누가 책임을 져야 할까.


AI 모델을 제공한 회사나 플랫폼은 그 기술적 설계, 검증 시스템, 필터링 메커니즘 등에 일정 부분 책임이 있다. 예를 들어, 명백한 허위 정보를 생성하거나 비윤리적 콘텐츠를 유도했다면 플랫폼 설계·감독 책임이 제기될 수 있다.


프롬프트를 설계한 사람(예: 기자)은 '어떤 지시를 주었는가'가 중요하다. 만약 프롬프트가 허위, 왜곡, 사생활 침해를 유도했다면 그 사용자도 책임을 질 가능성이 있다.


또한, (AI가 생성한 것을) 무비판적으로 그대로 게시한 언론사나 매체는 교정·검증 책임을 져야 한다.


예를 들어, AI가 사실관계를 잘못 판단해 틀린 통계를 제시했다면, 이를 검증하지 않고 보도한 언론사는 책임 질 여지가 크다.


현실적으로는 '공동 책임'의 구조가 유력하다. 플랫폼은 기술적 안전장치를 구축해야 하고, 사용자나 언론사는 검증 책임을 져야 한다.


법적 책임은 과실 책임 또는 무과실 책임 등 다양한 형태로 구분될 여지가 있다.


◆ 국내외 법제 동향 및 사례


미국 저작권청은 앞서 언급한 대로 순수 AI 생성물에 대한 저작권 등록을 거부한다는 입장을 유지하고 있다.


또한, 유럽연합(EU)은 AI 규제안을 추진 중이며, AI 생성 콘텐츠의 투명성·책임원칙 등을 포함하려 한다.


특히 '설명 가능성'과 '책임 가능성' 요구가 강하게 논의되고 있다.


한국에서는 AI 콘텐츠 관련 명확한 판례가 아직 드물다. 다만, 저작권법·출판·언론 법제 등과의 관계 속에서 입법 보완 움직임이 있다.


예컨대, 저작권법 개정안이 AI 생성 저작물에 대한 규정을 포함할 가능성이 거론되고 있다.


언론사 자동 기사 시스템: 일부 언론사는 스포츠 경기 결과, 주가 요약 등의 단순 기사를 AI가 작성하는 시스템을 도입 중이다. 이 경우, AI가 쓴 기사에 대해 언론사가 최종 검토를 거치고 책임을 지는 구조가 일반적이다.


블로그나 콘텐츠 생산 플랫폼은 이용자가 AI를 활용해 콘텐츠를 만들 경우, 서비스 약관에서 저작권 귀속 및 책임 규정을 명문화해 놓는 경우가 많다.


이를 어길 시 서비스 제공자가 콘텐츠 게시를 제한하거나 삭제하는 경우도 있다.


◆언론 차원에서의 고려 과제


프롬프트 설계 의도와 과정을 기록해 두어야 한다. 언제, 어떤 목적, 어떤 데이터를 기반으로 프롬프트를 주었는지 문서화하면, 책임 소재가 요구될 때 근거가 될 수 있다.


AI가 제시한 정보는 반드시 크로스체크해야 한다. 기자는 기존 취재기법처럼 '출처 확인 → 전문가 확인 → 교차 검증' 절차를 AI 콘텐츠에도 동일하게 적용해야 한다.


AI를 도구로 썼다면, 독자에게 명시적으로 밝혀야 한다. 예: "이 기사는 AI 초안을 바탕으로 사람이 편집하였습니다." 독자 신뢰 확보 및 윤리적 책임성을 위해 투명성을 유지하는 것이 중요하다.


언론사 내부에 AI 활용에 대한 윤리 강령을 마련하고, 프롬프트 작성 가이드라인, 오류 발생 시 대응 절차 등을 사전에 규정해야 한다.


기자 및 언론계는 입법자, 규제 기관과의 협업을 통해 AI 콘텐츠에 대한 책임 규정, 저작권 제도 개선을 요구해야 한다. 또한, AI 제공 기업에도 투명성과 책임성을 요구하는 사회적 합의가 필요하다.


AI는 언론계에 새로운 도구이자 기회를 제공하지만, 동시에 윤리적·법적 한계와 책임의 문제를 동반한다.


'누가 썼는가'보다 '어떻게 썼는가'가 중요해지는 시대다.


기자는 AI를 활용하되, 마지막 책임은 인간이 져야 하며, 그 경계를 분명히 설정할 필요가 있다.




"(재)대구디지털혁신진흥원 2025년 대구 특화 출판산업 육성지원 사업"에 선정, 지원받아 제작되었습니다.

작가의 이전글AI와 협력하는 새로운 전문가의 시대