AI는 기자를 대체할 수 있을까?

‘동료 시스템’이 되기 위한 조건

by 전창영

전창영 (2026). 날카로운 질문은 인간의 영역: AI가 ‘동료 시스템’ 되려면. <신문과 방송> 2026년 1월호. 서울: 한국언론진흥재단.



최근 생성형 인공지능과 대규모 언어 모델(LLM)은 더 이상 낯선 기술이 아니다. 많은 기자들이 이미 취재와 기사 작성 과정에서 AI를 활용하고 있고, 뉴스룸에서도 “AI를 어디까지, 어떻게 써야 하는가”라는 질문이 일상이 됐다. 이번에 〈신문과방송〉 1월호에 기고한 글은 바로 이 질문에서 출발한다. 생성형 AI가 뉴스 생산의 효율을 얼마나 높여주고 있는지, 그리고 그 이면에서 기자들이 느끼는 불안과 한계는 무엇인지, 실제 현장 조사와 인터뷰를 바탕으로 정리했다.



뉴스룸에 이미 들어온 AI, 그러나 끝나지 않은 논쟁

조사 결과를 보면, 국내 언론인 다수는 이미 생성형 AI를 ‘똑똑한 비서’처럼 활용하고 있다. 방대한 자료를 요약하고, 녹취록을 정리하고, 외신을 빠르게 번역하는 일은 AI 없이는 되돌아가기 어려운 단계에 이르렀다. 하지만 동시에 기자들은 분명한 선을 긋는다.

뉴스 가치 판단, 맥락 해석, 취재원의 의도를 읽어내는 일, 그리고 “어떤 질문을 던질 것인가”는 여전히 인간의 몫이라는 것이다. 효율성과 신뢰성 사이에서의 이 양가적 감정은, 지금 뉴스룸이 AI를 대하는 가장 솔직한 모습이기도 하다.



왜 ‘오픈소스 LLM’인가

이 글에서는 언론사 차원의 ‘뉴스룸 LLM 시스템’이 왜 필요한지를 다뤘다. 특히 상용 AI 서비스가 아닌 오픈소스 LLM을 기반으로 해야 하는 이유를 비용, 데이터 통제, 뉴스룸 맞춤형 설계라는 측면에서 짚었다.

AI를 외부 도구로 쓰는 단계에서 벗어나, 뉴스룸의 철학과 기준을 반영한 인프라로 설계하지 않는다면 AI는 언제든 언론의 약점이 될 수 있다는 문제의식 때문이다.



기술보다 중요한 것은 조직과 질문

글의 후반부에서는 RSS 기반 국제뉴스 자동 수집·분석 시스템 사례를 소개하며, AI가 실제로 뉴스 흐름을 어떻게 구조화할 수 있는지를 보여준다. 하지만 동시에 강조하는 지점은 분명하다.

문제는 “무엇을 만들 수 있는가”가 아니라, “어떤 조건에서 안전하고 책임 있게 쓸 수 있는가”라는 점이다. AI는 기자를 대체하는 존재가 아니라, 기자의 질문을 더 날카롭게 만드는 ‘동료 시스템’이 될 때 의미를 갖는다. 그리고 그 선택의 책임은 기술이 아니라 언론사와 기자에게 있다.



해당 기고문은 아래 링크와 첨부파일 PDF를 통해 확인할 수 있다.

AI와 저널리즘의 관계에 관심 있는 분들에게 참고가 되길 바란다.




원문 링크: https://kpf.or.kr/front/news/articleDetail.do?seq=600208


작가의 이전글MCP 등장과 언론사 활용 가능성