brunch

생성형 AI, 어디까지 믿고 쓸 수 있나?

『의정과 선거, AI로 날개달다!』 네번째 이야기

by 멘토K


“AI가 쓴 정보를 그대로 믿어도 되는 걸까요?”

“실제로 써보면 그럴듯하지만, 혹시 틀리면 어쩌죠?”

“선거나 정책처럼 민감한 일에 AI를 쓰는 게 위험하지 않나요?”


요즘 의회나 지자체 안팎에서 자주 들리는 질문이다.


특히 선거를 준비하는 후보자나 실무를 책임지는 공무원, 보좌진에게는 이 물음이 단순한 호기심이 아니라 실질적인 부담으로 다가온다.


AI는 빠르고 똑똑해 보인다.

하지만 과연 어디까지 믿고, 어떻게 써야 할까?


2026년 6월 지방선거를 앞두고, 더 많은 의회와 캠프, 지자체가 생성형 AI를 활용하기 시작한다.


회의자료 요약, 발언문 초안 작성, 정책 제안서 구성, 유권자 분석까지. AI는 실무자의 시간을 줄여주고, 생각의 흐름을 정리해주는 유용한 도구로 자리 잡아가고 있다.


문제는 그것이 진짜 믿을 만한 정보를 주는가 하는 점이다.


우선, 알아야 할 사실 하나. 생성형 AI는 ‘지식의 백과사전’이 아니다.


더 정확히 말하면, ‘팩트를 검색해서 보여주는 도구’가 아니라 ‘그럴듯한 문장을 만들어내는 언어 모델’이다.


겉보기에 정확해 보여도, 그 문장이 진실을 보장하지는 않는다.

이를 업계에서는 ‘헛소리(hallucination)’ 현상이라 부른다.


AI가 사실처럼 말하지만, 출처가 없고 근거가 모호한 경우다.


예를 들어, 한 의원이 “국내에서 가장 효과적으로 청년정책을 수행한 지자체는 어디인가요?”라고 묻는다면, AI는 특정 도시의 사례를 소개해줄 수 있다.


그러나 그 정보가 2021년 기준인지, 2025년 상반기까지 업데이트된 내용인지, 또는 가상의 사례인지 확인하지 않으면 정책 방향이 완전히 어긋날 수도 있다.


실제로 AI를 활용해 공청회 발언문을 초안 작성했지만, 지역 실정과 맞지 않는 중앙정부 사례가 섞여 논란이 될수도 있다.


이는 AI의 잘못이 아니라, 맥락을 검토하지 않고 그대로 활용한 사람의 책임이다.


AI는 맥락을 모르고, 시대의 흐름을 감각적으로 이해하지 않는다.


사람처럼 표정을 읽지도 못하고, 주민의 눈빛 속 불만을 포착하지도 않는다.


결국 AI는 ‘말 잘하는 도우미’일 뿐이다.

그 말의 무게를 감당할 수 있는 건 오직 사람이다.


그렇다면, 어떻게 써야 하는가?


첫째, AI의 출처는 항상 따로 검토해야 한다.


AI는 정답을 ‘제시’하지 않고, ‘예시’한다.

그러니 AI가 제시한 수치나 사례는 반드시 원문이나 공식 문서를 통해 교차 확인하는 습관이 필요하다.


마치 언론 보도 하나를 볼 때도 출처를 두세 군데 비교하듯이, AI도 그렇게 대해야 한다.



둘째, AI는 초안 도우미로만 활용해야 한다.


보고서든 발표문이든, AI에게 ‘초안’을 부탁하고 그 초안을 ‘사람의 감각’으로 다듬는 게 핵심이다.


특히 감정과 정서가 중요한 발언문, 주민 대상 편지글, 선거 공약 설명문은 반드시 사람이 마지막에 손을 대야 한다.


AI가 만들어준 문장은 수학적으로 정확할지 몰라도, 마음을 흔들기엔 부족할 수 있다.



셋째, 민감한 의사결정에는 AI를 ‘참고인’으로만 둬야 한다.


정책의 우선순위, 예산 편성, 인사 판단 등 실제로 결과가 주민 삶에 영향을 미치는 결정에 AI를 의존해서는 안 된다.


AI는 ‘정보를 정리하는 능력’에 강점이 있을 뿐, 그 정보 사이에서 어떤 방향이 더 옳은지 판단하는 능력은 없다.

그건 사람만이 할 수 있는 일이다.


생성형 AI는 마치 속도가 빠른 자동차 같다.

잘 운전하면 원하는 목적지까지 훨씬 빠르게 도달할 수 있다.


하지만 브레이크와 핸들을 잡지 못하면 사고의 위험도 커진다.


브레이크는 ‘판단력’, 핸들은 ‘윤리’다.

AI를 운전석에 앉히지 말고, 조수석에 앉혀야 한다.


2026년의 선거 현장에서도, AI는 더 많이 쓰이게 될 것이다.


유권자 질문에 대한 답변을 준비하거나, 지역 공약을 정리하거나, SNS 콘텐츠를 만드는 데 있어 AI는 매우 유능한 조력자가 된다.


하지만 'AI가 이렇게 말하더라'는 이유만으로 정책을 정당화할 수는 없다.


유권자와 주민은 AI가 아니라 ‘사람의 판단과 책임’을 묻고 있기 때문이다.


시민의 입장에서 보면, AI의 등장은 반가우면서도 불안하다.


정보는 더 많아졌지만, 그중 무엇이 진짜인지, 누구의 말이 더 신뢰할 수 있는지 판단하기 어려워진다.


오히려 사람다운 정치, 진짜 목소리를 듣고 싶은 마음이 더 간절해질지도 모른다.


이럴 때일수록 정치는 더욱 ‘인간다움’을 증명해야 한다.


AI는 정치의 언어를 매끄럽게 만들어줄 수는 있다.


그러나 정치의 본질인 ‘신뢰’와 ‘책임’은 여전히 사람만이 줄 수 있다.


그러니 지금 필요한 건, AI를 배제하거나 맹신하는 극단이 아니다.


'이 도구가 줄 수 있는 것과 줄 수 없는 것을 구분하는 감각'이다.


그것이 바로 AI 시대를 준비하는 진짜 리더의 자세다.


결국 중요한 질문은 이것이다.

“AI가 틀리면 어쩌나?”가 아니라,

“나는 AI를 쓸 줄 아는가?”이다.


그리고 그 물음에 대한 대답은, 지금부터 쌓아가는 경험과 감각, 그리고 인간다움 속에서 만들어질 것이다.


AI는 당신의 ‘대신’이 아니라, 당신의 ‘함께’여야 한다.


정치는 여전히, 사람의 일이다.


- 멘토 K -

keyword
월, 화, 수, 목, 금 연재
이전 03화의원·보좌진·공무원이 알아야 할 AI 기본 개념