민감자료를 AI에게 먹이지 마세요
AI 열풍은 좀처럼 식을 줄 모른다. 상담업계는 이미 AI 챗봇이 상당 부분을 대체했고, 광고·홍보 분야에서도 음원·이미지·영상 제작에 AI가 투입되고 있다. 정치권도 다르지 않다. 예전엔 두세 명이 붙어 고치고 또 고치던 보도자료가 이제는 한두 줄 지시문만 던지면 1분도 안 돼 완성된다. 스케줄 관리, 메시지 작성 등 ‘정무(政務)’의 상당 부분도 AI가 대신한다. 심지어 조례안이나 법안 초안 작성, 기존 법체계와의 비교 작업까지 AI가 정교하게 처리하고 있다.
불과 2년 전만 해도 “AI가 불안하다”고 했던 정치인과 보좌진들이 이제는 앞다투어 활용법을 배우는 중이다. 지방의원 대상 강연 현장에서도 앱 설치조차 어려워하는 분이 있는가 하면 이미 능숙하게 쓰는 분도 많다. 그런데 놀랍게도, AI를 잘 쓰는 사람일수록 보안 문제가 더 크다.
AI는 편리하다. 수십, 수백 페이지에 달하는 참고자료를 순식간에 요약하고, 이를 기반으로 메시지나 질의자료까지 만들어준다. 기술이 고도화되면서 결과물에 손댈 일도 줄었다. 문제는 이 편리함에 익숙해진 나머지, 기밀자료까지 아무렇지 않게 AI에 업로드하는 습관이 생긴다는 점이다.
이는 곧 해외에 있는 플랫폼 본사 서버에 국가 기밀을 “척척 갖다 바치는” 일과 다르지 않다. 실제로 몇 해 전, 모 정당 사무처가 당직자와 의원에게 AI를 무상 제공하겠다며 홍보했다가, 한 언론 보도를 계기로 조용히 철회한 사례가 있었다. 기사 내용은 간단했다. “국가기밀을 AI에 학습시키는 것은 간첩, 이첩 행위와 다름없다.” 맞는 말이다.
정치인은 수많은 정보와 자료 속에서 일한다. 그 상당수는 대외비·기밀, 즉 국민의 안전과 이익을 위해 보안이 지켜져야 할 정보다.
AI는 과거부터 현재까지 축적된 방대한 질문과 답변의 패턴을 학습해, 유사한 질문에 적합한 답을 빠르게 제시한다. 지금까지 구글같은 포털에 공개된 웹 자료, 각종 문서, 사용자가 남긴 상호작용 데이터가 계속 쌓이는 구조다. 그리고 우리가 AI에 건네는 프롬프트와 업로드 파일 역시 저장·처리·학습에 활용된다.
AI는 질문을 가리지 않는다. 소설을 써 달라면 소설을 쓰고, 분석을 맡기면 분석을 한다. 문제는 우리가 AI와 나눈 대화와 투입 데이터가 다른 이의 답변을 위한 재료가 될 수 있다는 점이다. 그래서 민감자료를 특히 조심해야 한다.
챗봇형 AI는 공개 웹과 사용자 상호작용에서 비롯된 거대한 데이터 풀을 기반으로 작동한다. 데이터는 단순한 ‘자료’에 머물지 않는다. 집단의 행동 양식과 경향성을 드러내며, 이는 곧 정교한 타깃팅과 예측을 가능하게 한다. 전쟁, 경제, 여론의 변곡점을 AI가 더 빨리 포착할 것이라는 이야기가 나오는 이유다. 방대한 데이터와 연산 능력이 만나면 예측과 분석의 속도·정확도가 비약적으로 높아지기 때문이다.
그렇다면 이 데이터의 주인은 누구인가. 데이터의 주인은 그것을 만든 인간이어야 하고, 우리 국민이어야 하며, 국가가 이를 관리·보호할 수 있어야 한다. AI가 데이터를 수집·활용하는 과정에서 국민의 권리가 침해된다면, 국가가 구제하고 지원할 장치가 마련되어야 한다.