IT보안. 회사에서 ChatGPT 써도 될까?

- 쓰면 안 된다고 하기엔 너무 편하고, 그냥 쓰기엔 찜찜한 -

by 리오

요즘 회사에서 ChatGPT 쓰냐고 물어보면, 다들 쓴다고 한다. 근데 회사 공식 승인 받고 쓰냐고 물어보면 말이 없어진다. 아니, 규모가 작은 회사라면 되레 이렇게 물을 수도 있다.

"그게 승인받고 써야 하는 거였어요?"

이 질문 자체가 지금 대부분 회사의 현실이다. IT보안 업무를 16년 넘게 하면서 이렇게 빠르게 임직원들 사이에 퍼진 도구를 본 적이 없다. 노션도, 슬랙도, Zoom도 이 속도는 아니었다. 회사가 도입을 결정하고 교육하고 계정 만들어주는 과정 없이, 그냥 알아서 쓰기 시작한다. 개인 계정으로, 회사 노트북으로, 회사 자료 갖다 붙이면서.


보안팀 입장에선 이게 단순한 새 도구 도입 문제가 아니다. Shadow IT(회사 승인 없이 임직원이 개인적으로 쓰는 외부 서비스)가 갑자기 AI 급으로 업그레이드된 거다.



그래서 뭐가 문제냐고?

직관적인 예를 하나 들어보겠다.


계약서 초안을 AI에 붙여 넣고 "이거 좀 다듬어줘"라고 하거나, 사업계획서 요약 시키거나, 실적 데이터 분석 맡기거나. 다들 편하게 쓰는 그 순간, 회사 내부 데이터가 외부 AI 서버로 전송되고 있다.


"업체에서 데이터 안 쓴다고 했는데 뭐가 문제예요?"


물론 퍼블릭 AI 업체들도 할 말은 있다. "엔터프라이즈 플랜은 데이터 학습에 절대 사용하지 않는다", "업로드된 데이터는 철저히 보호된다"고 공식적으로 장담한다. 틀린 말은 아닐 수도 있다. 근데 보안 실무자 입장에서 외부 서버로 나간 데이터를 "믿습니다"로 끝내는 건 다른 문제다. 내부 데이터가 내 손을 떠난 순간, 통제권도 같이 떠난 거다.


거기다 유료/무료 플랜마다, 서비스마다 정책이 다 다르다. 그 차이를 제대로 알고 쓰는 임직원은 솔직히 별로 없다. 알려고 하지도 않는다. 프록시 로그를 들여다보면 어떤 도메인으로 얼마나 큰 데이터가 나갔는지 다 찍힌다. 보안팀은 이미 보고 있다. 그리고 양이 꽤 된다.


중요한 건 이게 외부 해킹이 아니라는 게 포인트다. 임직원이 직접, 자발적으로, 매일같이 내부 데이터를 밖으로 보내고 있는 거다.

Google Gemini가 생성한 이미지 (AI도 베라처럼 입맛대로 골라서 사용하는 시대다.)


막으면 되는 거 아닌가요?


"그냥 방화벽에서 다 막으면 되는 거 아닌가요?"


최근에 굉장히 많이 들은 말이고 실제로 이렇게 하는 곳 꽤 많다 하하.

이론적으론 간단하다. 도메인 차단하면 끝이다. 실제로 IT 승인 프로세스가 갖춰진 회사들은 이미 그렇게 하는 곳들이 있다. 퍼블릭 AI 서비스를 방화벽 단에서 아예 막아버리고, 쓰고 싶으면 승인된 도구로만 써라, 라는 식으로. (물론 이런 프로세스 자체가 없는 회사가 훨씬 많지만..)


완전 차단을 시도하면 체감상 한 달을 못 버틴다. 위에서 예외 요청이 내려오기 시작하면 그때부터 예외가 정책이 된다. C레벨이 직접 쓰고 있는 경우도 허다하다. 보안팀이 막으면 바로 예외처리 요청 온다. 그것도 프로세스가 아니고 메신저나, 유선으로. 안 막으면 나중에 사고 나면 책임은 보안팀이 진다. 이게 이 바닥의 전형적인 딜레마다.


더 황당한 건, DLP(데이터 유출 방지 솔루션) 같은 엔드포인트 통제 수단이 없는 회사라면 막아놔도 직원들이 개인 핸드폰 핫스팟으로 연결해서 그냥 쓴다. 완전 차단은 오히려 가시성(Visibility)을 완전히 잃는 결과가 된다. 적어도 회사 네트워크로 쓸 때는 로그라도 남는다.


막을 수 있는 조직 문화와 대체재가 있으면 모를까, 그게 없는 상태에서 막기만 하면 음지로 들어가는 거다.



그래서 회사들이 선택하는 방법들

현재 기업들이 실제로 대응하는 방향은 크게 세 가지다.


자체 로컬 LLM 구축.

사내에 LLM을 직접 올려서 데이터가 외부로 아예 안 나가게 하는 방식이다. 데이터 유출 리스크가 없다는 게 최대 장점인데, 문제는 비용과 성능이다. 일부 대기업이 (퍼블릭 AI를 대체 하겠다고) 이 방식을 택하는데 구축 비용만 수십~수백억이 들어간다. 그리고 막상 써보면 퍼블릭 AI 성능을 못 따라간다는 게 사용자들의 공통된 불만이다. 옆에서 GPT 쓰는 사람 보면서 "이거 왜 이렇게 답답하지" 하게 되는 거다. 그 큰돈을 쓰고도 체감은 열등감이 되는 상황.


AI 게이트웨이 구축.

퍼블릭 AI는 그대로 쓰되, 중간에 게이트웨이를 두고 나가는 데이터를 필터링하는 방식이다. 주민등록번호, 계좌번호, 사내 코드 같은 민감 정보는 자동으로 마스킹하고 나머지는 통과시킨다. 직원 편의성도 살고 보안팀 통제도 된다는 점에서 기술적으로는 가장 합리적인 선택지다. 다만 구축하고 운영하는 데 리소스가 적지 않게 든다는 게 현실적인 장벽이다.


전용 솔루션 도입.

브라우저 레벨에서 임직원이 AI 도구에 입력하는 내용을 실시간으로 탐지해 민감 정보를 마스킹하는 방식이다. 세 가지 중 도입이 가장 빠르고 가볍다. 다만 솔루션마다 탐지 정확도 차이가 있고, 정책 설계를 제대로 안 하면 오탐이 많아져 현장에서 불만이 쌓인다.


뭘 선택하든 "아무것도 안 하는 것"보다는 낫다. 근데 더 중요한 건, 어떤 방식이든 현장이 납득해야 작동한다는 거다. 보안팀 혼자 결정하고 강제하면 또 음지로 들어간다.



지금은 시작에 불과하다.

지금은 그래도 직원이 브라우저에서 직접 붙여 넣는 수준이다.


진짜 문제는 AI가 사내 시스템과 직접 연동되기 시작하는 순간이다. 요즘 AI 에이전트가 직접 파일 읽고, 메일 보내고, DB 조회하는 구조가 기업 안으로 들어오고 있다. 그 연동 과정에서 보안 검토가 제대로 들어가고 있냐고 물으면, 솔직히 따라가기 벅찬 속도다.


여기서 한 가지 더. 프롬프트 인젝션이라는 공격이 있다. 사용자가 직접 뭔가를 입력하는 게 아니다. AI가 처리하는 웹페이지, 문서, 이메일 같은 외부 콘텐츠 안에 악의적인 명령을 심어놓고, AI가 그걸 그냥 실행하도록 유도하는 방식이다. 랜섬웨어가 사람을 노렸다면, 프롬프트 인젝션은 AI를 노린다. AI 에이전트가 사내 시스템 접근 권한을 갖게 되는 순간, 이게 현실적인 위협이 된다.


아직 대중적으로 알려진 대형 피해 사례가 많진 않다. 하지만 이 바닥에선 이미 시나리오 레벨에서 충분히 논의되고 있다.


조용할 때 준비해야 하는 이유다.



결국 AI 도구는 막을 수 없다. 어떻게 막느냐보다 어떻게 통제하면서 허용하느냐의 싸움이다. 그게 지금 보안팀한테 떨어진 숙제다. 근데 그 숙제 내준 사람도, 숙제 검사할 사람도, 사실 다 ChatGPT 쓰고 있다. 나도 포함해서.