brunch

국내 기업·정부의 '딥시크' 사용 금지 확산

국내 기업·정부의 '딥시크' 사용 금지 확산



메타ai뉴스 논설위원 이현우 교수


1. 서론


최근 국내 기업과 정부 기관에서 '딥시크(DeepSeek)'를 포함한 생성형 AI 서비스의 사용을 금지하거나 제한하는 움직임이 확대되고 있다. 특히 한국수력원자력, SK하이닉스 등 주요 기업과 공공기관이 업무망에서 해당 AI 서비스를 차단하는 조치를 취하고 있으며, 정부 또한 AI 서비스 사용에 대한 주의를 촉구하는 등 적극적인 대응에 나섰다.


이러한 조치는 AI 기술이 보안과 정보 유출 위험을 내포하고 있다는 인식이 커지면서 비롯된 것으로 보인다. 본 보고서에서는 '딥시크' 사용 금지 조치의 배경, 주요 사례, 그리고 향후 전망을 분석하고자 한다.



2. '딥시크' 사용 금지 조치의 배경


2.1 생성형 AI와 보안 우려


생성형 AI는 사용자 입력을 바탕으로 텍스트, 이미지, 코드 등을 생성할 수 있는 기술이다. 이는 업무 생산성을 높이는 데 유용하지만, 동시에 정보 유출 및 데이터 보호 문제를 야기할 수 있다.


특히 기업 및 공공기관에서는 다음과 같은 이유로 AI 서비스 사용을 제한하는 추세다.


1. 보안 및 기밀 정보 유출 위험


생성형 AI는 학습된 데이터 및 사용자의 입력 내용을 바탕으로 답변을 생성하기 때문에, 내부 기밀이 외부로 유출될 가능성이 존재한다.


원전, 반도체, 금융 등 주요 산업 분야에서는 보안이 중요한데, AI를 통한 의도치 않은 정보 노출이 기업 경쟁력에 타격을 줄 수 있다.




2. 데이터 소유권 및 법적 문제


AI가 학습하는 과정에서 데이터 소유권이 불분명해질 수 있으며, 특정 기업이나 기관의 정보를 무단으로 활용할 가능성이 제기된다.


개인정보 보호법, 산업기밀 보호법 등과 관련한 법적 이슈가 발생할 가능성도 존재한다.




3. AI 서비스의 신뢰성 문제


AI 모델이 생성하는 정보의 정확성이 완벽하지 않으며, 잘못된 정보를 제공할 위험이 있다.


특히 공공기관에서는 정책 결정 및 정보 제공의 정확성이 필수적인데, AI의 불완전성이 문제로 작용할 수 있다.




3. 주요 기업과 정부의 대응 사례


3.1 한국수력원자력


한국수력원자력(한수원)은 원전 관련 보안 강화를 위해 AI 서비스 사용을 제한해왔다. 지난 1일, 사내 업무망에서 '딥시크' 사용을 금지하는 공문을 게시하며, 기존 챗GPT 사용 제한 조치를 확대했다. 원전 관련 정보가 외부로 유출될 가능성을 차단하기 위한 조치로 보인다.


3.2 SK하이닉스


SK하이닉스는 생성형 AI 서비스에 대한 접근을 금지하고, 필요한 경우 제한적인 사용만 허용하는 정책을 발표했다. 반도체 산업은 국가 전략 산업으로, AI를 통해 기술 정보가 유출될 경우 심각한 피해가 발생할 수 있기 때문에 이와 같은 조치를 취한 것으로 보인다.


3.3 카카오, LG유플러스, 네이버 등 IT 기업


국내 주요 IT 기업들도 AI 사용 제한 조치를 확대하고 있다.


카카오와 LG유플러스는 최근 '딥시크' 사용 금지를 권고했다.


네이버 역시 내부 보안 강화를 위해 유사한 정책을 도입했다.



IT 기업들은 AI 기술을 활용한 서비스 개발에 적극적인 모습을 보이면서도, 내부 보안과 데이터 보호를 위해 자체적으로 AI 사용을 제한하는 이중적인 전략을 취하고 있다.


3.4 정부 부처의 대응


정부는 지난 4일, 각 부처 및 기관에 AI 서비스 사용에 주의를 기울일 것을 촉구했다. 이에 따라 산업통상자원부, 외교부, 통일부, 국방부, 농림축산식품부, 보건복지부, 환경부 등 주요 부처들이 '딥시크' 차단 조치를 시행하거나 검토 중이다.


특히 국방부와 외교부 등은 국가 안보 및 외교 기밀이 포함된 업무가 많아 AI 사용에 대한 규제를 더욱 강화하는 모습이다.



4. AI 사용 제한 조치의 영향과 전망


4.1 기업 및 공공기관의 AI 활용 방향 변화


AI 서비스의 활용이 제한됨에 따라, 기업과 공공기관은 내부적으로 자체 AI 솔루션을 개발하는 방향으로 전략을 변경할 가능성이 높다.


기업들은 자체적인 AI 모델을 구축하여 보안성을 확보하면서도 AI의 효율성을 활용하는 방안을 모색할 것으로 예상된다.


공공기관도 자체 AI 개발을 추진하거나, 보안이 강화된 AI 서비스를 도입하는 방향으로 정책을 조정할 가능성이 크다.



4.2 AI 서비스의 규제 강화 가능성


정부의 AI 사용 제한 조치는 향후 AI 서비스에 대한 규제로 이어질 가능성이 있다.


AI 서비스 제공업체는 데이터 보안 및 개인정보 보호를 강화하기 위한 정책을 마련해야 할 것이다.


법률 및 규제 차원에서 AI의 활용 범위를 제한하는 조치가 추가될 수도 있다.



4.3 글로벌 AI 규제 흐름과의 연관성


국내 기업과 정부의 움직임은 글로벌 AI 규제 흐름과도 맞닿아 있다.


유럽연합(EU)은 AI 법안(AI Act)을 통해 생성형 AI의 사용을 규제하고 있다.


미국도 AI 윤리 및 보안 문제를 고려한 정책을 수립 중이다.


중국은 AI 콘텐츠 검열을 강화하며, 국가 차원의 AI 통제를 실시하고 있다.



이러한 글로벌 흐름 속에서 한국의 AI 사용 제한 조치는 국제적 규제 흐름과 맞물려 강화될 가능성이 있다.



5. 결론


국내 기업과 정부가 '딥시크'를 포함한 AI 서비스의 사용을 금지하는 움직임은 보안 강화와 정보 보호 차원에서 이루어지고 있다. 한국수력원자력, SK하이닉스 등 주요 기업과 정부 기관들이 AI 사용 제한 조치를 취하면서, 국내 AI 활용 정책이 변화하는 양상을 보이고 있다.


이러한 변화는 기업과 공공기관의 AI 활용 전략을 자체 개발 및 보안 강화 방향으로 이끌 가능성이 있으며, AI 서비스 제공업체들에게도 보안 및 규제 대응을 강화할 필요성을 제기하고 있다. 앞으로 AI 관련 법규 및 규제 정책이 보다 구체적으로 정비될 것으로 예상되며, 기업들은 이에 맞춰 전략을 조정해야 할 것이다.

keyword
매거진의 이전글AI 기반 검색 혁명, 2025년, 구글의 대담한 미래