brunch

ChatGPT 시대, 당신 기업의 비밀은 안전한가요?

AI 시대에 알맞은 새로운 보안서약서의 설계

by 유영무 변호사

안녕하세요. 대한변호사협회 등록 IT 전문 변호사, 법률사무소 조인 유영무 변호사입니다.


인공지능(AI) 기술은 어느새 기업 내 소프트웨어 개발이나 콘텐츠 생산 현장에 깊숙이 자리 잡았습니다. 이에 영업 자산 보호를 위한 법적 장치도 새롭게 진화해야 할 시점이 되었습니다. 특히 ChatGPT, Gemini, Claude 등 생성형 AI 도구가 업무를 위한 필수품이 되고 나서는, 기존의 보안서약이나 비밀유지서약만으로는 충분한 보호가 어려워진 느낌입니다.



1. AI 시대의 새로운 위험


기존 전통적인 보안서약서는 "회사의 기밀정보를 외부에 누설하지 않는다."는 포괄적 문구를 담고 있었습니다. 하지만 현재 AI 시대에는 새로운 형태의 정보 유출 위험이 존재하며, 기존 보안서약서로는 새로운 문제점을 담기에 부족합니다.


예컨대 어느 개발자가 AI의 도움을 받으려고 개발 중인 코드를 ChatGPT에 업로드했다가는 심각한 문제가 발생하기 쉽습니다. 입력한 순간 회사의 핵심 알고리즘이 AI 시스템에 학습되어 제3자의 서비스에도 활용될 수 있기 때문입니다.


실제 언론을 통해 알려지는 사례만 보더라도, 많은 글로벌 기업들이 ChatGPT 등 생성형 AI 도구의 사내 사용을 우려하고 있습니다. 삼성전자, 애플, JP모건 등 여러 글로벌 기업들이 사내 ChatGPT 사용을 제한하였으며, 아마존의 경우 직원들에게 회사 코드를 ChatGPT에 입력하지 말 것을 경고한 바 있습니다.



2. 보안서약서의 새로운 요소


그렇다고 해서 생성형 AI 도구를 사용 금지시키는 게 최선의 해결책일까요? 이들은 이미 생산성을 크게 향상하는 유용한 필수 도구가 되었고, 오히려 전면 차단은 비공식적인 사용을 촉진시켜 더 큰 위험을 가져올 수도 있습니다.


따라서 생성형 AI 도구 사용은 일단 허용하되 철저히 관리·통제하는 방향이 현실적인 접근이라고 말할 수 있습니다. 이를 가능하게 하는 결정적인 수단은 바로 새로운 형태의 보안서약서입니다.


첫째, 생성형 AI 도구 사용 방식에 관한 구체적인 제한이 요구됩니다. 무슨 AI 도구를 어떠한 용도로 사용할 수 있는지, 반드시 사전 승인이 필요한 케이스는 언제인지 등을 자세히 규정해야 합니다. 특히 오픈소스 AI 모델의 사용은 보다 엄격하게 관리해야 할 것입니다.


둘째, AI 사용 과정에 생성된 새로운 형태의 자산도 보호 대상에 포함시켜야 합니다. 예컨대 AI를 효과적으로 활용하기 위한 최적의 프롬프트를 개발하는 데에는 시행착오와 노하우가 필요하므로, 이 역시 중요한 영업비밀로 보호해야 할 것입니다.


셋째, 입력하는 정보에 대한 안전장치도 마련해야 합니다. 회사명, 제품명 등 주요 식별 정보를 제거하고, 특징적인 비즈니스 자료가 노출되지 않도록 하는 등 상세한 지침을 마련해야 합니다. 이때에는 반드시 책임자의 사전 검토를 거치도록 하는 절차를 둬야 좋겠습니다.



software_law_B.jpg



3. 위반 시 조치 규정


새로운 보안서약서는 위반 행위에 대한 조치를 체계적으로 규정해야 합니다. 기존의 보안서약서처럼 "회사의 기밀정보를 누설할 경우 징계 및 민·형사상 책임을 진다."는 식의 포괄적인 문구만 담고 있었던 형태와는 달라져야 합니다.


AI 시대에는 위반 행위의 양상이 매우 다양해졌고, 그 결과에 따른 피해를 예측하기 어려워졌습니다. 예를 들면 어느 개발자가 ChatGPT에 코드를 입력한 경우, 이 정보가 어떻게, 얼마나 확산될지는 누구도 예측할 수가 없습니다. AI 도구가 학습한 정보는 다른 사용자의 응답에 활용될 수 있고, 이는 회수가 불가능합니다.


따라서 위반 행위의 단계와 경중에 따른 조치가 필요합니다. 즉, 단순히 징계할 수 있다는 선언적 규정이 아니라 위반 행위를 구체적으로 분석해 그 정도에 따라 차등하는 징계 기준을 마련할 필요가 있습니다.


승인되지 않은 AI 도구를 사용하거나 절차를 따르지 않은 경미한 위반은 경고나 교육이 가능합니다. 반면, 핵심 정보를 무단으로 업로드한 중대 위반은 감봉, 정직 등 중징계가 가능할 것입니다. 물론 사안에 따라 손해배상과 같은 민사적 책임을 묻거나, 형벌을 위한 형사 고소까지도 가능하겠지요.



4. 마치며


인류가 생존하는 한 AI 기술은 계속해서 발전할 것입니다. 그에 대응하여 기업의 기술 및 정보 보호를 위한 법적 장치도 꾸준히 진화해야 합니다. 특히 AI가 학습한 자료의 재활용이나 결과물의 지식재산권 문제 등은 늘 새로운 쟁점이 되어 등장할 거라 예상합니다.


결국 AI의 혁신적 기술력을 수용하면서도 기업의 핵심 자산을 효율적으로 보호하는 균형 잡힌 답안을 찾는 길이 중요합니다. 그러나 현재의 법과 제도는 AI 기술의 발전 속도를 따라가지 못하는 게 현실입니다. AI를 활용하는 기업은 보다 선제적인 법적 대응 체계를 갖춰야 하겠습니다.


지나친 규제는 기술 혁신을 막을 수 있지만, 느슨한 관리는 기업의 핵심 자산을 유출시킬 위험에 빠뜨릴 수 있습니다. 결국 이러한 현실에 대한 솔루션을 제공하기 위하여는 기술적 이해와 법률적 전문성의 두 가지 요소가 모두 필요합니다.





법률사무소 조인 유영무 변호사는 한성과학고와 서울대 전기공학부를 졸업하고, 제54회 사법시험 합격, 사법연수원 수료 후 변호사 개업을 했습니다. 현재 대한변호사협회 등록 IT 전문 변호사이며, 소프트웨어 및 IT 지식재산권 관련 분쟁, IT 형사 사건, Tech 스타트업 법률자문 등을 주로 처리하고 있습니다.


홈페이지: joinlaw.com

블로그: blog.naver.com/itlegal

keyword
매거진의 이전글인공지능 시대의 법적 이슈들 [1] 총론