AI X NFT in Legal
지난 1편에 이어 ChatGPT와 같은 생성형 인공지능(Generative AI, 이하 "GAI")의 등장과 함께 새롭게 대두되고 있는 법적 리스크들을 추가로 살펴본다.
결과물의 신뢰성 이슈
GAI의 결과물에 대한 신뢰성 이슈는 대적으로 제기되고 있는 문제 중 하나이다. GAI는 여전히 여러 가지 제약 조건 아래 개발 중인 기술이며 당연히 완전한 기술이 아님을 명심해야 한다.
ChatGPT 개발사인 OpenAI는 직접 "ChatGPT는 때때로 그럴듯하게 들리지만 부정확하거나 무의미한 답변을 작성하기도 한다"고 명시하고 있다. 따라서 현재 ChatGPT 등의 GAI는 누구든 쉽게 사용할 수 있지만 GAI를 통해 산출된 결과물을 신뢰하여 행동하기 전에 결과물의 정확성과 진실성을 확인하는 것은 매우 중요하다.
1. 편향적 및 차별적 결과물
GAI가 생성한 분석에는 기존에 학습되고 훈련을 받은 편향적 또는 차별적 콘텐츠가 반영될 수 있다. 사용자는 ChatGPT 및 기타 GAI 결과물의 진위 여부를 확인하는 것과 함께 이러한 출처 자료들에 대한 알고리즘 마이닝(algorithmic mining)으로 인한 차별적이거나 편향된 진술 또는 결론에 주의를 기울일 필요가 있다. 이는 특히 고용 차별법(employment discrimination laws) 및 인공지능을 활용한 직원 고용을 규제하는 법률에 저촉될 우려가 있다.
2. GAI가 생성한 콘텐츠에 대한 보험 적용
변호사 등의 전문직, 콘텐츠 제작자 및 퍼블리싱 회사들은 타인의 지식재산(IP)에 대한 침해 및 기타 리스크로부터 보호받기 위하여 전문인 배상책임 보험(errors and omissions liability insurance) 보험에 가입하는 경우가 종종 있다.
이러한 보험 가입시 기업 내부의 콘텐츠 제작의 관행에 대한 검토와 진술을 요구하는 경우가 있는데, GAI로 생성된 콘텐츠는 전통적인 전문인 배상책임 보험의 커버리지 안에 포함될 수 있는지 여부에 대하여 논란이 발생할 수 있다.
3. 연방 통신 품위법 (CDA) 적용
연방 통신 품위법(CDA: Communications Decency Act) 제230조는 그 범위와 적용 범위와 관련하여 많은 논란이 있는데, 특히 온라인 비즈니스에서 GAI로 생성된 콘텐츠가 사용되는 경우 해당 콘텐츠와 관련하여 CDA가 적용되는지 여부와 그 범위에 대하여 아직 명확한 해석이 존재하지 않는다. CDA 제230조는 대화형 컴퓨터 서비스의 제공자 또는 사용자는 해당 서비스를 이용하는 다른 정보 콘텐츠 제공자가 제공한 정보의 게시자(publisher) 또는 발화자(speaker)로서 책임을 지지 않도록 하고 있다.
GAI를 통하여 생성된 콘텐츠가 다른 정보 콘텐츠 제공자(보통은 자연인)가 제공한 정보로 간주되지 않아 서비스 제공자에게 직접 책임을 물을 수 있는 경우가 발생할 수 있는지에 대하여 명확한 가이드라인이 아직 존재하지 않는다. 특히, GAI 콘텐츠가 실시간으로 생성되는 경우, 예를 들어 고객이나 직원과 챗봇 사이의 대화에서 생성된 경우에는 해당 콘텐츠를 어떻게 식별하고 간주할 것인지에 대하여 사전에 명확히 규정하고 이를 고객이나 직원들에게 사전에 적절히 공지하였는지 여부가 중요하다.
4. GAI 생성 결과물의 디스커버리 범위
GAI가 생성한 결과물에 대하여 소송 중 디스커버리 범위에 해당할 것인지에 대한 논의가 필요하다. 특히, 앞으로는 각 기업마다 문서 보존연한이나 보관 방식 등을 규정한 내부 문서에서 GAI 생성 문서에 대한 별도의 카테고리를 두어 관리를 하는 것이 필요해질 것이다.
GAI의 사용과 주의 사항
ChatGPT 등의 GAI는 현재 이미 광범위하게 사용되고 시작했다. 기업들은 더 이상 GAI의 활용방식에 대하여 간과할 수 없으며 가까운 미래에 이러한 기술이 더욱 광범위하게 사용될 수밖에 없을 것이다. 동시에 기업들은 GAI로 인해 발생하는 문제를 평가하여 조직에 어떠한 위험을 초래할 수 있는지를 검토하고 판단해야 한다.
실제로 미국 국립표준기술연구소(NIST: National Institute of Standards and Technology)가 최근 발표한 인공지능 리스크 관리 프레임워크(Artificial Intelligence Risk Management Framework) 1.0에 따르면, 리스크의 허용 범위 및 수준은 시간이 지남에 따라 AI, 정책 및 규제들이 진화함에 따라 변경될 수 있다.
NIST 프레임워크는 조직이 AI에 따른 리스크를 관리, 매핑, 측정 및 관리하기 위한 향상된 프로세스를 개발하고 AI 사용 및 성능을 감독하는 직원의 역할과 책임을 명확하게 정의할 것을 권장하고 있으며 다음과 같은 조치들을 준비할 것을 권고하고 있다.
기업 내 또는 사용자 커뮤니티에 GAI 사용을 허용한다는 메시지와 함께 동시에 GAI의 권한과 위험성을 설명하고 커뮤니티 구성원들이 GAI 사용에 있어 주의할 수 있도록 관련 커뮤니티에 메시지를 전달할 것
특정 업무들에 대하여 GAI의 사용을 구체적으로 제한하는 정책을 시행하고 구성원들에게 공지할 것
외부 비즈니스 파트너들에게도 동등한 수준의 GAI 사용 정책을 공지하고 준수하도록 공지할 것
GAI의 사용 및 사전 승인이 필요한 경우들을 사전에 규정하여 구성원들에게 공지할 것
GAI의 사용 내역을 내부적으로 추적하고 일부 GAI 생성 콘텐츠들에 대하여는 전문가의 추가적인 검토를 받도록 할 것
GAI의 사용 및 GAI 생성 결과물을 외부에 공개할 경우 적절한 면책조항을 포함시킬 것 등
현재 우리가 바라보고 있는 GAI의 태동은 마치 예전에 e-commerce나 웹 2.0의 초기와 같은 역사적인 기술적 혁신의 시대를 이제 막 시작했을 가능성이 높다. 그리고 이 글에서 다룬 이슈들 외에도 향후 GAI 기술과 서비스들이 발전함에 따라 새롭게 등장하고 해결해야 할 문제들은 더 많아질 수 있다.
중요한 것은, 모든 기업들은 위에서 언급한 GAI의 등장과 함께 발생할 수 있는 법적 리스크 중 어떤 부분이 나의 비즈니스에 문제를 야기할 수 있는지 늦지 않게 고민을 시작하는 것이고 지금 바로 내부적으로 적절한 규정을 마련하여 이러한 리스크에 대비할 수 있도록 하는 예방적인 자세라 할 수 있다.