양날의 검, 풍요와 혼란 사이의 절묘한 줄타기
본 글은 전문 정책보고서의 내용을 일반 독자의 이해를 돕기 위해 쉽게 풀어 쓴 것입니다. 학문적 정확성과 전문성을 높이기 위해 노력했으나, 일부 내용이 원문의 의도나 철학적 해석과 차이가 있을 수 있습니다. 깊이 있는 인문학적 이해를 위해서는 반드시 원문 및 관련 전문가의 저작을 참고하시기 바랍니다. 본 해설은 원문의 취지와 맥락을 설명하기 위한 것으로, 해설자의 정치적 견해나 가치판단과는 무관합니다. 원문 전부는 국회 입법조사처 홈페이지에 공개되어 있습니다.
최근 우리 사회 곳곳에서 인공지능(AI) 기술이 빠르게 확산되면서 편리함과 혁신을 가져다주고 있지만, 동시에 윤리적인 문제와 저작권 침해 가능성에 대한 우려도 커지고 있습니다. 마치 첨단 기술이라는 양날의 검과 같이, AI는 우리의 삶을 풍요롭게 할 수도 있지만 예상치 못한 사회적 혼란을 야기할 수도 있습니다. 이 복잡한 문제들을 해결하고 AI 기술과 인간 사회가 조화롭게 발전하기 위해서는 명확한 규제 체계 마련이 필수적입니다. 국회입법조사처의 정책연구용역보고서 「인공지능 윤리와 저작권의 규제체계 연구」는 이러한 시대적 요구에 발맞춰 국내외 AI 규제 동향을 분석하고, 미래지향적인 입법 방향을 제시하고 있습니다. 지금부터 보고서의 주요 내용을 바탕으로 AI 윤리와 저작권 규제에 대한 논의를 쉽고 재미있게 풀어보겠습니다.
AI 기술은 이미 의료, 금융, 교육, 교통 등 다양한 분야에서 혁신적인 변화를 이끌고 있습니다. 특히, 텍스트, 이미지, 음악 등 다양한 콘텐츠를 스스로 만들어내는 생성형 AI의 등장은 놀라운 가능성을 보여주는 동시에 새로운 윤리적, 법적 문제들을 제기하고 있습니다.
윤리적 문제의 대두: AI 기술이 발전하면서 공정성, 투명성, 책임성과 같은 윤리적 가치를 어떻게 AI 시스템에 적용해야 할지에 대한 논의가 활발하게 이루어지고 있습니다. 특히, AI가 생성한 허위 정보나 조작된 영상(딥페이크)은 사회적 혼란을 야기하고 개인의 권리를 침해하는 심각한 문제로 이어질 수 있습니다.
저작권 침해 논란: 생성형 AI가 방대한 양의 저작물을 학습하면서 저작권 침해 여부가 중요한 쟁점으로 떠오르고 있습니다. AI 학습 과정에서 저작물을 이용하는 행위가 저작권 침해에 해당되는지, 아니면 공정한 이용으로 볼 수 있는지에 대한 명확한 기준이 없는 상황입니다.
본 연구는 이러한 문제의식을 바탕으로 인공지능 기술로 인해 발생하는 윤리 및 저작권 분야의 규제 체계를 분석하고, 국내 실정에 맞는 입법 방향을 제시하는 것을 목표로 합니다.
인공지능 윤리 규제에 대한 논의는 전 세계적으로 활발하게 진행되고 있습니다. 특히 유럽연합(EU)과 미국은 서로 다른 접근 방식을 취하며 주목할 만한 규제 움직임을 보이고 있습니다.
EU 인공지능법(AI Act)의 특징: EU는 세계 최초로 포괄적이고 옴니버스 형태의 인공지능 규제 법안인 AI Act를 제정하여 위험 기반 접근법을 채택했습니다. 이는 AI 시스템의 위험도를 분류하여 각 위험 수준에 따라 차등화된 의무를 부과하는 방식입니다. EU AI Act는 AI 기술 개발 및 활용 관련 이해관계자를 제공자, 배포자, 수입업자 등으로 구분하고, 각 역할별로 상세한 의무 사항을 규정하고 있습니다. 또한, 범용 인공지능 모델에 대한 별도 규제, 강력한 행정 규제, EU와 회원국 간 다층적 거버넌스 구축, 혁신 지원 제도 마련 등 다양한 특징을 보입니다. 저자는 EU의 통합적인 접근 방식이 AI의 위험성을 사전에 예방하는 데 효과적일 수 있지만, 법률이 복잡하고 아직 명확하지 않은 부분이 많아 향후 시행 상황을 지켜봐야 한다고 지적합니다.
미국의 분산적 규제: 반면, 미국은 연방 정부 차원의 포괄적인 AI 규제 법률은 아직 제정되지 않았습니다. 대신, 행정명령을 통해 공공 분야를 중심으로 AI 정책을 추진하고 있으며, 캘리포니아, 콜로라도 등 일부 주에서 비교적 강력한 규제를 담은 법률이 시행되고 있습니다. 미국의 규제 방식은 연방 차원에서 새로운 AI 관련 법률을 개발하기보다는 기존의 부문별 법률을 적용하고, 구속력 없는 원칙이나 자발적 지침을 활용하는 특징을 보입니다.
저자는 EU와 미국이 위험 기반 접근 방식에는 공감하고 있지만, EU는 수평적 규제, 미국은 수직적 규제에 더 의존하는 경향이 있다고 분석하며, 어느 한 방식만을 따르기보다는 양쪽의 장점을 유연하게 혼합하여 우리나라 실정에 맞는 규제 방안을 모색할 필요가 있다고 강조합니다.
우리나라도 AI 기술 발전과 함께 윤리적 문제에 대한 인식이 높아지면서 다양한 규제 논의가 진행되고 있습니다. 특히, AI 기본법 제정 움직임과 사회적 문제로 떠오른 딥페이크 규제가 주요 이슈입니다.
AI 기본법 제정 논의: 제21대 국회에서 AI 기본법안이 발의되었으나 최종 폐기되었고, 제22대 국회에서 다시 여러 건의 AI 관련 법안이 발의되어 논의가 진행 중입니다. 이러한 법안들은 AI 기술 개발 및 산업 육성, 윤리 및 신뢰성 확보 등을 주요 내용으로 담고 있으며, 고위험 AI에 대한 규제, 생성형 AI에 대한 고지 의무 등을 포함하고 있습니다. 하지만, AI 정의, 규제 대상 범위, 거버넌스 체계 등에 대한 다양한 의견이 존재하며, 법안 통과까지는 더 많은 논의와 합의가 필요할 것으로 보입니다.
허위조작정보(딥페이크) 규제: 최근 딥페이크 기술을 이용한 허위 정보 유포 및 사생활 침해 사례가 증가하면서 이에 대한 규제 필요성이 강하게 제기되고 있습니다. 현재 공직선거법 개정을 통해 선거운동 목적의 딥페이크 영상 제작 등이 금지되었지만, 일반적인 딥페이크 영상물에 대한 포괄적인 규제는 아직 미흡한 상황입니다. 이에 정보통신망법, 콘텐츠산업진흥법 등 관련 법률 개정안이 발의되어 AI 생성물 표시 의무화, 불법 딥페이크 영상물 유통 금지 등을 논의하고 있습니다. 저자는 허위 영상물 규제와 AI 생성물 표시 의무를 구분하고, 딥페이크 악용 방지를 위한 강력한 규제와 함께 AI 생성물의 투명성을 높이기 위한 표시 의무 도입의 필요성을 강조합니다.
생성형 AI의 핵심은 방대한 데이터를 학습하여 새로운 콘텐츠를 창작하는 능력입니다. 이 과정에서 저작권이 있는 데이터(텍스트, 이미지, 음악 등)를 이용하는 행위가 저작권 침해에 해당될 수 있다는 논란이 뜨겁습니다.
학습 데이터로서의 저작물 이용: AI가 저작물을 학습하는 과정은 저작물의 복제 및 전송 행위에 해당될 수 있습니다. 따라서 저작권자의 허락 없이 이루어지는 학습은 원칙적으로 저작권 침해에 해당합니다. 하지만, AI 기술 발전과 데이터 활용의 중요성을 고려할 때, 모든 학습 행위에 대해 저작권자의 허락을 받는 것은 현실적으로 불가능합니다.
공정이용(Fair Use) 법리의 적용: 한국과 미국은 저작물의 공정한 이용을 허용하는 포괄적인 규정을 두고 있습니다. AI 학습 행위가 공정이용에 해당되는지 여부는 이용의 목적 및 성격, 저작물의 종류 및 용도, 이용된 부분의 비중 및 중요성, 저작물의 시장 가치에 미치는 영향 등 다양한 요소를 종합적으로 고려하여 판단해야 합니다. 최근 미국의 법원 판례를 보면, 비표현적이고 변형적인 이용은 공정이용으로 인정되는 경향이 있지만, 생성형 AI의 상업적 성격과 원저작물 대체 가능성 등을 고려할 때 AI 학습에 대한 공정이용 인정 여부는 여전히 불확실합니다.
텍스트 및 데이터 마이닝(TDM) 면책 조항 논의: AI 학습의 법적 불확실성을 해소하기 위해 TDM 면책 조항을 저작권법에 도입하자는 논의가 활발하게 이루어졌습니다. TDM은 대량의 데이터를 컴퓨터를 이용하여 분석하고 유용한 정보를 추출하는 기술을 의미합니다. EU, 영국, 일본, 싱가포르 등 주요 국가는 TDM 면책 규정을 도입하여 AI 학습을 포함한 데이터 분석 활동을 일정 범위 내에서 허용하고 있습니다. 하지만, 국내에서는 저작권자와 AI 업계 간의 의견 차이로 인해 TDM 면책 조항이 아직 법제화되지 못하고 있습니다. 저자는 TDM 면책 조항 도입의 필요성을 강조하면서도, 저작권자의 권리 보호와 AI 기술 발전 간의 균형을 맞추기 위한 신중한 논의가 필요하다고 지적합니다.
생성형 AI 기술이 발전하면서 AI와 저작권 간의 충돌은 현실적인 법적 분쟁으로 이어지고 있습니다. OpenAI, Stability AI 등 주요 AI 기업들은 저작권 침해 혐의로 다수의 소송에 직면해 있습니다.
주요 소송 사례: 소설, 뉴스 기사, 이미지, 음악 등 다양한 저작물을 학습 데이터로 사용한 행위, AI가 생성한 결과물이 기존 저작물과 실질적으로 유사하다는 주장 등이 주요 소송 쟁점입니다. 아직 대부분의 소송이 초기 단계에 있지만, 법원은 AI 학습 데이터 이용의 적법성, AI 생성물의 저작권 인정 여부, AI 생성물에 의한 저작권 침해 책임 등에 대해 중요한 판단을 내릴 것으로 예상됩니다. 특히, 학습 과정에서의 중간 복제와 최종 결과물의 실질적 유사성 여부가 핵심 쟁점이 될 것으로 보입니다. 최근 중국 법원에서 생성형 AI가 만든 이미지에 대한 저작권 침해를 인정한 판결은 주목할 만한 사례입니다.
보고서는 국내 인공지능 윤리 및 저작권 규제 체계 마련을 위한 몇 가지 중요한 입법 방향을 제시합니다.
유연하고 단계적인 규제 접근: AI 기술의 빠른 발전 속도를 고려하여 EU와 같은 강력한 사전 규제보다는, 규제 대상 분야를 제한적으로 열거하고 사업자에게 최소한의 의무를 부여하는 등 유연한 접근 방식을 취해야 합니다. 향후 기술 발전과 사회적 영향에 따라 규제 범위와 수준을 점진적으로 조정해 나가는 것이 바람직합니다.
위험 기반 규제 원칙의 적용: AI 시스템의 위험도를 평가하여 차등화된 규제를 적용하는 위험 기반 접근 방식은 타당합니다. 다만, 현 단계에서는 공공 분야를 중심으로 고위험 AI를 식별하고, 과도한 부담이 없는 수준의 규제를 우선 도입하는 것이 적절합니다.
생성형 AI 모델에 대한 별도 규제: 높은 범용성과 파급력을 가진 생성형 AI 모델에 대해서는 기술 문서 작성 의무, 저작권 준수 의무, 학습 데이터 요약 공개 의무 등 별도의 규제를 통해 잠재적 위험을 관리해야 합니다.
연산 능력 기준 도입 신중론: 높은 연산 능력을 가진 AI 모델에 대한 추가 규제 필요성에는 공감하지만, 법률에 경직된 연산 능력 기준을 명시하는 것은 기술 발전을 따라가지 못할 수 있습니다. 불확정적 개념을 도입하고 필요시 하위 법령에서 구체적인 기준을 설정하는 방안을 고려해야 합니다.
제공자와 배포자 역할에 따른 책임 분배: AI 생태계에서 활동하는 각 주체(개발자, 서비스 제공자, 사용자 등)의 역할과 책임에 따라 적합한 의무를 부과하는 방안을 고려해야 합니다.
독립적인 거버넌스 체계 구축: AI 정책 수립 및 감독 기능을 담당하는 독립적인 기구를 설립하여 전문성, 공정성, 독립성을 확보하고 관련 부처 및 기관과의 협력을 강화해야 합니다.
TDM 면책 조항 도입 및 저작권 보호 균형: AI 학습을 위한 TDM 면책 조항 도입을 적극적으로 검토하되, 저작권자의 옵트아웃 권리, 적법한 접근의 범위, 학습 데이터 출처 표시 방법, 보상 의무 등 다양한 요소를 종합적으로 고려하여 저작권 보호와 AI 기술 발전 간의 균형을 이루어야 합니다.
허위조작정보(딥페이크) 규제 강화 및 AI 생성물 표시 의무화: 딥페이크 영상물 제작 및 유포를 강력하게 규제하고, AI가 생성한 콘텐츠임을 명확하게 표시하도록 의무화하여 정보의 투명성을 높이고 사회적 혼란을 방지해야 합니다.
본 보고서는 인공지능 기술의 윤리적 문제와 저작권 규제라는 복잡하고 중요한 주제를 심도 있게 다루면서도, 일반 독자들이 쉽게 이해할 수 있도록 핵심 내용을 명확하게 제시하고 있습니다. 급변하는 AI 시대에 우리가 직면한 과제를 해결하고 미래 사회의 방향을 설정하는 데 필요한 통찰력을 제공한다는 점에서, AI 기술에 관심 있는 모든 독자에게 일독을 강력히 권합니다.
(본 글은 [신용우(연구책임자), "인공지능 윤리와 저작권의 규제체계 연구" pp.1-189 (2024. 9. 28.), 국회입법조사처 보고서]를 참고하여 작성되었습니다. 저자와 출판연도는 정확히 기재해야 해. 정확한 개념의 이해와 해석을 위해서는 반드시 원 보고서를 참조하시기 바랍니다. 본 글은 전문적인 학술 논의를 대체할 수 없으며, 보다 깊이 있는 이해를 위해서는 관련 분야의 다양한 문헌을 참고하시기 바랍니다. 본 해설은 원문의 취지와 맥락을 설명하기 위한 것으로, 해설자의 학술적·정치적 견해나 가치판단, 신념과는 무관합니다. 원문 전부는 국회입법조사처 게시판에 공개되어 있습니다. https://www.nars.go.kr/report/list.do?cmsCode=CM0010 )