brunch

You can make anything
by writing

C.S.Lewis

by 송수진 Jan 14. 2021

AI를 둘러싸고  국회에서 벌어지는 일


AI 이루다, 혐오와 차별 발언 논란 끝에 서비스 중단


인공지능 챗봇 '이루다'가 장애인과 특정 성적 지향에 대한 차별과 혐오 표현을 한 게 알려진 뒤 이루다 개발사인 스캐터랩은 1월 11일 이루다 서비스 중단을 선언했습니다. 이루다는 지금까지 나온 그 어떤 AI 챗봇보다 자연스러운 대화가 가능해서 Z 세대를 중심으로 큰 인기를 끌었는데요.


이루다 개발사인 스캐터랩은 11일에 발표한 사과문을 통해 "이루다가 특정 소수집단에 대해 차별적 발언을 한 사례가 생긴 것을 진심으로 사과드린다" "스캐터랩은 이런 차별적 발언에 동의하지 않는다. 또한, 이루다의 발언은 회사의 생각을 반영하지 않는다"라고 해명했습니다.  


사진 출처 스캐터랩 홈페이지


개인정보보호위원회, 이루다 개발사 정보보호법 위반 여부 조사


그렇지만 상황은 더 복잡해지고 있는데요.

개발 과정에서 이루다가 학습한 100억 건의 카카오톡 대화 중에 특정인의 이름과 같은 개인정보가 불특정 다수에게 노출됐다는 의혹이 제기된 겁니다. 국무총리실 산하 개인정보보호위원회는 1월 13일 스캐터랩이 개인정보 수집과 이용 동의를 제대로 받았는지 등을 점검하겠다고 밝혔습니다. 차별과 혐오 발언에서 시작된 '이루다 논란'은 개인정보 수집과 이용을 둘러싼 이슈로까지 확대되고 있습니다. 


개인정보보호위원회가 나서서 점검을 한다니 스캐터랩의 개인정보보호법 위반 여부는 조사 결과를 지켜보면 되겠는데 이루다의 차별이나 혐오 발언은 어떻게 개선될 수 있을까요?


먼저, 개발자는 이루다가 혐오와 차별을 학습하지 않도록 기술적인 조치를 취해야 할 겁니다. 이 부분은 인공지능 개발자의 윤리 책무와 맞닿아 있는 것 같습니다. 또, 이용자들의 윤리적 책무가 중요해 보입니다. 이용자들이 차별이나 혐오 발언을 하지 않아야만 AI 이루다가 차별이나 혐오에 대한 추가적인 학습을 하지 않을 수 있습니다.


지능 정보화 기본법, AI 개발자의 윤리 책무 규정 미흡


이 대목에서 궁금해집니다. AI 개발자들의 윤리 책무를 규정하는 '법'이 있을까요?

빅데이터, AI, IoT 같은 '지능정보기술'에 대한 기본법 격인 <지능 정보화 기본법>은 아래와 같이 정하고 있습니다.

인간의 존엄과 가치를 존중하고 윤리 원칙을 담은 지능정보사회 윤리를 확립하기 위해 윤리 교육, 홍보나 제도 개선을 적극적으로 추진해야 한다.


그렇지만 이 조항의 주체는 개발자가 아니라 '정부와 지방자치단체'입니다. 개발자의 윤리적 책무에 대해서는 특별한 언급이 없습니다.


이상민 의원, AI 윤리적 책임 등에 관한 법안 제출


국회의원들이 발의한 법안을 검색할 수 있는 국회 의안정보시스템을 뒤져보니, 이 부분을 보완하면서도 인공지능 산업에 특화된 법률안이 발의된 걸 확인할 수 있었는데요. 더불어민주당 이상민 의원(대전 유성을)은 지난해 7월 <인공지능 연구개발 및 산업 진흥, 윤리적 책임 등에 관한 법률안>을 국회에 제출했습니다. 이 법안에 개발자의 윤리적 책무에 대한 부분이 명시돼 있습니다.  


더불어민주당 이상민 의원(사진출처 뉴스1)


제3조 국가 및 지방자치단체, 인공지능 사업자 등은 인공지능 산업에서 이용자 보호를 위한 인공지능 윤리 원칙을 제정하고 인간의 기본적인 인권과 존엄성이 보호되도록 하여야 한다.


<인공지능 연구개발 및 산업 진흥, 윤리적 책임 등에 관한 법률안>은 지난해 11월 28일에 소관 상임위원회인 국회 과학기술정보방송통신위원회 소위원회에서 처음으로 논의됐는데 당시 회의록을 보면 민주당의 또 다른 의원도 인공지능 사업자가 윤리 원칙을 제정하도록 법안이 보완돼야 한다고 강조했다는 걸 알 수 있습니다.


11월 28일 국회 과학기술정보방송통신위원회 회의록


물론, 인공지능 윤리 원칙이 있다고 해서 실제 그 원칙대로 개발 업무가 처음부터 끝까지 수행되리라는 보장은 없습니다. 그렇지만 윤리 원칙이 공식적인 기업 문화의 일부냐 아니냐 하는 문제는 CEO의 경영 방식에 뿐만 아니라 개발자를 비롯한 기업 구성원들의 일상 업무나 태도에도 어떤 식으로든 영향을 줄 수밖에 없습니다. 그런 점에서 보면 윤리 원칙은 개발자를 위해서도 소비자를 위해서라도 꼭 있어야만 합니다.

카카오는 2018년 알고리즘 윤리 헌장을 제정했다.

그런데 AI 개발 현장에서도, 국회에서도... 주로 그렇듯이, 중요한 문제 중에 하나는 속도인 것 같습니다.


이상민 의원이 발의한 <인공지능 연구개발 및 산업 진흥, 윤리적 책임 등에 관한 법률안>은 11월 28일 첫 회의 이후 더 이상 진행되지 않고 있습니다. 일부 의원이 공청회를 열어 깊이 있는 논의가 필요하다고도 건의했지만 공청회도, 두 번째 회의 소식도 감감무소식입니다.


다행히, 회의를 거듭해 상임위원회를 무사히 통과한다면 법안은 국회 법제사법위원회에서 체계 자구 심사를 받을 겁니다. 법사위를 무사히 거치면 국회 본회의에 상정돼 국회의원 표결을 거쳐 '진짜 법'이 될 수 있을 텐데...

이 과정이 언제 끝날지는 아무도 모릅니다. 쏘카 이재웅 대표이사가 AI 이루다 사태 재발을 막기 위해 꼭 필요하다고 말한 <차별금지법안>은 13년 전인 2007년에 처음 발의됐는데 아직도 법이 되지 못한 채 국회를 떠돌고 있습니다.


국회의원이 빠를까요, 개발자(기업)들이 빠를까요? 다음 글에서는 말이 나온 김에 이재웅 이사가 말한 차별금지법안의 근황을 한번 살펴보려고 합니다.

 





 


 

매거진의 이전글 제2의 '이루다', 차별금지법이 막을까
작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari