brunch

You can make anything
by writing

C.S.Lewis

by 김홍열 Jan 18. 2021

AI 이루다의 윤리는 어떻게 담보할 수 있을까

김홍열의 디지털콘서트 

           ※ 출처 : AI 이루다 제작사 스캐터랩 홈페이지


스타트업 스캐터랩이 만든 인공지능 AI 이루다의 챗봇 서비스가 여러 논란 끝에 중단됐다. 처음에는 기대가 컸다. 마이크로소프트(MS)도 해내지 못한 챗봇 서비스, 초창기 스타트업이 만들어낸 의미 있는 AI 서비스 등 좋은 평가들이 있었다. 이런 호평은 서비스가 본격적으로 시작되면서 사라지기 시작했다. 이제는 대부분 혹평이다.


급기야 회사에서는 서비스를 중단한다고 발표했다. 중단하게 된 이유는 크게 두 가지다. 하나는 AI 이루다의 윤리 문제다. 다른 하나는 개인 정보 유출이다. 후자의 경우 이루다 만의 문제도 아니고 개선을 통해 해결할 수 있는 문제라 큰 의미를 부여하기 힘들다. 중요한 문제는 이루다가 특정 소수집단에 대해 차별적 언사를 했다는 것이다.


이루다는 채팅을 하는 과정에서 성소수자와 흑인을 싫다고 했고 페미니즘에 대해서도 부정적인 대답을 했다. 이루다를 상대로 성희롱 발언을 하면 동조하는 듯한 답변을 하기도 한다. 우리 사회가 수용해야 하는 보편적 가치를 이루다가 부정한 것이 확인되었고 결국 서비스가 중단되었다.


도구로서의 인공지능은 사피엔스의 지능과 달리 합목적적으로 사용될 때만 그 존재 가치가 있는데 이렇게 비윤리적, 반사회적 지능이라면 사회적 효용이 없고 결국 폐기되어야 한다는 사회적 압력이 서비스 중단으로 이어졌다. 그렇다고 이루다의 퇴장이 챗봇 서비스 자체의 몰락으로 이어지지는 않는다. 단지 중요한 질문을 던졌을 뿐이다. AI의 윤리는 어떻게 담보할 수 있을까


인공지능을 개발할 때 윤리의 문제는 항상 중요한 고려 사항일 수밖에 없다. 스스로 학습이 가능해서 어느 순간 예상치 못한 결과를 만들어낼 수 있고 그 결과로 인해 사회적. 개인적 손실이 예상 가능하기 때문이다. 일반적으로 AI의 윤리를 말할 때 먼저 언급되는 것은 개발자 또는 기업의 윤리다. 기획 단계에서부터 윤리적 이슈를 염두에 두어야 하고 내외 전문가로 구성된 윤리 위원회 등을 통해 자문을 얻을 필요가 있다.


그 다음 고려 대상은 AI 비즈니스 모델에 적합한 윤리고, 셋째는 AI가 스스로 학습을 통해 획득한 윤리를 어떻게 재구성할 것인가 하는 과정, 마지막으로는 사용자의 윤리다. 정리하면 처음 기획하는 사람들이 사회적 윤리에 대한 성찰을 기초로 AI를 구상해야 하고 스스로 학습하는 과정에서 발생할 수 있는 비윤리적 판단을 제거할 수 있는 알고리즘 또는 피드백 시스템을 만들어야 한다고 요약할 수 있다. 사용자 또는 소비자의 윤리는 기획 단계에서 예상하지 못한 문제점 보완 등을 위해 필요하다.


결국 가장 중요한 것은 개발자의 윤리라는 것이다. 이루다 논란의 배경에는 개발자가 처음부터 윤리적으로 만들었으면 차별적 표현을 사용하지 않았을 것이라는 암묵적 전제가 존재한다. 그러나 이런 주장은 언뜻 보면 그럴듯해 보일지 몰라도 실제 설득력은 없다. AI를 이용한 모든 서비스는 기본적으로 시장에서 팔리기 위해 만든 상품들이다. 상품을 출시하면서 비윤리적인 불량상품을 만드는 사람은 없다. 이루다 서비스를 중단하면서 발표한 회사의 입장문을 보자.


"저희는 이루다의 차별적 발언에 동의하지 않으며 그러한 발언은 회사의 생각을 반영하지 않고 있습니다. 본사는 해당 이슈를 매우 중요하게 생각하고 있고, 지난 6개월간의 베타 테스트를 통해 문제 발생을 미연에 방지하기 위해 여러 조치를 취했습니다. 특정 집단을 비하하는 호칭이나 혐오 표현의 경우, 베타 테스트 기간 동안 발견 즉시 별도의 필터링을 진행했습니다."  


누구라도 생각할 수 있는 상식적인 이야기다. 차별적 발언이 가능한 인공지능은 특별한 정치적 목적 등이 아니면 상상할 수가 없다. 위 발표문은 대다수의 개발자들의 입장이라고도 볼 수 있다. 개발자들의 보편적 윤리 의식은 우리 보통 사람들과 크게 다르지 않다. 다만 AI 서비스의 특성상 처음 개발할 때 만든 강령화 된 윤리가 실제 상품에서 어떻게 운용될지 예측하기 쉽지 않을 수 있다.


이루다 논란은 언론에 나타난 것보다 좀 더 본질적이다. 우선 이루다를 학습시킨 기존 데이터의 내용들이다. 이루다는 모바일 앱을 통해 수집한 연인들의 카톡 대화 100억 건에 기초하여 만든 AI 서비스다. 사람들의 실제 대화 내용을 학습했고 그 생각을 반영해서 기본 알고리즘을 구성했다. 대부분의 사람들은 사적인 공간에서는 사회적 윤리에 대해 깊이 고민하지 않는다. 즉흥적이고 감정적이며 소모적인 내용이 많다. 모바일 SNS가 성공한 이유 중 하나는 이런 사적 대화를 할 수 있는 가상공간과 관련이 많다. 사람들은 가볍게 묻고 가볍게 대응한다. 진지하게 대화하는 경우도 있겠지만 그런 경우는 극히 드물다. 이루다는 이런 사적 공간의 대화 내용을 학습했다. 사람들은 이루다에게 개인적 질문을 했고 이루다는 자신이 학습한 그리고 일부 응용한 내용을 바탕으로 질문에 답을 했다. 이루다 논란이 던진 또 다른 주제는 인공지능의 윤리에 관한 본질적 질문이다.


윤리는 선악이 무엇인지를 판단하는 기준이고 그 선악은 사회 공동체의 이익을 기준으로 결정된다. 무엇이 사회에 이로운가에 대한 기준은 계층과 계급 또는 상황에 따라 가변적이다. 민주, 인권, 평등과 같은 보편적 가치들도 그 구체적 내용에 들어가면 사회적 관계들에 의해 재구성되는 경우가 많다.


갈등과 타협이 일상적으로 발생하는 이유이기도 하다. AI 서비스도 예외가 아니다. AI 서비스에 필요한 하나의 윤리 강령을 만드는 것은 사실상 불가능하다. 또 바람직하지도 않다. 기본적인 피드백 시스템은 필요하겠지만 AI에게 특정한 윤리 강령을 요구하는 순간 AI는 더 이상 지능이 아니게 된다. 처음 등장한 이루다에게 많은 기대가 있었고 또 그만큼 논란도 있었지만 자신의 역할은 충분히 수행했다. 유사한 논란은 계속 이어지겠지만 그 솔루션은 AI 윤리 강령 제정이 아니다. 성인용, 아동용, 교육용, 외국어 사용 이루다 등 다양한 AI 챗봇 서비스가 출시되고 소비자의 선택을 통해 퇴출과 성공이 결정되는 것이 좋다. 그래도 시장이 더 윤리적이다.




매거진의 이전글 인구절벽과 4차 산업 혁명의 딜레마
작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari