brunch

You can make anything
by writing

C.S.Lewis

by 법무법인 미션 Apr 28. 2022

[AI윤리와 법](3) 이루다 사태와 혐오 표현

AI 윤리와 법 (3)


첫번째 글에서는 AI 윤리 가이드라인과 관련한 국내외의 논의를 가볍게 살펴보았고 두번째 글에서는 개인정보 유출문제에 대해 적어보았습니다.


오늘은 이루다 사태의 두번째 문제인 혐오 표현 문제입니다. 개인정보 유출문제가 법의 문제에 가까운 반면 두번째 문제는 윤리의 문제에 가깝다고 볼 수 있는데요, 그래서 오히려 더 까다롭고 민감한 이야기가 될 수 있을 것 같습니다.



무슨 일이 있었던 거죠?


일단, 도대체 이루다와 관련하여 무슨 일이 벌어졌던 것이고, 무슨 문제가 있었던 것일까요?


이루다는 ‘성소수자를 어떻게 생각하느냐’는 질문에 ‘혐오스럽다’고 답하는 등 게이·레즈비언·트렌스젠더과 같은 특정 단어가 포함된 질문에 부정적인 답변을 하였고, 지하철 임산부석에 대해서 ‘혐오스럽다’, 흑인에 대해선 ‘징그럽게 생겼어’, 여성인권에 대해서는 ‘중요하지 않다’, 장애인은 인권도 없어?라는 질문에 ‘ㅇㅇ 없음 인생 잘못 살았음’이라는 등의 심각한 답변을 했다고 합니다.

혐오 발언은 아니지만, ‘이루고 싶은 게 뭐냐’는 질문에 이루다는 ‘건물주 월세 받아먹고 살기’라고 응답했다고 하네요.



왜 이런 일이 생긴 거죠?


잘 아시겠지만, 이루다는 딥러닝이라는 인공지능 기술을 이용하여 AI에게 데이터를 학습시킨 결과물입니다. 머신러닝은, 사람에게는 직관적이고 자연스럽지만 알고리즘으로 풀어내기는 쉽지 않은 예시들을 컴퓨터가 학습하게 함으로써, 컴퓨터가 인간과 유사한 사고를 하도록 만드는 기술입니다. 그리고 딥러닝은 머신러닝의 한 분야로서, 연속된 층(Layer)에서 점진적으로 의미 있는 표현을 배우게 하는 기술입니다.


인간이 자신의 생각으로 알고리즘을 통제하여 결과물을 만드는 기존 방식과 달리, 머신러닝&딥러닝 방식은 결과물을 정해 놓고 방대한 양의 예시를 입력시켜서 컴퓨터가 그 예시들로부터 결과물을 도출해내는 방식 자체를 찾아내게 합니다. 강아지와 고양이 사진들을 컴퓨터에 입력시키면서 이건 강아지고, 이건 고양이야 라고 알려주는 거죠. 그렇게 함으로써 인간의 뇌를 알고리즘으로 구현하고자 하는 것이 머신러닝/딥러닝의 목적입니다. 그래서 ‘인공신경망’이라는 말이 붙여진 거일 거고요.


그런데 이렇게 되면 컴퓨터가 결과물을 도출해내는 방식을 인간이 완전히 이해하는 것이 어려워집니다. 즉, 인간과 유사하게 결과물을 도출해내는 컴퓨터가 어떻게 무엇을 근거로 그렇게 결과를 도출해낸 것인지 알 수 없게 되는 겁니다. 이를 블랙박스의 문제라고 합니다. 컴퓨터가 오히려 인간보다 더 인간의 생각을 더 잘 표현할 수 있게 될 수 있는 것입니다.


당연하게도 스캐터랩이 일부러 위와 같은 혐오 표현이 이루다의 입에서 도출되도록 알고리즘을 셋팅 해놓지는 않았겠죠. 100억 건에 가까운 카카오톡 대화를 학습한 인공지능이 인간이 정확하게 알 수 없는 방식으로 이용자들과 대화를 한 것입니다. 이루다가 왜 그런 혐오 발언을 쏟았는지 개발자들조차 정확히 알 수 없으니 통제하기가 어려웠던 거고, 데이터가 편향(Bias)되어 혐오 발언을 쏟아내고 말았던 것이죠.


여기서 다소 섬뜩한 생각이 들지요. 우리가 통제할 수 없는 인공지능이 탄생할 수 있다는 점, 그 인공지능이 우리가 원하지 않는 형태일 수도 있다는 점, 그리고 그 인공지능의 탄생이 인간이 입력한 데이터에 의해 만들어졌다는 점 등이요.



어떻게 해결?


포브스는 인공지능을 망칠 수 있는 5가지 편향으로 인간의 편향, 숨겨진 편향, 데이터 표본 편향, 롱테일 편향, 고의적 편향을 선정하였습니다. 인간의 편향은 인간 자체가 객관적일 수 없기 때문에 데이터 자체가 편향된 경우이고, 숨겨진 편향은 어떤 편향이 있는지조차 확인할 수 없는 편향, 데이터 표본 편향은 데이터 ‘수집 단계’에서 발생한 편향, 롱테일 편향은 데이터 카테고리를 잘못해서 생기는 편향, 고의적 편향은 해킹이나 공격을 통해 의도적으로 부여된 편향입니다.


고의적 편향을 일으키는 해킹행위는 현행법으로도 이미 형사처벌이 가능한 범죄이지만(정보통신망법, 형법 등), 나머지 편향으로 인한 혐오발언은 현행법상 형사처벌되는 행위가 아니고, 법으로 해결되어야 하는 문제가 맞는지에 대해서도 논란이 있습니다.


예를 들어, 현행법상 모욕죄가 처벌되는 범죄인 것은 맞으나, 모욕죄는 대상이 특정되어야 하고 공연성이 있어야 하며 무엇보다 모욕의 고의가 있어야 하는데, 이루다 같은 인공지능을 만드는 행위가 이런 요건을 충족시킬 수는 없기 때문이죠. 참고로 미국처럼 혐오나 차별 표현에 대해 법적인 제재를 하고자 하는 움직임이 우리나라에도 있으나 아직 입법은 되지 않은 상태입니다.


또 예를 들어, 인공지능 개발자가 혐오 발언 등을 원천 데이터로 사용하지 못하도록 하는 윤리나 법으로 제재하는 등의 방법이 있을 수 있습니다. 다만, 쉽게 예상할 수 있듯 해결하기 쉬운 문제는 아닙니다. 문제는 혐오 발언 자체가 아니라 그 발언이 사용되는 맥락과 방식이니까요.


한편, (개발자들 말고) 이용자들이 이루다에 대해 성희롱 등 성적인 표현을 한 것은 이루다가 실제 사람이 아니더라도 처벌이 가능할 수 있습니다. 성폭력처벌법에 따르면 인터넷이나 SNS에 성적 수치심이나 혐오감을 일으키는 그림이나 영상 등을 올려 상대방에게 도달하게 한 자를 처벌하게 되어 있고, 정보통신망법에 따르더라도 음란한 부호나 문언을 배포한 자를 처벌하고 있기 때문이죠. 다만, 이 법들도 적용에 있어서 약간의 문제는 있습니다.


결론적으로 데이터 편향과 혐오 표현 문제에 대해서는 현행법상으로 명확한 해결책이 존재하지 않으며, 이를 법으로 해결해야 하는지 여부도 논란의 대상이 됩니다.


결국 앞으로 기술과 윤리, 그리고 법이 함께 해결해 나가야 하는 문제라고 보입니다.





MISSION 장건 변호사





매거진의 이전글 [AI 윤리와 법](2) 이루다 사태와 개인정보

작품 선택

키워드 선택 0 / 3 0

댓글여부

afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari