1부 ‘이루다’ 사례를 통해 살펴보는 기술과 사회의 편향성 문제
1부 – ‘이루다’ 사례를 통해 살펴보는 기술과 사회의 편향성 문제
주제발표 : ‘이루다’가 꿈꾼 세상, ‘이루다’에 담긴 세상
임소연 – 숙명여자대학교 인문학 연구소 교수
이루다가 담긴 세상
이루다 사태 2020년 12월 23일에 출시된 서비스
(1) 남성 이용자들의 이루다 성희롱 : 1월 초 기준 이용자 32만 명 중 85%가 10대, 12%가 20대, 여성을 성적 대상화하고 전시하는 일부 남성들의 디지털 문화 발생
(2) 여성과 약자에 대한 이루다의 혐오 발언 : 남녀 일상 대화에서 대화 표본 추출
(3) 데이터 사용 및 개인정보 유출 논란 (법적 소송)
이루다가 꿈꾼 세상은?
(1) 인공지능 비서, 인간과 친구뿐만 아니라 연인이 되는 것도 정말 꿈꾸던 것일까?
(2) 누가 “여성 AI”를 꿈꾸는가? – 여성은 심리 상담할 때 여성을 선호, 남성의 경우 선호 없이 여성을 선호함, task 목적일 때 남성들이 남성 AI 챗봇을 원함
(3) 어떤 AI 이미지를 선호하는가? 남성은 실제 여성을 촬영한 것 같은 이미지 선호, 여성은 단순화된 2D 이미지를 선호
‘친구 같은’ AI가 윤리적일 수 있을까?
(1) 데이터 문제 : 혐오 표현 및 발언을 ‘완전히’ 제거할 수 있을까?
(2) 자연어 처리 알고리즘을 사용하는 대화형 인공지능
- 목적 지향형 : 대화를 통해서 이용자 요구사항 파악해서 해결해주는 목적
- 자유 발화형 : 친밀하게 말을 주고받아야 함, 특정한 목적을 가지고 임무를 수행하는 게 아닌 사람 친구처럼 대화를 지속하는 것. 그 안에 얼마나 윤리성을 부여할 수 있을까?, 윤리적인 말만 하는 건 가깝고 친한 친구라고 느낄 수 있을지? 오히려 선생님 혹은 종교인과 같은 관계가 되지 않을까?
제안
(1) 기계는 기계답게 : 목적지향형 AI, 사회적 의식이 있는 로봇 어시스턴트
2016년 미국 카네기멜론 대학의 아티큐 랩이 만든 인공지능 가상 비서
인공지능 = 인공 데이터 + 인공 알고리즘 (인위적으로 만든 환경)
(2) 사람 같은 기계는 여/남성 답지 않게 (나사에서 만든 발키리)
토론 : 시대를 반영하는 기술, 시대를 제안하는 기술
하대청 – 광주과학기술원 기초교육학부 교수
이전엔 그 기술은 얼마나 편리하냐, 작동하냐, 수익을 가져오냐 였다면, 이제는 기술은 얼마나 포용적인가 얼마나 사회적 약자를 대변하는 기술로 거듭날 수 있는가? 에 대한 논의로 이어졌다. 그런데 세상엔 다양한 사회적 약자가 있다. 어떤 건 문제로 삼으며 어떤 건 문제 삼지 않는가?
Q. 왜 이루다를 통해 윤리 논의를 시작하는가?
리얼돌에 인공지능이 탑재될 날도 머지않았다. 그런데 왜 이루다에서만 집중하고 있는가?
기술과 포용성에 대해서 접근하는 시각에 대한 논의가 필요하다.
포용성에 대해서 논의하는 방식에 대해서 – 장애인을 고려한다, 여성을 고려한다, 노약자를 고려한다. 어떻게 포용하는가? 우리의 질문 속에 그 질문은 생략되어 있다. 장애인을 위한 기술들 중 장애인을 불편하게 하거나 분노하게 하는 기술들이 있다.
포용이란 게 기술의 혜택을 전해주는 방식인가?
누구를 포용하고 하지 않을 지에 대한 확장된 논의 필요, 포용하는 방식이 정말 그들을 위한 방식인지?
김종우 – 연세대학교 사회발전연구소 전문연구원
편향이란 개념을 중심으로 두고 논의할 부분 공유할 예정
데이터를 누가 만드느냐? 데이터의 근본적인 원천은 인간이다. 인공지능이란 건 컴퓨터 공학뿐 아니라 전반적인 영역에서 학제적인 연구로 주목받고 있음. > 우리와 밀접한 기술
새로운 시대의 시민적 윤리로써 기술과 공존하기 위한 논의 필요
어떻게 우리 사회에 대한 편향적인 의식이나 담론들이 적용되고 작동될 수 있는 건지?
스스로 윤리적인 질문을 공적 책임감을 가지고 살펴봐야 한다.
이루다가 꿈꾼 세상은 우리 사회의 자화상이다.
임소연 - 답변
인공지능의 윤리라고 하면 만드는 사람의 책임으로 말하는데 우리 모두의 책임이다. 데이터 제공자는 우리가 일반적으로 나누는 말이 데이터였다. 개발자, 공학자들에게만 윤리를 지키라는 건 아니다. 하대청 교수님의 토론은 ‘왜 이루다에 주목하는가?’가 굉장히 중요한 포인트
질의응답
Q. 기술로부터 소외된 사람들에게 접근성을 높이기 위해서는 기술이 지향하는 혹은 내포하는 철학이 필요할 것 같습니다. 이제까지 철학의 부재로 기술이 폐기된 예를 알고 싶습니다.
하대청 A. 포용적인 기술에 대한 논의가 역사는 오래되었지만, 일반 시장 속에서 여유 있는 대기업들 아니면 개발의 주제로 삼기가 어려운 주제가 있습니다. 주변에 장애인들에게 불편하게 하는 비협력적인 기술적 인공물을 찾아오라고 하면 굉장히 많은 것이 있다.
척수 장애인들의 상당수는 일으켜 세우는 기술을 원하지 않고 오히려 다른 종류의 기술을 원한다. 대소변에 대한 감각을 느낄 수 있게 해주는 기술이 필요하다. 비장애인들이 생각하는 정상성에 부합하는 것들만 이야기한다. 장애인들이 정말 원하는 기술에 대해서 고민하고 있느냐? 정말 장애인들이 뭘 원하는지 초기에 논의를 시작해야 한다.
Q. 기술이 아무리 발전해도 모든 정보와 발전이 온라인으로 제공되는데 디지털 취약 계층은 더욱 소외가 클 것 같습니다. 정보 조건이 용이한 혁신 사례가 있으면 소개 부탁드립니다.
김종우 A. 알게 모르게 당연히 편리하게 쓰던 기술은 누군가에게 접근성이 낮거나 활용하기 어려울 수 도 있다. 코로나 19 팬더믹 이후에 우리가 인식하지 못했던 다양한 종류의 차별들에 대해 문제가 부각되고 있다. 디지털 소외, 정보 격차라는 것이 정보 취약계층만의 문제가 아니다. 광의의 관점, 복지의 관점에서 접근해야 한다. 디지털 포용 개념, 혁신적 포용 국가를 실현하기 위해 디지털 포용 계획을 마련하고 있다. 격차를 나타내는 게 키오스크. S/W의 표준적인 프레임을 보완하고 장애인 차별금지법으로 법 제도 보완.
노인을 위한 키오스크 활동 및 교육 기회 제공, 영국은 정보격차를 위해 민간과 공조체계를 어떻게 할 수 있을지 역량 강화를 위한 논의를 하고 있다. 미국에선 EASY ACCESS, 표준적인 UI. S/W 제공하고 있다.
Q. 이루다 사례를 통한 부족함을 어떻게 개선해 나가고 있는지?
임소연 A. 자동차 충돌 시험에서 더미라는 가상의 인간을 만들고 시험한다. 초기엔 백인 남성이었지만 점차 여성 더미, 최근엔 임산부 더미까지 만들었다. 이런 문제의식을 가지고 진행되고 있는 프로젝트는 ‘젠더 혁신’. 미국과 유럽까지 확산되고 있는 프로젝트이다. 젠더, 성별, 인종, 차이들을 연구하거나 기술을 개발하는 과정에서 적극적으로 도입하는 것.
Q. 제도적으로 다양성을 확보하기 위한 규칙이 만들어지면 좋겠는데 그 규칙을 만들 수 있을까요? 그 규칙을 만드는데 주체가 누가 되어야 할까요?
임소연 A. 제도적 다양성을 강제 내지는 권고하는 법이나 제도들이 아예 없는 건 아니다. 전혀 그런 게 제도적으로 존재하지 않는다 라는 게 문제라기보단 이미 있는 제도들이 실행되지 않는 것 제도가 필요하다. 정부가 주체가 될 것이다.
Q. 읽어 볼 책은?
임소연 A. 페미니즘 인공지능 (인공 무지 능, 컴퓨터는 세상을 어떻게 오해하는 가?)
하대청 A. 구글은 어떻게 여성을 차별하는 가? : 검색엔진이 중립적이고 객관적이지 않다.
김종우 A. 인간・사물・동맹 : 광의의 철학자가 저술한 책. 인간과 사물이 동맹을 맺고 있다.