brunch

You can make anything
by writing

C.S.Lewis

by 법무법인 미션 Nov 18. 2021

[AI 윤리와 법](1) AI 윤리 가이드라인에 관하여

AI 윤리와 법 (1)



이루다 사태 


2020. 12. 22. 이루다(스캐터랩에서 제작한 페이스북 메신저 기반 채팅 인공지능)는 정식 출시된 후, 2021. 1. 순식간에 사용자 수가 약 40만 명에 달하게 되고, 페이스북 페이지 팔로워 10만 명을 찍는 등 큰 인기를 끌었다가, 몇 가지 심각한 문제를 야기하며 결국 2021. 1. 12. 서비스를 중단하게 되었죠. 


당시 문제가 되었던 지점은 ① 제작사인 스캐터랩이 이루다 전에 제작한 ‘연애의 과학’이라는 앱에서 수집한 정보를 이용하여 이루다를 제작하였다는 것(개인정보유출 문제), ② 일부 이용자가 이루다에게 ‘성희롱’을 한 것, ③ 이루다가 성소수자 등에 대한 질문에 혐오하는 메시지를 답변한 것 등이었습니다. 



AI와 윤리 


공교롭게도 이루다가 출시된 그 다음 날(2021. 12. 23.), 정부에서는 “사람이 중심이 되는 인공지능 윤리기준”을 발표했습니다. ^^;; 


이 공교로운 우연의 일치에서도 잘 드러나듯, 과연 ‘윤리’를 정립하는 것이 과연 사회적 문제를 예방하는데 도움이 되는가에 대한 의문이 생기죠. 


윤리는 법이 아니니까요. 


하지만 윤리에 대한 사회적 합의만 있다면 그 윤리를 지킬 수 있는 방법으로 법을 제정하면 되기 때문에, 윤리를 정립하는 것 자체는 의미가 있는 작업이라고 생각합니다. 그래서 오늘은 지금껏 인공지능 윤리에 관한 국내외의 논의들을 간략히 살펴보려 합니다. 다음 표는 외국 정부, 해외 민간, 국내의 논의를 연혁으로 나타낸 표입니다. 


AI 윤리 관련 움직임


위 논의들 중 의미가 있는 움직임들을 간략히 살펴보겠습니다. 



일단 잘 아시는 그 유명한 아이작 아시모프의 로봇 3원칙은 다음과 같습니다. 


▶ 제1원칙: 로봇은 인간에게 해를 입혀서는 안된다. 

▶ 제2원칙: 제1원칙에 위배되지 않는 한, 로봇은 인간의 명령에 복종해야 한다. 

▶ 제3원칙: 제1원칙과 제2원칙에 위배되지 않는 한, 로봇은 로봇 자신을 지켜야 한다. 

+ 제0원칙: 로봇은 위험에 처한 인간을 방관해서는 안된다. 


전반적인 AI 윤리는 아시모프의 로봇 3규칙처럼, 규칙을 지켜야 하는 주체(수규자)를 로봇으로 하고 있었습니다. 


즉, “로봇이 ~해야 한다”라는 것이 원래 논의의 방향이었습니다. 


그러다가 2006년 EU의 산하기관인 유럽로봇연구연합(EURON)은 로봇윤리 로드맵에 수규자로서 로봇을 만드는 제작자를 포함시켰습니다. 즉, AI를 제작하는 사람들도 ~해야 한다는 식의 규정을 처음 도입한 것입니다. 


2016년은 AI 윤리에 있어서 비약적인 발전이 있었던 해인데요, 먼저 영국의 공학과 물리과학 연구위원회(EPSRC)는 5개의 로봇원칙을 제시하면서 그때까지의 원칙들과 달리 프라이버시를 언급하였습니다. 이때부터 프라이버시 또한 AI 윤리 항목에 포함되기 시작했지요. 그리고 같은 해, 마이크로소프트의 사티아 나델라 CEO는 Bias(편향성)의 방지를 AI의 책무로 제시하였습니다. 


2017년에는 미국의 비영리단체인 FLI(Future of Life Institute)에서 제시한 아실로마 인공지능 원칙(Asilomar AI Principles)이 중요한데요, 여기에는 스티븐 호킹, 일론 머스크 등 AI 연구자 및 사업가들이 서명하였고, 다른 다양한 원칙들 중에서도 특징적으로 인간을 파괴하는 무기 경쟁을 회피하는 내용을 담고 있습니다. 


위와 같은 AI 윤리 가이드라인을 총 정리하려는 연구도 있었는데요, 민간연구소인 Berkman Klein Center For Internet & Society는 지금까지 제시된 36개의 윤리 가이드라인에 등장한 윤리원칙들을 주제별로 분석하였는데, 그 중의 공통항목을 8개로 뽑았습니다. 그 8개는 ① 프라이버시(개인정보보호), ② 책무성, ③ 안전과 보안, ④ 투명성과 설명가능성, ⑤ 공정과 비차별성, ⑥ 기술통제권, ⑦ 전문가 책임, ⑧ 인적가치 증진입니다. 



우리나라의 인공지능 윤리기준


위에서 말씀드렸듯, 이루다가 출시된 그 다음 날(2020. 12. 23.) 우리정부에서는 “사람이 중심이 되는 인공지능 윤리기준”을 발표했는데요, 이 윤리기준에서는 ‘인간성을 위한 인공지능’을 위한 3대 기본원칙으로 ① 인간 존엄성 원칙 ② 사회의 공공선 원칙 ③ 기술의 합목적성 원칙을 세웠습니다. 그리고 위 기본원칙을 실현할 수 있는 10대 핵심요건으로 ① 인권보장 ② 프라이버시 보호 ③ 다양성 존중 ④ 침해금지 ⑤ 공공성 ⑥ 연대성 ⑦ 데이터 관리 ⑧ 책임성 ⑨ 안전성 ⑩ 투명성을 뽑았습니다. 


오늘은 AI 윤리와 관련된 논의들을 국내외의 논의를 중심으로 살펴보았는데요, 다음 시간에는 이루다 사태에 관해 보다 자세히 다뤄보도록 하겠습니다.




MISSION 장건 변호사

작품 선택

키워드 선택 0 / 3 0

댓글여부

afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari