brunch

매거진 AI

You can make anything
by writing

C.S.Lewis

알고리즘 윤리의 역사

아시모프의 3원칙 부터 초연결시대에 AI 윤리까지의 이슈와 쟁점 

    사람을 대신할 인공지능(AI)을 마주하는 우리는 삶이 보다 편해지고, 윤택해질 미래를 그린다. 그러나, AI와 공존하게 될 미래가 마냥 아름답게만 그려지지 않는다. 디스토피아 시나리오는 인간을 위해 만들어진 기계가 외려 인간을 해칠 수 있지 않을지 염려한다. 인간을 위해 그리고 인간에 의해, 만들어지는 존재가 인간을 위협하지 않도록 인간은 부정적 개연성을 줄이고 싶어한다. 


    이러한 맥락에서 로봇 혹은 AI의 기술적 발달과 나란히 논의되는 주제가 윤리다. ‘윤리’라는 말로 포장되긴 하지만, 로봇 ‘윤리’[1]는 인간을 이롭게 하려는 본래의 목적에 부합하기 위해 로봇이 지켜야 할 ‘준칙’이다. 이를 전제로 로봇의 윤리에는 인간과의 공존, 로봇 개발자와 이용자의 책임, 프라이버시 보호, AI 기반 무기 경쟁 지양, 초지능의 발전 방향 제시 등이 포함된다. 로봇 윤리의 고전인 ‘아시모프의 3원칙’부터 최근의 초연결시대를 맞아 논의되고 있는 AI 윤리의 이슈와 쟁점을 살펴보자. 



시즌 1: 로봇의 책무만을 강조하던 시대


<1942년 아시모프의 로봇 3원칙>

가장 널리 알려진 로봇 윤리 원칙은 아이작 아시모프(Issac Asimov)의 로봇 3원칙(The Three Laws of Robotics)이다.[2] 3원칙, 혹은 아시모프의 원칙은 1942년 발간된 그의 단편 소설 ‘탑돌이(Runaround)’에서 제안됐다[3]. 세 가지 원칙은 다음과 같다.



ㅇ.1원칙: A robot may not injure a human being or, through inaction, allow a human being to come to harm(로봇은 인간에게 해를 끼치거나, 아무런 행동도 하지 않음으로써 인간에게 해가 가도록 해서는 안 된다).

ㅇ.2원칙: A robot must obey the orders given it by human beings except where such orders would conflict with the First Law(로봇은 인간의 명령에 복종해야 한다. 단 명령이 첫 번째 원칙에 위배될 때는 예외로 한다).

ㅇ.3원칙: A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws(로봇은 자신을 보호해야 한다. 단 첫 번째와 두 번째 원칙과 위배될 때는 예외로 한다)



아시모프의 3원칙은 로봇은 인간의 후생(厚生)을 위해 존재하며, 인간에 의해 인간을 해하는 방향으로 활용될 가능성을 경계한다. 로봇은 자율적으로 행동해야 하며, 스스로 자체의 내구성을 유지하고 보호해야 한다고 규정하고 있다. 다만, 자신을 위한 자위적(自衛的) 행동은 인간의 후생을 위한 명령보다 후순위다. 이같은 로봇의 딜레마는 “무엇이 인간을 위한 것인가?”라는 문제다. 로봇은 기본적으로 인간에게 상처를 입혀서는(injure) 안 된다. 그러나, 인간이 원하는 바를 달성시켜 주기 위한 행동이 인간에게 해가 될 때, 이를 수행하는 것이 옳은 지 아니면 행동을 하지 않는 것이 바람직한지, 로봇은 혼돈에 빠질 수 있다. 아무런 행동도 하지 않는 것이 인간에게 해(harm)가 될 수도 있기 때문이다. 로봇에 내재되는 프로그램이 어느 쪽에 무게를 두느냐에 따라, 로봇은 인간을 물리적으로 해치는 주체가 될 수 있다. 


아시모프의 3원칙은 로봇을 소재로 한 소설, 영화 뿐만 아니라, 로봇 윤리와 유관 정책 연구에도 활용되고 있다. 로봇 3원칙의 현실 적용에 따른 로봇 윤리 문제에 대한 실질적 고민을 경험해 보고 싶은 사람은 영화화 된 아시모프의 작품인 ‘아이, 로봇(I, Robot)’과 ‘바이센테니얼 맨(Bicentennial Man)’ 감상을 권한다.


<1985년, 아시모프의 로봇 0원칙>


아시모프는 1985년 단편 소설인 ‘로봇과 제국(Robots and Empire)’ 에서 로봇 0원칙을 추가 제안했다. 로봇 0원칙은 다음과 같다. 



 'A robot may not harm humanity, or, by inaction, allow humanity to come to harm'(로봇은 인류에게 해를 가하거나, 행동을 하지 않음으로써 인류에게 해가 가도록 해서는 안 된다).



로봇 3원칙의 첫 번째 원칙과 다를 바 없어 보이는 이 문구의  핵심적 차이는 ‘인류’다. 대동소이해 보이지만, 0원칙이 함의하는 바는 크다. 우선, 아시모프는 첫 번째 원칙의 상위 판단 기준으로 삼기 위해, 새로운 원칙에 ‘1’보다 앞선 ‘0’의 숫자를 부여했다. 두 원칙이 충돌할 때는 0원칙에 의해 로봇이 행동해야 함을 의미한다. 

‘인간(Human)’을 ‘인류(Humanity)’로 전환은 공리주의적 발상에 기인한 것으로 해석된다.  아시모프는 한 인간보다는 인류의 이익을 지키는 방향으로 로봇의 행동이 결정되는 것이 합리적이라고 판단한 것이다.[4] 0원칙에는 인류 멸망의 가능성을 명확하게 감지하면, 로봇이 한 개인의 이익 보다는 인류의 생존을 위한 결정이 바람직하다는 판단이 전제된 것이다.[5]



시즌 2: 인간과의 공존, 인간의 책임


2004년, 일본 후쿠오카 세계 로봇 선언

2000년대 중반 이후의 로봇의 활용 분야가 다양해지고, 사람과 로봇 간의 접촉 빈도가 증가하면서, 사람과 로봇 간의 상호 작용에 대한 관심이 높아졌다[6]. 이러한 흐름 하에서 2004년 발표된 로봇 윤리 원칙이 일본 후쿠오카 세계 로봇 선언이다. 후쿠오카는 일본에서는 로봇의 상징적인 지역이었다. 당시 일본에서 생산되는 로봇 생산 규모는 6조4000여억 원에 달했는데, 이 중 20%가 후쿠오카에서 생산된다. 일본 정부는 후쿠오카를 일본의 ‘로봇 특구’로 지정했다. 후쿠오카에서의 세계 로봇 선언 발표는 로봇 분야에서의 위상을 강화하겠다는 일본의 의지가 반영된 것이었다[7]. 2004년은 로봇윤리를 주제로 한 제1회 국제로봇윤리 심포지엄이 이탈리아에서 열린 해이기도 하다[8].



ㅇ.차세대 로봇은 인간과 공존하는 파트너가 될 것이다.

ㅇ.차세대 로봇은 인간을 육체적으로 그리고 정신적으로 보조할 것이다. 

ㅇ.차세대 로봇은 안전하고 평화로운 사회 구현에 기여할 것이다.  



후쿠오카 선언의 핵심은 로봇과 인간 간의 공존이다. 공존한다는 점을 강조하면서도, 여전히 로봇이 인간을 해칠 가능성은 막아야 한다는 ‘안전 관리’ 의지가 담겨 있다. 로봇이 발전할수록 위협에 대한 공포를 심화시키는 경향이 있다. 사실 로봇 혹은 AI를 어떻게 관리해야 하는 지에 대한 논의는 로봇 개발이 만들어낼 경제적 가치에 비해서는 상대적으로 소외되어 왔다[9]. 로봇 그 자체의 기술적 발전 외에, 로봇이 초래할 역기능에 대한 관리, 그리고 그것을 위한 고찰의 필요성에 대한 문제 제기는 2000년 대 중반 부터 활성화 됐다. 그리고 로봇 자체 외, 로봇을 고안한 설계자가 책임 소재지(Locus)로서 다뤄지기 시작했다. 로봇 윤리의 수행 주체에 대한 논의가 변화된 것이다. 


2006년, 유럽로봇연구연합(EURON)의 로봇윤리 로드맵

EURON은 유럽로봇연구연합(The European Robotics Research Network)에서 각 글자의 머릿말을 따서 만들 말이다. 2000년 유럽 연합(EU, 당시 EC) 산하의 기구로 만들어졌다. 유럽 로봇 연구 네트워크란 우리말로 해석될 수 있는 이 조직의 목적은  당시로 부터 향후 20년 후를 위해 로봇에 내재된 기회를 명확하게 하고, 로봇 기술 발전을 통해 활용하는 것이다[10]. EURON은 2003년부터 3년 간 로봇의 윤리 문제를 다루기 위한 로드맵(Road Map)을 설계했다. 인간과 로봇을 연구하는 연구자 50여 명이 참여, 로봇 개발 과정에서의 주된 윤리적 쟁점에 대한 구조적 평가(Systematic Assessment)를 시도했다. EURON의 로봇윤리 로드맵은 이전과 달리 ‘로봇이 어떠해야 한다’라는 원칙이 아닌 로봇을 만드는 사람을 대상으로 가이드라인을 제공하고자 했다. EURON이 로봇 윤리와 선행되는 원칙으로 제시한 항목은 아래와 같다.



[로봇윤리에 선행되는 원칙]

ㅇ.인간의 존엄과 인간의 권리

ㅇ.평등, 정의, 형평

ㅇ.편익과 손해

ㅇ.문화적 다양성을 위한 존중

ㅇ.차별과 낙인화의 금지

ㅇ.자율성과 개인의 책무성

ㅇ.주지된 동의

ㅇ.프라이버시

ㅇ.기밀성

ㅇ.연대와 협동

ㅇ.사회적 책무

ㅇ.이익의 공유

ㅇ.지구 상의 생물에 대한 책무



로봇이 아닌, 로봇 개발자 그리고 운영자에 윤리적 책임을 집중해야 하는 이유에 대한 여러 논의가 진행된 가운데 과학철학자인 닉 보스트롬(Nick Bostrom)은 신기술과 인류에 대해 통찰력을 보여주고 있다. 그는 인공지능 창조에 대한 윤리 법칙이란 그의 글을 통해[11], 다음과 같이 강조했다.  

“창조자는 그들이 만든 산물(Progeny)의 행위에 대한 책임이 있다.  만일, 창조자가 도덕적 지위를 갖춘 창조물을 만든다면, 창조자와 창조물은 창조물의 행동에 대해 공동 책임을 져야 한다.”


2007년, 산자부의 로봇윤리헌장

국내에서는 산업자원부가 2007년 공개한 ‘로봇윤리헌장’ 초안에서 로봇의 행동 책임 범위를 로봇을 활용하는 주체까지 포함시켰다. 로봇의 윤리, 제조자의 윤리에 이어, 사용자의 윤리까지 로봇 윤리 범주에 포함시킨 것이다.  로봇, 제조자, 사용자까지 포괄한 로봇 윤리 규정을 제정한 것은 세계 최초의 일이었다. 이 윤리 헌정을 만드는 일에는 정부 관계자, 로봇 공학 교수, 심리학 전문가, 의사 등 12명이 참여했다. 다만 산업 현장의 이해 관계자 의견까지 포괄한 뒤, 2007년 말쯤 공식 발표될 것이란 당시 전망과 달리, 한국의 로봇 윤리 헌정은 아직도 미생(未生)으로 남아 있다.



[산업자원부 로봇윤리헌장(초안)]

1장(목표) 로봇윤리헌장의 목표는 인간과 로봇의 공존공영을 위해 인간중심의 윤리규범을 확인하는 데 있다.

2장(인간, 로봇의 공동원칙) 인간과 로봇은 상호간 생명의 존엄성과 정보, 공학적 윤리를 지켜야 한다.

3장(인간 윤리) 인간은 로봇을 제조하고 사용할 때 항상 선한 방법으로 판단하고 결정해야 한다.

4장(로봇 윤리) 로봇은 인간의 명령에 순종하는 친구ㆍ도우미ㆍ동반자로서 인간을 다치게 해서는 안 된다.

5장(제조자 윤리) 로봇 제조자는 인간의 존엄성을 지키는 로봇을 제조하고 로봇 재활용, 정보보호 의무를 진다.

6장(사용자 윤리) 로봇 사용자는 로봇을 인간의 친구로 존중해야 하며 불법개조나 로봇남용을 금한다.

7장(실행의 약속) 정부와 지자체는 헌장의 정신을 구현하기 위해 유효한 조치를 시행해야 한다.



미생은 2016년 1월 개정된 '지능형 로봇 개발 및 보급 촉진법(촉진법)'을 토대로, 완성으로의 움직임을 보이고 있다. 관련 법에서는 '지능형 로봇윤리헌장' 이름 하에 정부의 AI알고리즘 윤리 제정 근거를 마련해 주고 있다. 관련 법의 내용 URL: http://www.lawnb.com/lawinfo/contents_view.asp?cid=BE18CA54BB6244928447579FECCB78AD|0|K 

촉진법의 18조(지능형 로봇윤리헌장의 제정 등)의 내용을 다음과 같다. 


①정부는 지능형 로봇 개발자·제조자 및 사용자가 지켜야 할 윤리 등 대통령령으로 정하는 사항을 포함하는 지능형 로봇윤리헌장(이하 "헌장"이라 한다)을 제정하여 공표할 수 있다.
②정부는 대통령령으로 정하는 바에 따라 헌장의 보급 및 확산을 위한 필요한 조치를 마련하여야 한다.
③관계 중앙행정기관의 장은 헌장의 효율적인 운영을 위하여 필요한 경우에는 다른 중앙행정기관의 장에게 관련 자료의 제출이나 그 밖에 필요한 협조를 요청할 수 있다.
④헌장의 제정·개정에 관한 절차, 홍보, 그 밖에 필요한 사항은 대통령령으로 정한다.


촉진법에서 지능형 로봇윤리헌장에 대한 정의는 다음과 같다. "지능형 로봇윤리헌장"이란 지능형 로봇의 기능과 지능이 발전함에 따라 발생할 수 있는 사회질서의 파괴 등 각종 폐해를 방지하여 지능형 로봇이 인간의 삶의 질 향상에 이바지 할 수 있도록 지능형 로봇의 개발·제조 및 사용에 관계하는 자에 대한 행동지침을 정한 것을 말한다.". 

촉진법에서 말하는 지능형 로봇은 "외부환경을 스스로 인식하고 상황을 판단하여 자율적으로 동작하는 기계장치"을 정의됩니다. 



시즌 3: 프라이버시와 투명성의 강조


2010년, 영국의 공학과 물리과학 연구위원회의 로봇 원칙

2000년대 들어서 국제적 차원의 논의가 여러 차례 일어났지만 아직도 로봇이나 인공지능은 먼 미래의 이야기로 여겨졌다. 전문가들은 여전히 아시모프의 3원칙 수준에 머물러 있었다. 선행해서 로봇 윤리를 논하던 연구자들의 고민은 학계에 제대로 뿌리내리지 못했다. 2010년 9월, 영국의 기술, 산업, 예술, 법의 전문가들이 자체적인 로봇 원칙을 마련하고자 모였다. 이른바 ‘공학과 물리과학 연구위원회’(Engineering and Physical Sciences Research Council, EPSRC). 그들의 문제 의식은 “실험실(Lab)에서 집으로, 산업 현장으로 나온 로봇을 위한 원칙이 필요한데 아직도 로봇에 대한 논의는 공상 과학 소설이나 영화에 머물러 있는” 현실에서 출발했다.


소설 세계가 아닌 현실 영역 속 로봇의 관리를 위해 EPSRC는 5개의 로봇 원칙을 제안한다[12]. EPSRC가 다른 원칙과 다른 지점은 프리이버시에 대한 언급이다. EPSRC는 로봇에 의해, 사람의 정보가 일거수 일투족 쌓일 수 있다는 지점을 경계했다. EPSRC는 원치 않은 개인의 일상이 정보 형태로 축적되어 공개되는 상황을 우려했다. 데이터가 프라이버시와 연계되어 로봇 혹은 AI의 관리를 위해 고려되어야 할 요인으로 언급된 것은 당시로서는 이례적이었다. 사실, AI 시대에 빅데이터의 활용 구상과 범위는 AI 품질을 결정하는 핵심적 요소이다. 현재 AI 핵심은 딥러닝의 핵심인 기계학습의 경쟁력은 기계가 학습할 수 있는 양질의 데이터 규모에 의해 좌우되기 때문이다.



[EPSRC의 로봇 윤리]

ㅇ.로봇은 단 국가안보를 위한 경우는 제외하고, 무기로서 설계되어서는 안된다. 

ㅇ.로봇은 사생활 보호 뿐 아니라 프라이버시를 포함한 현존하는 법규범에 부합되도록 설계되고 운용되어야 한다.

ㅇ.로봇은 안전과 보안 보장에 적합하도록 설계되어야 한다.

ㅇ.로봇은 사람에게 이에 대한 착각이나 환상을 불러 일으키도록 설계되고 사용되어서는 안된다.

ㅇ.모든 로봇에 대해 법적 책임을 지는 사람이 명확하게 명시되어야 한다.



2016년, 일본의 AI R&D 가이드라인과 사티아 나델라의 인공지능 규칙

AI 혹은 로봇 윤리에서 프라이버시 이슈는 주요 과제로서 지속적으로 논의되고 있다. 일본 정부가 발표한 AI R&D 가이드라인, 그리고 사티아 나델라(Satya Narayana Nadella) 마이크로소프트(MS) CEO가 발표한 AI 규칙에도 프라이버시 문제는 주요 사안으로 등장했다.



[ 일본의 AI R&D 가이드라인 ]

ㅇ.투명성: AI 네트워크 시스템을 설명하고 검증할 수 있는 능력 확보

ㅇ.이용자 지원: AI 네트워크 시스템이 이용자를 지원하고 이용자에게 선택의 기회를 적절히 제공

ㅇ.통제: 인간에 의한 AI 네트워크 시스템의 통제 가능성 보장

ㅇ.보안: AI 네트워크 시스템의 견고성 및 신뢰성 확보

ㅇ.안전: AI 네트워크 시스템이 사용자 및 제 3 자의 생명 또는 신체에 위험을 초래하지 않도록 고려

ㅇ.프라이버시: AI 네트워크 시스템이 사용자 및 제 3 자의 개인 정보를 침해하지 않도록 고려

ㅇ.윤리: 네트워크화 될 인공 지능의 연구 개발을 수행함에 있어 인간의 존엄성과 개인의 자율성 존중

ㅇ.책임: AI 연구원 또는 개발자와 네트워크를 통해 사용자와 같은 이해 관계자에 대한 책임성 부여



일본의 AI R&D 가이드라인 8개항은 2016년 4월 가가와 현에서 열린 주요 7개국(G7) 정보통신장관 회의에서 제안됐다. 일본 정부는 “사생활 보호 또는 보안 규정을 다루는 경제협력개발기구(OECD) 가이드라인을 고려하면서, 네트워크화 될 AI에 대비하자”고 역설했다. 네트워크의 개념을 강조하면서, 부각된 가치는 ‘투명성’이었다. 일본 정부는 공유의 매개가 될 네트워크 시스템을 설명하고, 검증할 수 있는 능력의 확보를 강조했다[13].


2016년, 사티아 나델라의 인공지능 규칙

나델라 MS CEO는 2016년 6월 미국의 온라인 매체인 슬레이트(Slate)에 칼럼 형식으로 자신이 생각하는 AI 규칙 6가지를 제시했다.  나델라의 원칙에서는 ‘편견의 방지’가 AI의 책무로 제시된 것이 특징이다. 이는 AI의 토대가 되는 알고리즘과 관련하여, 그 안에 내재될 수 있는 편향성이 점차 사회적 이슈로 부상되는 현실이 반영된 결과로 풀이된다. 이밖에, AI를 기존과는 완전히 다른 ‘플랫폼’으로 규정한 접근 역시도 주목할 만하다. 아마존의 알렉사(Alexa)의 등장 이후, AI 플랫폼 현상은 현실화 되는 양상이다. 아마존은 음성인식 기술의 오픈 API를 정책을 펴면서, 최신 IT서비스를 아마존의 생태계에 가두는 효과를 발휘했다. 아마존 알렉사는 2017년 2월 열린 소비자가전전시회(Consumer Eletronics Show, CES)에서 부스 하나 설치하지 않고도 행사 내내 주목받았다. IT업체들이 자신들의 첨단 이미지를 구축하기 위해 아마존의 음성인식기술을 탑재한 데 따른 결과였다. 미디어 레퍼토리(Media Repertoire)[14] 측면에서도 아마존의 음성인식 기술은 모바일을 대체할 ‘미디어’로서의 가능성을 보이고 있다. 미국 알렉사에 친숙한 미국의 초등학생들은 과제를 하기 위해, 모바일로 구글앱에 접속해 검색어를 입력하기 보다는 알렉사를 향해 말하고 있다. “알렉사, 미국의 45대 대통령이 누구야?”.



[사티아 나델라의 인공지능 규칙]

ㅇ.인공지능은 인간을 돕기 위해 개발되어야 한다. 

ㅇ.인공지능은 투명해야 한다.

ㅇ.인공지능은 인간의 존엄성을 파괴하지 않으면서 효율을 극대화해야한다.

ㅇ.인공지능은 개인정보 보호를 위해 설계 되어야한다.

ㅇ.인공지능은 의도하지 않은 피해를 인간이 복구할 수 있도록(인간에 대한) 알고리즘 차원의 설명 책임을 지닌다.

ㅇ.인공지능은 차별 또는 편견을 방지해야 한다.



시즌 4: AI 무기 경쟁 경계와 초지능에 대한 고려


2017년, 아실로마의 AI 23원칙

아실로마 원칙(Asilomar AI Principles)은 삶의 미래 연구소(Future of Life Institute, FLI)[15]가 2017년 1월 개최한 컨퍼런스인 ‘유익한 AI, 2017’ (Beneficial AI 2017)에서 발표됐다. 이 컨퍼런스를 주관한 FLI는 스카이프 창업자인 얀 탈린(Jaan Tallinn) 등 5인이 주도로 설립한 민간 단체이다. FLI는 기술이 인간을 번성하게 하는 동시에 자멸하게 만드는 잠재력을 가지고 있으니, 다른 미래를 만들기 위해 노력하자고 강조하는 단체이다. 바이오 기술, 핵, 기후, 그리고 AI를 주된 논의 과제로서 삼고 있다. 

FLI는 2015년에도 AI 활용한 킬러 로봇 개발의 위험성을 경고하는 서한을 만들어 발표하기도 했다. 이 서한에는 전 세계 1000명의 전문가가 함께 했다. FLI는 2017년 1월 AI의 건전한 발전을 위해 또 한 번의 컨퍼런스를 열었고, 그것이 앞서 설명한 ‘유익한 AI, 2017’이었다. 이 행사가 미국 캘리포니아 아실로마에서 진행되어, 발표된 AI 원칙의 이름이 ‘아실로마 원칙’이 된 것이다. 

아실로마 원칙은 연구 관련 쟁점, 윤리와 가치, 장기적 이슈 등 세 가지 범주로 나뉜다. 아실로마 원칙에서는 기존의 원칙에서 논의된 사항 외에 이공지능을 활용한 무기 경쟁이 지양되어야 함을 강조했다. 초지능(Superintelligence)[16]이라는 인간의 두뇌를 뛰어넘은 지능을 가진 존재에 대한 발전 방향이 제시된 점도 아실로마 원칙의 특징이다.


‘유익한 AI, 2017’ (Beneficial AI 2017)에서 발표한 아실로마 원칙


경제협력개발기구(OECD)가 제시한 규범적 대응원칙 및 정책방향

OECD는 2017년 OECD Digital Economy Outlook 2017 보고서 중 제 7장 기술전망에서 AI 알고리즘의 영향에 대비할 수 있는 규범적 대응 원칙 및 정책 방향을 제시했다[17]. OECD는 주요 국가들의 AI 윤리 대응 현황에 주목했다. 그리고 AI 자동화에 따른 미래 일자리 변화에 대한 정책적 대응, 프로그램 개발과 비판적 사고 및 공감 능력 등 다양한 AI 활용 역량 증진의 중요성, 알고리즘 차별 등 인간에 영향 미칠 수 있는 알고리즘 의사 결정 문제에 대해 투명성, 공정성, 책무성의 가치 개입 등을 강조했다. 



그밖의 주요 알고리즘 윤리안


2017년, EU 의회 결의안

ㅇ.로봇 제작자들은 프로그램 오류나 외부에서의 해킹 등 비상 상황에서 로봇을 즉시 멈출 수 있는 'kill 스위치'를 장착해야 한다. 

ㅇ.AI 로봇의 법적 지위를 전자적 인격체(electronic pesronhood)로 인정한다. 

ㅇ.EU 내에 로봇담당국을 신설해, AI로봇에 대한 법적·윤리적 제재를 가할 수 있는 내용을 포함한다. 

ㅇ.AI 로봇의 사회적 악용 가능성과 해킹에 대한 사회적 불안감을 해소하고 로봇이 인간에 무조건 복종하면서 위협을 가하지 않아야 한다. 

ㅇ.AI 로봇 활용에 따른 새로운 고용 모델의 필요성을 강조하고, AI 로봇을 고용하는 기업에 '로봇세'를 물려야 한다. 


2017년, 일본 총무성의 AI 개발 가이드라인

ㅇ.(연계의 원칙) 개발자는 AI 시스템의 상호 접속성과 상호 운용성에 유의한다. 

ㅇ.(투명성의 원칙) 개발자는 AI 시스템 입출력의 검증 가능성과 판단 결과의 설명 가능성에 유의한다. 

ㅇ.(제어 가능성의 원칙) 개발자는 AI 시스템의 제어 가능성에 유의한다.

ㅇ.(안전의 원칙) 개발자는 AI 시스템이 액추에이터 등을 통해 이용자와 제 3자의 생명·신체·재산에 위해를 미치는 것이 없게 배려한다.

ㅇ.(보안의 원칙) 개발자는 AI 시스템의 안전에 유의한다. 

ㅇ.(프라이버시의 원칙) 개발자는 AI 시스템에 의해 이용자와 제 3자의 프라이버시가 침해되지 않도록 배려한다.

ㅇ.(윤리의 원칙) 개발자는 AI 시스템 개발에 있어서 인간의 존엄과 개인의 자율을 존중한다.

ㅇ.(이용자 지원의 원칙) 개발자는 AI 시스템이 이용자를 지원해 이용자에게 선택의 기회를 적절하게 제공하는 것이 가능하도록 배려한다.

ㅇ.(책임의 원칙) 개발자는 이용자를 포함한 이해 관계자에 대해 책임을 완수하도록 노력한다. 


2016년, 한국의 로봇윤리헌장 개선안

1.1. 로봇은 인간의 존엄성을 존중해야 한다. 

1.2. 로봇은 인류의 공공선을 실현하는 데 기여해야 한다. 

1.3. 로봇은 인류의 공공선을 침해하지 않는 범위 내에서 인간의 존엄성을 추구해야 한다. 

1.4. 로봇은 위의 세 원칙들을 위배하지 않는 범위 내에서 사용자의 명령을 준수해야 한다. 

1.5. 로봇은 위 원칙들을 준수해야 하며, 이에 대한 책임은 설계 및 제작자에게 있다. 

1.6. 로봇은 설계 및 제작의 목적에 부합하여 사용되어야 하며, 그 이외의 사용에 대한 책임은 사용자에게 있다. 


2.0. 로봇설계자는 인간의 존엄성 준중과 인류의 공공선 실현에 기여하는 로봇을 설계해야 한다.

2.1. 로봇 설계자는 헌법에 명시된 인간의 기본권을 침해하지 않도록 설계해야 한다. 

2.2. 로봇 설계자는 개인을 포함한 공동체 전체의 선을 침해하지 않도록 설계해야 한다. 

2.3. 로봇 설계자는 생태계를 포함한 생명 공동체의 지속가능성을 침해하지 않도록 설계해야 한다. 

2.4. 로봇 설계자는 정보통신 윤리 및 기술, 공학 윤리와 관련된 강령들을 준수해야 한다. 

2.5. 로봇 설계자는 로봇의 목적 및 기능을 설정하고 이에 맞게 사용되도록 설계해야 한다. 


3.0. 로봇 제작자는 공익의 범위 내에서 인간의 행복추구에 도움이 되고 정해진 목적과 기능에 부합하는 로봇을 만들어야 한다. 

3.1. 로봇 제작자는 로봇의 제작 및 판매와 관련된 법규를 준수하여 제작해야 한다. 

3.2. 로봇 제작자는 로봇의 목적 및 기능과 관련된 법규나 인증에 따라 로봇을 제작해야 한다. 

3.3. 로봇 제작자는 설계된 로봇의 목적 및 기능을 변경하지 않고 제작해야 한다. 

3.4. 로봇 제작자는 로봇의 사용 연한을 정하고 폐기에 대한 지침을 제공해야 한다. 

3.5. 로봇 제작자는 로봇의 사용 연한 내에서의 유지보수와 결함으로 발생된 피해에 대한 책임을 져야 한다. 


4.0. 로봇 사용자는 자신이나 타인의 삶의 질과 복지의 향상을 위해 정해진 목적과 기능에 따라 로봇을 사용해야 한다. 

4.1. 로봇 사용자는 로봇 사용과 관련된 법률과 사용 지침을 준수해야 한다. 

4.2. 로봇 사용자는 로봇을 불법적으로 개조하거나 임의로 변경할 수 없으며, 정해진 목적 및 기능에 맞게 사용해야 한다. 

4.3. 로봇 사용자는 로봇을 사용하여 타인의 이익을 침해하거나 위해를 가하지 않도록 해야 한다. 

4.4. 로봇 사용자는 로봇의 오용 및 불법적 사용으로 발생하는 문제에 대하여 책임을 져야 한다. 

4.5. 로봇 사용자는 로봇 남용으로 발생할 수 있는 과몰입, 의존, 중독 등에 주의해야 한다. 








[1] 참고 | 로봇윤리(roboethics)라는 말은 2002년 로봇공학자인 지안마르코 베루지오(Gianmarco Veruggio)에 의해 제안됐다. 2004년 이탈리아에서 열린 1회 국제로봇윤리 심포지엄에서 공식적으로 처음 활용됐다. 

[2] 참고 | 아시모프는 러시아 태생의 생화학자이며, 과학 저널리스트이자, 소설가였다. 아시모프는 과학과 대중을 잇는 매개자로서의 역할을 충실히 한 인물로 평가된다. 그가 쓴 과학소설은 500여 편에 이를 뿐만 아니라, 다양한 과학을 일반인에게 설명하는 대중서도 다수 집필했다. 로봇을 주제로 쓴 아시모프의 공상과학(SF) 소설 25편은 현대 로봇공학 발전에 기여했다고 평가받고 있다. “로봇 공학”이란 용어가 아시모프가 만들어 낸 신조어다.

[3] 설명 | 국내 번역서의 제목이다.

[4] 논문 | Clarke, R. (1993). Asimov's laws of robotics: implications for information technology-Part I. Computer, 26(12), 53-61.

[5] 참고 | 0원칙의 또 다른 해석도 존재한다. 색다른 해석은 외계인의 존재, 그리고 그것의 지구 공습을 상정한 것이다. 이러한 생각 하에서 0원칙은 외계인으로 부터 인류가 공격을 받게 될 때, 로봇에게 이를 방어할 의무를 한 것이라고 해석됐다. 돌연변이 인간이나 바이러스의 위협도 인류를 위해 로봇이 막아야 할 대상으로 간주되기도 한다. 

[6] 논문 | 이원형, 박정우, 김우현, 이희승, & 정명진. (2014). 사람과 로봇의 사회적 상호작용을 위한 로봇의 가치효용성 기반 동기-감정 생성 모델. 제어로봇시스템학회 논문지, 20(5), 503-512

[7] 참고 | http://ouic.kaist.ac.kr/news04/articles/do_print/tableid/news/category/7/page/24/id/715

[8]  참고 | 당시 이러한 시대적 흐름 속에 국내에서도 로봇 엑스포를 개최하자는 논의가 제기됐다.

[9] 

논문 | 주일엽. (2011). 지능형 로봇에 대한 안전관리 발전방안. <한국경호경비학회>, 26호, 89-119.

[10] 참고 | http://www.roboethics.org/atelier2006/docs/ROBOETHICS%20ROADMAP%20Rel2.1.1.pdf 

[11]  논문 | Bostrom, N. (2007). Ethical principles in the creation of artificial minds. Linguistic and Philosophical Investigations, 6, 183-184

[12] 참고 | 

https://www.epsrc.ac.uk/research/ourportfolio/themes/engineering/activities/principlesofrobotics

[13] 참고 | AI R&D 원칙을 제시한 당위성을 강조하기 위해, 일본이 설명한 1차원 이유는 AI가 인간을 해하거나, 악의적 목적에 의해 활용되거나, 혹은 통제 불능 상태에 빠져 사고를 발생하는 가능성을  미연에 방지하자는 것이었다.  그러나, 일본이 AI 활용에 대한 가이드라인 제정에 선도적인 움직임을 보인 궁극적인 목적은 AI의 안전적 이용 측면에서의 세계적 주도권을 잡기 위한 포석을 놓기 위한 것으로 해석되기도 한다. 2016년 일본 총무성의 전문가 회의는 2045년에 AI로 인해 창출될 일본 국내 경제효과를 121조 엔(1,222조 원)으로 예측했다.

[14] 참고 | 이용자가 미디어 소비 목적에서 즐겨 이용하는 미디어의 조합

[15] 참고 | https://futureoflife.org/

[16] 

참고 | 이 행사에는 에릭 슈미트 구글 회장, 앤드류 응 중국 바이두 최고과학자 등 AI와 관련된 전 세계 유수의 전문가가 참석했다. 일론 머스크 테슬라 CEO, '알파고' 아버지인 데미스 하사비스 딥마인드 대표, 미래학자 레이 커즈와일, 닉 보스트롬 옥스퍼드대 인류미래연구소 등 9인이 ‘초지능’에 대한 토론을 벌이기도 했다. 이 내용은 카카오 정책지원팀의 브런치에 정리되어 있다(https://brunch.co.kr/@kakao-it/49).

인간의 존엄과 인간의 권리 평등, 정의,  형평 편익과 손해 문화적 다양성을 위한 존중차별과 낙인화의 금지 자율성과 개인의 책무성주지된 동의프라이버시 기밀성연대와 협동사회적 책무이익의 공유지구 상의 생물에 대한 책무

[17] 이원태 (2017.11). 인공지능 알고리즘 윤리담론의 지형, '왜 알고리즘 윤리인가', 한국인터넷윤리학회·정보통신정책연구원·고려대학교 디지털사회통합정책연구센터


※ 위 글은 <카카오 AI리포트 1호>의 '로봇 윤리의 변천사'를 수정 보완한 것입니다. 



매거진의 이전글 [카카오AI리포트] 카카오 AI 기술의 3대 발전 방향
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari