brunch

매거진 AI

You can make anything
by writing

C.S.Lewis

[카카오AI리포트] 인간과 로봇의 공존시대 열리나

Vol 1 : 02. AI 규제 동향 및 법적,윤리적 쟁점

카카오 AI 리포트 Vol 01. 수정본(Revised)으로 업데이트 합니다. 이같은 과정도 논의가 활발해지는데 작은 도움이 됐으면 합니다. 저희 리포트 내용에 대해 상세하게 의견 주신 모든 분들께 감사드립니다. 저희는 관련 부분에 대해 외부 전문가 감수 등 확인 작업을 진행하고 반영했습니다.


[ 수정 사항 ]
스튜어트 러셀 교수와 피터 노빅은 ‘인공지능:현대적 접근’에서 분류한 인공지능의 네 가지 정의 중 ‘합리적으로 행동하는(acting rationally)’ 접근법을 채택하여 인공지능을 분석했다는 내용을 추가했습니다.




카카오는 AI에 대한 사회적 관심을 높이는 동시에, 다양한 논의의 재료로 AI가 쓰일 수 있기를 소망하며 월간으로 준비 중입니다. 카카오도 AI 기반 서비스와 비즈니스를 준비하지만, 기술 생태계를 키우고 사회를 바꾸는 것은 모두의 몫이기 때문입니다. 카카오는 현안을 나누고 지혜를 모으는데 조금이라도 거들겠습니다. 


2017년 3월 14일 공개된 이번 리포트는 다음 세 가지 내용으로 구성되어 있습니다.


01. AI 기술 개발의 역사, 머신러닝과 딥러닝

02. AI 규제 동향 및 법적, 윤리적 쟁점 (이번글)

03. 로봇 윤리의 변천사


2017년 AI컨퍼런스 소개 

AI관련 팟캐스트 소개


카카오 AI 리포트 Vol. 1 전체글 다운받기


내용 중간의 [ ] 는 뒷부분에 설명 및 관련 문헌의 소개 내용이 있음을 알리는 부호입니다. 예를 들어, [1]에 대한 설명은 '설명 및 참고문헌'의 첫 번째에 해당합니다. 




2015년 2월 네덜란드에서는 트위터 ‘봇(Bot) 계정’이 살인을 예고하는 듯한 문장을 트윗해 경찰이 조사에 나섰다. 이 봇 계정은 계정 주인이 과거에 작성한 트윗들에서 무작위로 뽑아낸 단어들로 문장을 자동 생성한 뒤 다른 봇 계정과 공유하도록 설계됐다. 경찰은 문제를 일으킨 봇 계정 소유자에게 책임이 있다는 경고를 한 뒤 봇 삭제를 요청하는 것으로 사건을 마무리 지었다. 이 사건은 결국 봇을 ‘처벌(삭제)’하는 것으로 끝났지만 ‘봇이 알고리듬에 따라 자동 생성한 살인 예고에 대해 누가 법적 책임을 질 것인가’란 질문은 여전히 남는다. 가까운 미래에 인공지능(Artificial Intelligence・AI) 기술이 더욱 발전해 로봇이 스스로 학습하고 판단하는 능력을 갖추고 ‘전자 인간(Electronic Person)’이라는 법적 지위까지 얻게 되면 로봇의 실제 범행 의도(Mens Rea)까지 따져봐야 할지 모른다. 



가디언 온라인판 2015.2.15일자 기사 스크린샷

 

인공지능을 어떻게 정의할 것인가


자율적으로 학습하고 실행하는 능력을 갖춘 AI의 출현은 역으로 인간이 기계에 대한 통제권을 잃게 되는 상황을 의미한다. 인간은 알고리듬 설계를 통해 초기 통제권을 갖지만 일단 AI 가 학습 능력을 획득하면 어떤 과정을 거쳐 해결책을 도출하는지 파악하기 힘들 수 있다. 최악의 경우, 인간의 고통을 최소화기 위해 설계된 AI 가 ‘인간은 그 특성상 천국에서도 고통을 받는다’라는 사실을 학습한 뒤 인류 멸종이 인간의 고통을 없애는 최적의 솔루션이라 판단할 수 있다. 글자 그대로의 의미는 정확히 이해하지만 인간의 주관적인 의도나 그러한 의도를 해석하는 행위에 대해서는 기계가 무관심할 수 있기 때문이다.[1]


국내에서는 2016년 3월 알파고(AlphaGo)와 이세돌 9단과의 대결이 알파고의 승리로 끝나면서 한때 ‘AI 공포증(AI Phobia)’이란 단어가 등장할 정도로 AI 에 대한 두려움이 커졌다. AI 전문가들이 ‘알파고는 아직 AI 단계에 미치지 못한다’며 진화에 나섰지만,[2] 한편에서는 AI가 기술적 특이점인 ‘싱귤래리티(Singularity)’를 거쳐  ‘캄브리아 폭발기’에 비견될만큼 비약적으로 발전할 것이란 예측도 나오고 있다.[3] 


엄청난 잠재력과 파급력을 가진 AI  기술에 대한 불안감과 두려움은 ‘AI  기술을 어떻게 규제할 것인가’란 질문으로 이어진다. 자율주행차량, 드론, 헬스케어 등 지능정보화 기술을 적용한 응용 서비스 분야에서는 상업화 시점이 가까워지면서 사고시 책임 소재, 알고리듬 설계 규제, 제조물 책임법, 책임 보험, 로봇 창작물의 저작권 등 새로운 법적 이슈들이 활발하게 논의되고 있다. 반면 인간을 닮은 ‘강한 AI ’에 대응하기 위한 논의들은 인류가 그동안 생각해보지 못했던 새로운 윤리, 철학, 존재론적 이슈들까지 포섭하며 더욱 광범위하게 확대되고 있다.

 

법과 규제의 출발점은 규율 대상을 ‘정의’하는 데서 시작한다. ‘AI 를 어떻게 규제할 것인가’ 질문 역시 규율 대상인 AI 를 어떻게 정의할 것인가에서 출발한다. 현재 AI  분야에서는 모든 전문가들이 동의할만한 정의가 존재하지 않는다. 다만 AI 분야의 교과서로 알려진 ‘인공지능: 현대적 접근’에서 스튜어트 러셀 교수와 피터 노빅은 인공지능을 정의하려는 시도들을 ‘인간처럼 사고하고, 인간처럼 행동하고, 합리적으로 사고하고, 합리적으로 행동하는' 네 가지 특징별로 분류한 뒤, ‘합리적으로 행동하는: 합리적인 에이전트(agent) 접근법’을 채택해 인공지능을 분석했다. 반면 미국 조지메이슨대 매튜 슈어러 교수는 규제 관점에서 볼 때 ‘특정 기능을 수행할 수 있는-' 식의 목적 지향적(goal-oriented) 정의는 AI 처럼 급격한 기술 변화가 예상되는 분야에서는 적절하지 않다고 설명한다. 따라서 정기적으로 기술 변화 추이를 점검하며 AI 의 정의를 점진적으로 변화시켜가는 것이 규제 목적에 더욱 부합하는 대안이 될 수 있다.


 스튜어트 러셀 교수와피터 노빅 공저 ‘인공지능: 현대적 접근’ 표지


미국과 EU의 로봇 및 인공지능 규제 동향


AI 과 관련한 정책 및 규제 이슈에는 AI 의 개념, 데이터, 프라이버시, 알고리즘 편향, 일자리, 거버넌스, 법적 책임, 로봇 법인격 등 다양한 이슈들이 포함된다. 미국, 유럽연합(EU) 등 기술 선진국들은 AI  및 로봇산업의 진흥을 위해 기존의 법, 제도, 규제 체제를 새롭게 정비하거나, 폭발적인 기술 혁신에 대비한 장기 과제로 새로운 규범 및 윤리 가이드라인의 도입을 준비하고 있다. 미국과 EU는 AI 가 초래할 변화에 대응할 수 있는 법적, 제도적 틀을 마련해야 한다는 필요성에는 의견을 같이 하지만 구체적인 대응 방식에서는 다소 차이를 드러낸다. EU가 AI 를 규율할 법제적, 윤리적 대응에 좀더 적극적으로 나서는 반면 미국은 AI  기술이 가져올 안전, 공정성 문제, 장기 투자를 위한 정부의 역할 등에 우선 치중할 것을 주문하는 등 주로 공익, 공정성, 책임성 확보를 최우선 가치로 제시하고 있다. 또한 구체적인 대응 방식에 있어서도 미국은 윤리, 법제적 대응의 필요성을 인정하면서도 구체적인 법제화보다는 지속적인 모니터링을 우선 권고하고 있다. 


EU의 로봇법 프로젝트


EU는 2012년부터 유럽 4개국(이탈리아, 네덜란드, 영국, 독일)의 법률, 공학, 철학 전문가들이 참여하는 컨소시엄 형태인 로봇법(Robolaw) 프로젝트를 통해 로봇과 관련한 법적·윤리적 이슈를 연구한 뒤 2014년 9월 결과 보고서 ‘D6.2 로봇규제 가이드라인(D6.2 Guidelines on Regulating Robotics)[4]을 도출했다. 유럽연합의 로봇법 및 규제 가이드라인은 자율주행자동차, 수술 로봇, 로봇 인공기관, 돌봄 로봇 등 상용화에 근접한 기술들을 사례별(Case-by-case)로 분석함으로써 구체적이고 기능적인 맥락에서 로봇 관련 규범 체계를 정립하기 위한 목적에서 추진됐다. 따라서 새로운 규제의 도입보다는 안전, 법적 책임, 지적재산권, 프라이버시, 데이터, 로봇의 계약 체결 능력 등 주요 이슈별로 기존 법률의 적용 가능성을 우선 검토하거나, 법률, 기술, 윤리, 의료 등 다양한 분야의 전문가들이 참여하는 다자간 학제적인 접근 방식을 취했다. 자율성을 가진 로봇의 예상치 못한 행동으로 초래된 법적 책임에 관한 원칙들에 관해서는 혁신 장려와 위험 규제라는 상반된 가치들을 균형있게 조화시키며 논의할 것을 주문했다. 또한 인공지능 기술이 인간의 기본권 보호라는 대원칙을 훼손시키지 않아야 하며, 인간 역량 강화라는 더 큰 목적을 목적을 달성할 수 있어야 한다고 강조했다. EU는 앞선 2007년 유럽로봇연구네트워크(EURON)의 ICRA(IEEE International Conference on Robotics and Automation) 회의를 통해서는 ‘EURON 로봇윤리 로드맵’을 발표하고 로봇윤리에 관한 실용적 접근 전략 차원의 권고안을 제시한 바 있다. 

 

EU 회원국들이 지난 수년 간 AI 와 로봇 분야에서 쌓아온 연구 내용들은 2017년 1월 유럽의회 법사위원회가 작성한 결의안(Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics)[5]에 반영됐다. ‘Robolaw’ 프로젝트가 유럽연합 집행위원회 주도로 이뤄졌다면 이번 결의안은 유럽의회 주도로 진행됐다. 결의안 작성을 이끈 법사위원회 부위원장 매디 델보에 따르면[6], 결의안에서 언급된 로봇이란 ‘센서나 주변 환경과의 상호작용을 통해 얻은 데이터를 분석해 자율성을 획득하는 능력, 자율적인 학습과 적응 능력을 갖춘 물리적인 기계’로 정의되며, 군사용을 제외한 민간용 자율주행차, 드론, 산업용 로봇, 돌봄 로봇, 엔터테인먼트 로봇 등이 이 범주에 포함된다.

유럽의회 법사위원회부위원장 매디 델보 (출처: http://basicincome.org/news/2017/01/european-parliament-report-robo


유럽의회는 이 결의안에서 일상 생활에서 로봇의 영향력이 점차 확대되는 가운데 로봇이 인간에게 도움을 주는 존재임을 명확히 하기 위해 EU내 강력한 법적 프레임워크가 필요하다고 촉구했다. 특히 로봇에 ‘전자 인간(Electronic Person)’의 지위를 부여해 로봇으로 인한 피해 발생시 법적 책임 소재를 명확히 하는 법적 기틀을 마련했다. 자율주행자동차 상용화를 앞두고 사고시 피해자가 충분히 보상을 받을 수 있도록 지원하는 책임 보험과 전용 기금의 도입도 포함됐다. 로봇 세금(Robot Tax)에 관해선 명확한 용어로 지칭하지는 않았지만 로봇 이용으로 발생하는 금전적인 혜택을 피해 보상 전용 기금에 할당하는 안이 제시됐다. 결의안에는 기술, 윤리, 규제 분야에서 로봇과 AI에 관한 전문성을 갖춘 전문기관의 설립을 촉구하는 내용도 담겼다. 아울러 로봇 제작자가 비상 상황에서 로봇을 즉시 멈출 수 있는 킬 스위치(Kill Switch)’ 를 설계 시점부터 적용할 것을 제안했다. 결의안에 앞서 2016년 5월 법사위원회가 작성한 보고서(Draft Report)는 로봇 도입 확산에 대처하기 위해 로봇 공학자와 설계자, 생산자, 이용자들이 준수해야 할 윤리 강령(Ethical Code of Conduct), 연구기관의 투명성과 책임성, 설계 라이선스 등 분야별 규범 및 규제 원칙들을 제시했다.   

 

유럽의회는 지난 2월 16일 의원총의를 열어 로봇세와 기본소득에 관한 내용은 부결시킨 채 이 결의안을 통과시켰다. EU 의회는 로봇 도입 확산으로 일자리를 잃는 노동자 재훈련과 사고 보상 목적의 기금 마련을 위한 ‘로봇세’ 도입에는 반대했지만 로봇과 관련한 윤리적, 법적 책임성 문제를 해결하기 위한 법제화 필요성은 인정했다. 이에 따라 EU 집행위원회는 AI와 로봇, 그리고 자율주행자동차 등에 관한 법률적, 윤리적 문제 검토에 착수할 전망이다.


자율주행차 분야의 경우, EU는 2009년부터 2012년까지 볼보, 리카르도 등 유럽 7개 기업이 참여하는 SARTRE(Safe Road Trains For The Environment) 프로젝트를 통해 자율주행 자동차 적용을 위한 각종 규제 및 규칙을 점검했다. 이어 2012년 완전 자율주행버스 공동개발 프로젝트인 시티모빌2(CityMobil2), 2014년 'AdaptIVe' 프로젝트를 통해 자율주행자동차 상용화를 위한 법적 검토를 실시했다. EU는 자율주행 관련 입법화를 적극 추진하고 있지는 않지만 자율주행 자동차가 유엔의 도로교통에 관한 비엔나 협약 등 EU 협약국 간 표준화된 교통 규칙에 위배되는지 여부를 검토해왔다. 비엔나 협약은 1968년 UN에서 협약국 간 교통 법규를 표준화하기 위해 제정된 협약으로 이동중인 차량에는 운전자가 반드시 탑승해 있어야 하고, 모든 차량은 운전자 통제 하에 있어야 한다는 조건 등을 두고 있다.


미국 백악관의 인공지능 보고서


미국은 2016년 백악관에 ‘기계학습 및 인공지능 소위원회(Subcommittee on Machine Learning and Artificial Intelligence)’를 신설했다. 이 소위원회는 AI  개발 상황과 성과를 모니터링한 뒤 그 결과를 국가과학기술회의(National Science and Technology Council)에 보고하는 역할을 맡고 있다. 소위원회는 2016년 5월부터 7월 사이 네 차례에 걸쳐 AI 가 일자리, 경제, 안전, 규제 분야에 미치는 영향을 공개적으로 토론하는 일련의 워크숍을 개최했다.


 미국의 AI 전문가들은 백악관이 주도한 이 토론회를 통해 AI 는 아직 개발 중이므로 섣부른 정부 개입은 오히려 안전하고 책임있는 기계를 개발하는데 방해 요인으로 작용할 수 있으며, 대신 프로그램이나 알고리듬을 설계하는 사람들에게 더욱 높은 도덕적, 윤리적 책임을 부과해야 한다는 의견을 제시했다. 미국 정부 역시 상용화를 앞둔 자율주행차, 드론, 암 진단 분석 시스템 등에 대해서는 규제와 감독 기능을 집중하는 반면 AI  분야에서는 섣부른 법제화나 규제 도입보다는 기존 법적 원칙들을 탄력적으로 적용하거나 공정성, 책임성, 투명성, 적법절차와 같이 정책적인 방향성을 제시하는 데 더욱 주력하고 있다.

 미국 백악관 국가과학기술위원회(NSTC)의 ‘인공지능의 미래를 위한 준비' 보고서 표지

백악관 국가과학기술위원회(NSTC)는 이런 활동을 바탕으로 2016년 10월 ‘인공지능 국가연구 개발 전략 계획’, ‘인공지능의 미래를 위한 준비’ 보고서를 발간한 데 이어 12월 ‘인공지능, 자동화, 그리고 경제’ 보고서를 발간하며 AI 기술의 연구개발 및 정책 방향을 제시했다. 특히 AI  분야 장기 투자를 위한 연구개발 지원, AI로 인해 초래되는 사회적 안전 및 공정성 문제에 우선 대처할 것 등 공익 보호와 공정성, 책임성, 투명성 확보를 최우선 가치로 제시했다. 구체적인 대응 방법보다는 AI  발전을 지속적으로 모니터링하고 기초적이고 장기적인 인공지능 연구에 우선 순위를 설정할 것을 주문하는 등 전반적인 정책 방향성을 제시하는데 주력하는 모양새다. 


행정부와 입법부가 로봇 관련 법제화에 적극적인 유럽연합과 달리 미국에서는 산업계, 학계 등 민간 분야를 중심으로 ‘약한 AI’ 기술의 발전과 진흥을 위한 규제 패러다임 확립 요구가 강하게 제기되고 있다. 이들은 당장 ‘강한 AI ‘의 위험을 걱정하기보다는 상용화에 근접한 ‘약한 AI ’ 기술들이 사회에 미치는 영향과 법적 공백 상태가 더욱 시급한 문제라는 인식을 갖고 있다. 나아가 빅데이터, 프라이버시, 인간의 기계 의존 문제, 일자리 이슈들에 관해 정책, 법률, 과학 등 다양한 분야의 전문가들이 참여하는 규제 패러다임 형성을 요청하고 있다. 미국 실리콘 밸리에서는 민간 주요 기업들과 인공지능 관련 기업들이 주축이 돼 싱크 탱크(Think Tank)를 설립하고 학계와 연계한 AI  연구를 수행하고 있다. 구글은 딥마인드(DeepMind) 의 요청에 따라 신기술 검토를 위한 윤리위원회를 설치했고, 2014년 설립된 미국 보스톤 소재 비영리 연구단체인 ‘삶의 미래 연구소(Future of Life Institute, FLI)’는 AI 의 잠재적인 위험성과 편익에 관한 연구를 지원하고 있다.


 미국의 법현실주의적 접근


미국 법조계나 학계에는 기존의 사이버법(Cyberlaw)이나 민사법 등 전통적인 법리들을 발전시켜 인공지능 시대에 대처하려는 노력들도 존재한다. 워싱턴대 로스쿨의 라이언 칼로(Lyan Calo) 교수는 로봇기술이 신체화(Embodiment), 창발성(Emergence) 사회적 유의성(Social Valence)을 가진다고 설명하면서, 일명 IT법을 통해 발전되어온 인터넷 또는 컴퓨터 관련 법리들을 인공지능 시대에 더욱 확장해 적용시킬  수 있다고 주장한다.[7] 칼로(Ryan Calo, 워싱턴대) 교수는 ‘Robots in American Law’(2016) 논문에서 로봇과 인공지능 개념을 언급한 과거 법원 판결들을 분석한 뒤 로봇을 인간의 소유물 같은 단순 객체가 아닌 인간을 대리하거나 인간의 권리를 확장하는 법적 주체로 여기는 논의들이 과거에도 이뤄져 왔다고 설명한다. 즉, 로봇을 위해 완전히 새로운 법적, 규제적 개념을 탐구하기보다는 기존의 법적 논의들을 다시 세밀하게 분석해볼 필요가 있다는 주장이다.[8]  한편, 미국 예일대학 로스쿨의 잭 볼킨(Jack Balkin) 교수는 미국 법조계의 법현실주의(Law Realism) 흐름에 입각해 칼로의 설명은 로봇 기술의 본질을 미리 확정한 채 논의를 전개하는 한계를 가진다고 지적한 뒤 기술은 사회적으로 어떻게 활용되는지에 따라 다르게 평가할 수 있다고 설명한다.  볼킨 교수에 따르면, 로봇 및 인공지능과 인간들의 상호 작용은 우리가 자각하지 못할지라도 실제로는 ‘로봇 개발자들과 우리 (인간들) 간’의 상호작용에 해당한다.[9]  

[사진 5] 워싱턴대 로스쿨의 라이언 칼로(Lyan Calo) 교수. 사진 출처: https://twitter.com/rcalo



왜 다시 로봇윤리인가


AI가 인간 한계를 뛰어넘어 인간을 압도하는 능력을 갖게 되면 사실상 인류를 대체할 수 있다는 실존적인 위협은 AI  윤리와 같은 규범적 논의를 더욱 광범위하게 확장시킨다. 인간과 흡사한 AI 가 출현할 경우 결국 자율성을 갖춘 인공지능을 제어할 수 있는 가장 보편적인 방식은 윤리나 규범이기 때문이다. 프린스턴 대학의 피터 아사로(Peter Asaro) 교수에 따르면 로봇은 파괴적 혁신 기술이기 때문에 기존의 법과 정책으로 규제를 하는 데는 한계가 있으며, 로봇과 AI 를 위한 새로운 법률과 정책을 만들기 위해서는 우선 사회 규범을 먼저 형성해야 한다. 달리 말하자면, 사회 규범 없이 정치적 의지만으로는 법과 정책을 만들 수 없으며, 다양한 분야의 전문가들 논의를 통한 공론화가 선행해야 한다.[10]

스스로 판단할 수 있는 기계의 출현은 다양한 윤리적 문제를 발생시킬 가능성이 매우 높다. AI  규범과 관련한 법적, 윤리적, 철학적 쟁점은 크게  i) AI  및 로봇의 설계, 생산, 이용 단계에 적용되는 윤리적 과제, ii) AI  및 로봇의 자율적인 행동에 관한 윤리적 문제, iii) AI  및 로봇 자체의 도덕적, 존재론적 지위 문제로 나누어 볼 수 있다. 우선, AI로 설계, 이용과 관련되는 알고리듬의 투명성, 공정성 문제는 결국 인간 개발자나 운영자의 윤리와 직결된다. ‘트롤리 딜레마’[11]와 유사한 자율주행차의 윤리적 딜레마도 사실 인간의 윤리적 딜레마에 해당한다. 주행 중인 차량이 갑작스런 사고 발생 상황 하에서 인공지능의 알고리듬이 핸들을 꺾어 5명의 행인을 치거나 아니면 그대로 직진해 상대편 차량과 본인 차량 운전자 2명만 다치는 선택 중 하나를 택해야 하는 딜레마적 상황은 결국  알고리듬 설계자의 편향에 따라 좌우되는 윤리적 문제로 비화될 수 있다. 때문에 EU의회 등은 개발자, 설계자, 운영자, 이용자들을 위한 규범 체계인 윤리 가이드라인 제정을 시급한 과제로 요청하고 있다. 


한편, ‘강한 AI ’는 프로그래머가 모든 과정을 완벽하게 수행하더라도 학습 능력을 얻은 기계가 인간이 예측할 수 없는 결과를 초래할 수 있다는 딜레마로 이어진다. 따라서, AI 가 정확하게 작동하는지 여부를 떠나 로봇이 어떠한 규범적 체계에 근거해, 어떤 목적을 구체적으로 달성하려는지를 우선적으로 검증할 수 있어야 한다.


AI  및 로봇의 인격 주체성에 관한 문제는 미래 사회의 중요한 법철학적 쟁점이 될 것으로 전망된다. 세계적인 베스트셀러 ‘초지능(Superintelligence)’의 저자인 옥스퍼드대 닉 보스트롬(Nick Bostrom) 교수는 AI  시스템이 도덕적 지위를 갖기 위해서는 지각(Sentience)과 인격(Sapience) 요소를 갖춰야 한다고 설명한다. 인간과 짐승의 차이를 거론할 때, 동물은 인격을 갖추지 못하고 있기 때문에 인간이 좀 더 높은 도덕적 지위를 차지한다고 말할 수 있다. 보스트롬 교수는 두 존재가 동일한 기능과 동일한 의식 경험을 가지고 있고 그들의 성격만 다를 경우(Principle of Substrate Non‐Discrimination), 또는 두 존재가 동일한 기능과 동일한 의식을 가지고 있고 그들의 근원만 다를 경우(Principle of Ontogeny Non-Discrimination), 이들은 동일한 도덕적 지위(Moral Status)를 갖는다고 설명한다. 즉, 인공지능이 두 가지 조건 중 하나에 부응하면 인간과 동일한 지위를 갖는다는 설명이다.[12] 

[사진 6] 옥스퍼드대 닉 보스트롬(Nick Bostrom) 교수. 출처: https://en.wikipedia.org/wiki/Nick_Bostrom

 

포스트휴먼(Post-human) 기술 및 윤리의 학제간 연구단체로 유명한 IEET(Institute for Ethics and Emerging Technologies)는 ‘비인간적 존재의 인격성’에 관한 논의를 학제적 연구와 실험을 통해 지속적으로 추진해오고 있다. 이처럼 인공지능 로봇, 사물인터넷 등 초연결사회의 도래가 예견됨에 따라 인간 이외의 사물이나 기계의 융복합적 권리, 책임 문제와 관련해 ‘인간을 넘어선 인격성(Personhood Beyond Human)’을 탐색하는 법철학적 연구는 갈수록 더욱 다각적으로 이뤄질 전망이다.[13]

 

마치며 


AI 에 대한 규제는 결국 AI 를 어떻게 바라볼 것인가에 따라 좌우된다. AI 가 인류의 존재까지 위협할 것이라 보는 시각은 정부의 적극적인 개입과 법제화를 요구하는 반면, AI가 가져올 변화들이 감내할 만한 수준이라 보는 시각은 가능한 최소한의 규제를 원할 것이다. 이처럼 AI 를 두고 엇갈리는 두 시선은 과소 또는 과도 규제를 둘러싼 논쟁을 끊임없이 초래할지 모른다. 다만 한가지 확실한 사실은 AI가 인류의 삶을 과거와는 확연히 다른 양상으로 바꿀 가능성이 더욱 높아졌다는 점이다. 인간을 닮은 AI 와 로봇을 어떻게 규율하느냐 문제는 인류가 그동안 접해보지 못한 새로운 규제 패러다임으로의 대전환을 요구하고 있다. 결국 미래를 어떻게 설계하고 그려갈 것인가는 인공지능이 아닌 인간의 의지에 달려 있는 셈이다.




글 | 김명수 allen.kim@kakaocorp.com 
우완 정통파 투수를 좋아한다. 기자로 일하며 직구로 승부하는 이타적 삶을 꿈꾸다 미국법을 공부한 뒤 변화구 섞어 던지는 법을 익혔다. 기업법무와 해외투자 분야를 거쳐 정책 업무를 맡고 있다. 좋은 규제와 정책은 세상을 바꾸고 사람들을 더 행복하게 해줄 수 있다는 믿음을 갖고 있다. 





<참고문헌>

[1] 논문 Stuart J. Russell & Peter Norvig, ‘Artificial Intelligence: A Modern Approach’ 1037 (3d ed. 2010).

[2] 참고자료 Jean-Christophe Baillie ‘Why AlphaGo Is Not AI’, IEEE Spectrum 2016년 3월 17일 게재 http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/why-alphago-is-not-ai 

[3] 논문 Gill A. Pratt, ‘Is a Cambrian Explosion Coming for Robotics?’ Journal of Economic Perspectives, vol. 29, No. 3, Summer 2015, pp.51-60.

[4] 참고자료 RoboLaw(2014), ‘D6.2 ‘Guidelines on Regulating Robotics’ 2017.2.20 last accessed at http://www.robolaw.eu/RoboLaw_files/documents/robolaw_d6.2_guidelinesregulatingrobotics_20140922.pdf

[5] 참고자료. EU의회 법사위원회의 결의안 http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+COMPARL+PE-582.443+01+DOC+PDF+V0//EN&language=EN

[6] 참고자료. EU의회 뉴스. European Parliament news, ‘Rise of the robots: Mady Delvaux on why their use should be regulated’,

2017.2.20 last accessed at: http://www.europarl.europa.eu/news/en/news-room/20170109STO57505/rise-of-the-robots-mady-delvaux-on-why-their-use-should-be-regulated

[7] 논문 Ryan Calo, “Robotics and the Lessons of Cyberlaw”, California Law Review 103, 2015. 

[8] 논문 Ryan Calo, “Robots in American Law”, Legal Studies Research Paper No. 2016-04 pp. 42-44

[9] 논문 Jack M. balkin, “The Path of Robotics Law”, California Law Review Circuit 6, 2015.

[10] 참고자료 Peter Asaro(2015), ‘Regulating Robots: Approaches to Developing Robot Policy and Technology’ Presentation at: WeRobot 2015, University of Washington, April 10, 2015. http://www.werobot2015.org/wp-content/uploads/2015/04/Asaro_Regulating_Robots_WeRobot_2015.pdf

[11] 트롤리 딜레마(trolley problem)는 영국 철학자 필리파 푸트(Philippa R. Foot)가 처음 제안한 윤리학적 딜레마 문제이다. ‘100km로 주행 중인 기차(trolley)가 바로 앞에 인부 5명이 있는 것을 발견했지만 급정거를 하기에는 너무 가까운 거리인 반면 비상 철로에는 1명의 인부만이 철로를 청소하고 있다. 이럴 때 당신은 어떤 선택을 할 것인가’라는 딜레마적 상황을 제시하고 어떤 선택을 내릴 것인지 질문한다.

[12] 논문. Nick Bostrom, Eliezer Yudkowsky(2011), ‘The Ethics of Artificial Intelligence’, Draft for Cambridge Handbook of Artificial Intelligence, eds. William Ramsey and Keith Frankish (Cambridge University Press, 2011), accessible at http://www.nickbostrom.com/ethics/artificial-intelligence.pdf 

[13] 참고자료. 이원태, ‘인공지능의 규범이슈와 정책적 시사점' KISDI Premium Report 15-07. 2015.12.7. 

매거진의 이전글 [카카오AI리포트]AI, 긴 겨울을 보내고 꽃을 피우다
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari