인공지능윤리에 대한 생각
인공지능 윤리담론 형성 배경
본격적인 인공지능윤리 담론은 1942년 공상과학 소설작가인 Isaac Asimov'(아이작 아시모프)가 그의 단편소설 「Runaround」에서 소개한 로봇 제3원칙에서 시작됐다. 그후 인공지능기술이 집중 조명된 2010년 전후로는 사뭇 진지하다. 실제로 로봇은 인간에게 물리적인 해악을 초래할 가능성이 있지만, 사용자의 부주의나 기술적 결함에서 비롯된 것이지 않을까.
허심탄하게 말하면, 영화 속에서 기계의 인간에 대한 물리적 해악의 공포심은 다분히 과장되었다. 오히려 일본에서는 고령화로 인하여 1인 가족이 보편화 되면서 건강과 일상생활을 도와줄 ‘휴머노이드(humanoid) 로봇’이 개발되어 확대되는 방안이 모색되고 있다.
여기서 잠깐 짚어봐야 할 것이 있는데, 정확히 말해서 로봇과 인공지능은 다른 것이다. 그래서 인공지능윤리도 두 가지 배경에서 로봇윤리와 구분된다.
첫째, 빅데이터 발전에 힘입어 인공지능 머신러닝이 폭발적으로 발전하였고, 알고리즘의 성능과 예측모델의 수준도 그만큼 향상됨으로써 기술적 패러다임의 전환이 인공지능 윤리를 담론의 대상으로 등장시켰다. 둘째, 미국을 중심으로 한 각국 정부와 기업의 이목이 인공지능기술에 집중되었고, 이에 인류에게 보편타당한 인공지능윤리 규범의 필요성이 강조되고 있다.
대표적인 인공지능 윤리로 2017년 1월에 인공지능 분야의 전문가로 구성된 민간단체인 ‘삶의 미래 연구소’가 발표한 아실로마 인공지능 원칙(Asilomar AI Principles)은 총 23항목으로 구성됐다. 이 원칙은 연구에서의 이슈(1∼5), 윤리 및 가치(6∼18), 그리고 장기적 이슈(19∼23)에 대한 주제를 원칙으로 한다.
이 원칙의 인공지능 연구의 목표는 ‘인간에게 유용한 지능을 개발하는 것’에 있다. 역시 인공지능 윤리에 핵심가치인 투명성, 개인정보 보호, 자유와 프라이버시의 윤리와 가치가 포함됐고, 초지능(super intelligence)은 모든 인류의 이익을 위해 개발돼야 한다고 한다.
특이점(singularity), 글로벌 기업의 인공지능 윤리원칙
본래 특이점(singularity)은 천재물리학에서 블랙홀 내 무한대 밀도와 중력의 한 점을 뜻하는 용어로서, 사회경제적 의미에서 너머를 알 수 없을 정도로 커다란 단속적 변화가 이뤄지는 시점을 뜻한다. 특이점을 만난 인간의 일상은 비즈니스 모델부터 인간의 수명까지 인간의 삶과 관련된 모든 개념에서의 변화가 발생하게 된다.
그런데 컴퓨터 과학자이면서, 알파고를 개발한 Google의 기술부문 이사인 Ray Kurzweil이 기술의 특이점을 주장하고 나섰다. 그는 미래사회에서의 인공지능은 모든 인간의 지능을 합친 것보다 강력한 능력을 갖게 되며 기술의 미래에 특이점에 이르게 되면, 미래에 기술변화의 속도가 매우 빨라지고 그 영향이 매우 깊어서 인간의 생활이 되돌릴 수 없는 상태에 이른다고 한다.
특이점을 말한 Ray Kurzweil이 가정한 미래의 인공지능은 스스로 알고리즘을 업로드하고, 프로그램에 개입하려는 인간의 통제를 거부하고 극복해 버리기까지 한다. 그럼에도 그는 인류가 안전한 사회를 만들어냄으로써 인공지능의 위험은 극복될 수 있다고 한다. 이러한 관점에서 인공지능 윤리규범은 최상의 규제방안이자 이상적인 도구인 것처럼 여겨지고 있다.
예를 들어 미국의 Google은 인공지능 윤리와 사회적 문제를 연구하고 있고, ‘Google AI 이니셔티브’를 발표하였다. Google은 “사회적으로 유익하며, 불공정한 편향을 만들어 내거나 강화하지 않고, 안전성을 우선으로 설계하고, 인간을 위해 책임을 다하며, 개인정보를 보호하고, 과학적 우수성에 대한 높은 기준을 유지하는, 이러한 원칙에 부합하는 용도에만 (인공지능을) 활용한다.”라고 하여 모두를 위한 AI 개발원칙 7가지를 제시했다.
Microsoft도 2018년 연례 개발자 컨퍼런스인 ‘MS 빌드 2018’에서 “마이크로소프트는 인공지능을 기반으로 클라우드와 그에 연결되는 모든 기기와 서비스 전반으로 영역을 확장할 것”이라고 밝히면서, 프라이버시, 사이버보안, 윤리적 인공지능을 제시하면서 책임 있는 인공지능의 활용을 표방하였다. 아울러 2019년에는 ‘인공지능 개발자를 위한 AI 디자인 원칙’을 발표했다.
하지만 개별 국가들에서는 강대국을 뒤로 엎고 앞으로는 막강한 빅데이터를 가진 기업들에 대해서 윤.리.원.칙.을. 강.제.할. 장.치.가. 없.다. 글로벌 기업의 윤리원칙은 인공지능의 의사결정으로부터 보호되어야 할 핵심적 가치를 포함하지만, 대게는 지나치게 선언적인 내용으로 추상적인 수준의 이행사항이 제시되고 있을 뿐이지 않은가
그런데도 인공지능의 특이점에 대응해 기업의 윤리원칙으로만 충분할까?
규범으로의 윤리
우리나라 표준국어대사전에서 발견되는 윤리(倫理)의 정의는, “사람으로서 마땅히 행하거나 지켜야 할 도리”이다. 윤리는 철학과 윤리학에서 인간 행위의 규범을 연구하는 학문이기도 하다. 윤리(ethics)는 그리스어 ‘ethos’에서 파생된 ‘ethikos’에서 비롯하였으며, 철학적 관점에서는 좋음과 옳음, 쾌락 등 이상적 가치나 규범에 따라 행동하는 당위성을 나타낸다.
인공지능에서 규범을 이야기 할 때 윤리와 법은 어떻게 다를까?
Geoffrey Harzard는 윤리란 인간 상호 간, 집단 상호 간의 인식에 근거하여 상호인식(mutual intelligibility)이 가능한 집단이 공유하는 규범라고 한다. 윤리는 ‘의사와 환자와의 관계’, ‘교사와 학생의 관계’와 같이 사회나 가정에서의 규범을 제시하는 암묵적 기준으로 개방적(narrative)이다. 그래서 사회적 합의와 인정만 있다면 수정될 수 있다.
이와 달리, 법은 사회의 정치적·입법적인 권위에 의해 공식적으로 공포되는 규범이자 집행 가능한 규범으로 재판이라는 법적 절차를 두고, 상호명료성과 주관성을 고려한다. Geoffrey Harzard는 법에는 약속을 이행· 강제하는 특성이 있으며 집행가능성까지도 포함되어 있다고 한다. 법적 이행절차에서 각각의 행위자들은 상호 간의 인식(intersubjective intelligibility)을 통해서 사법기능을 이행할 수 있게 된다. 즉 법관과 입법자, 변호인, 그리고 시민이 법을 같은 의미로 이해하고 있다는 전제가 중요하다. 이러한 법의 규범으로서의 개념은 윤리에 비해 개념적으로 명확하고 좁은 개념에서 안정성을 갖는다.
정리하면, 법이 규범의 한계로서 작동하고, 계약체결을 통해 그 이행을 요구한다면, 윤리는 공동체에 공유되고 상호 인식한 규범에 대한 구체적인 행위를 요구한다. 윤리는 ‘규범성’의 측면에서 윤리는 법규범에 가깝지만, ‘강제성 여부’의 측면에서 법에서 멀다. 법이 사회 안에서 개인과 단체에 대한 지위를 설정하고 필요최소한의 행동기준을 부여한다면, 윤리는 그 이상의 범위에서 개인과 단체에 의무와 권한을 부여할 수 있을 것이다.
인공지능의 의사결정에는 법위반 정도에 이르지 않아도 인간 가치에 대한 위험들을 갖고 있다. 이때 윤리는 법이 대응하지 못하는 위험에 대하여 규범이 될 수 있다. 다만 인공지능 윤리규범은 ‘윤리’와 구분되는 강한 규범성과 동시에 개방성을 취하는 형태가 필요하다.
참고문헌
Geoffrey Hazard, Jr, “Laws, Morals, and Ethics”, Southern Illinois University Law Journal Vol.19(1995), 453.
Ray Kurzweil, The Singularity Is Near: When Humans Transcend Biology, Viking(2005), 198-203.
Nick Bostrom·Eliezer Yudkowsky, “The Ethics of Artificail Intelligence”, Machine intelligence reserch institute(2011), 15.
필자의 박사학위논문과 몇몇의 인공지능과 자기결정에 관한 논문들