웬델 월러치, 콜린 알렌의 ≪왜 로봇의 도덕인가≫
간략한 소개
≪왜 로봇의 도덕인가≫는 인공적 도덕 행위자(Artificial Moral agent, AMA - 스스로 도덕적 의사결정을 내릴 수 있는 인공지능)라는 새로운 기술적 지평을 맞이한 인간이 앞으로 답해 나가야만 하는 물음들을 제시한다. 그중에는 규범적 성격의 질문들(AMA 개발의 목적과 이로움은 무엇인가?)과 사실적 성격의 의문들(AMA은 과연 실현 가능한가? 기술적 한계는 없는가?)이 함께 존재한다. ≪왜 로봇의 도덕인가≫는 이 물음들에 대한 답을 완벽하게 제시하지는 않지만, AMA 기술을 이해하고 평가하기 위한 하나의 의미 있는 틀을 제공한다. 특히 AMA가 윤리적 행위를 수행하기 위해 반드시 인간과 똑같은 내적 작용들(자유의지, 의식, 이해)을 거쳐야 하는 것은 아님을 깨닫게 해준다.
책을 읽고 생각해볼 만한 주제들
I. 공학자의 윤리적 책임
인공적 도덕 행위자(AMA)는 기본적으로 과학기술의 산물이다. 따라서 AMA의 윤리적 함의를 성찰하기에 앞서, 과학기술과 윤리의 관계가 무엇인지에 대한 논의들을 살펴볼 필요성이 있다.
먼저 과학기술은 가치중립적인 것이므로 그 자체는 윤리와 무관하다는 입장이 있다. 가령 프랑스의 수학자이자 사상가인 푸앵카레는 “과학과 윤리는 한 점에서 접하기만 하는 두 개의 원과 같이 별개의 영역이다.”라고 주장했다. 과학기술을 활용하는 인간의 행위는 윤리의 영역에 해당하지만, 과학기술 자체에 대한 가치평가는 무의미하다고 판단한 것이다.
이런 견해는 새로운 기술을 개발하는 과학자와 공학자들의 윤리적 책임을 덜어준다. 기술로 인한 피해가 발생하더라도 이는 사용자의 책임일 뿐, 기술을 설계하고 개발한 공학자가 고려할 사항은 아니라고 보기 때문이다. 기술의 부정적 파급 효과에 대해 과학자에게 책임을 물으면 오히려 기술 연구의 자율성과 역동성이 위축될 것이라는 주장까지 제기된다.
하지만 과학기술이 사회 전체에 미치는 영향이 헤아릴 수 없을 정도로 커지면서, 공학자가 기술을 설계하는 단계에서부터 책임 있는 자세를 지녀야 한다는 목소리가 높아졌다. 과학기술을 개발하는 주체가 윤리적인 가치를 인지하고 있어야지만 미래의 잠재적인 피해를 예방할 수 있다는 주장이 힘을 얻은 것이다.
≪왜 로봇의 도덕인가≫의 저자들 또한 이런 입장에 동의한다. 그들은 공학자들이 기술 속에 윤리적인 가치를 구현할 수 있어야 한다고 주장한다. 특히 오늘날의 인공지능(AI) 시스템이 점점 더 뛰어난 능력을 갖추게 될수록 기술 개발자들은 더더욱 도덕적으로 예민해져야 한다고 본다. AI 시스템이 파괴적인 결과를 불러일으킬 가능성을 인지하고, 충분한 안전장치를 마련해야 한다는 것이다. AMA는 이러한 필요에 의해서 탄생한 개념으로, AMA 연구자들은 AI 시스템이 윤리적인 인간의 통제를 받는 것을 넘어서서 그 자체가 윤리적인 행위 주체가 되는 것을 목표로 한다.
II. 인간은 AMA 기술을 열망해야 하는가?
특정 과학기술을 윤리적인 관점에서 평가하는 방식에는 두 가지가 있다. 첫 번째는 기술로 인한 사회적 비용과 편익을 분석하는 방식으로, 새로운 과학기술이 인간의 전반적인 삶의 질을 향상시키는지를 판단하는 것이다. 이는 웬델 월러치와 콜린 알렌이 설명한 기술의 외적 가치, 즉 ‘기술이 공공의 복지에 기여하는지 여부’를 평가하는 것과 같은 맥락에 있다.
두 번째 방식은 과학기술이 인간성 자체에 미치는 영향을 근본적으로 숙고하는 것이다. 즉 기술의 표면적인 유용성과 부작용을 저울질하는 것을 넘어서서, 기술을 활용하는 주체인 인간이 어떤 모습으로 변화할지를 성찰하는 것이다. 이는 인간이 자신의 존재에 어떤 의미를 부여하는지, 삶에서 무엇을 소중하게 여기는지와 관련하여 기술을 평가하는 것이다.
이 두 가지 평가 방식을 인정한다면, 좋은 과학기술은 인간의 삶의 질을 향상시키면서도 인간의 존엄성을 구현할 것이다. AMA는 이러한 평가 기준들에 부합하는가?
1) AMA는 인간의 전반적인 삶의 질에 어떤 영향을 미치는가?
적절하게 설계된 AMA는 도덕적 규범을 지키면서도 인간에게 유용한 서비스를 제공한다는 측면에서 인간의 전반적인 삶의 질을 높일 수 있다. AMA는 인간이 통제하기 어려운 거대한 시스템을 효율적으로 관리할 수 있다는 점, 그리고 긴박한 위기 상황에서 인간보다 빠르고 즉각적인 대처를 할 수 있다는 점에서 매력적으로 다가온다.
하지만 일부 AMA는 아무리 잘 설계되어도 궁극적으로는 인간의 삶에 악영향을 미칠 것이라고 생각한다. 기계가 ‘윤리적’이라는 메시지가 그것이 행하는 특정 악(惡)을 은폐하는 역할을 할 수 있기 때문이다. 또한 인간이 예측하지 못한 시나리오로 인해 AMA가 심각하고 불가역적인 피해를 야기하는 상황이 발생할 수도 있다.
가령 군사적인 목적으로 개발된 AMA는 전쟁을 정당화하는 도구로 악용될 수 있다. ‘윤리적’인 로봇은 인간과 달리 무고한 민간인의 피해를 발생시키지 않는다며 전쟁에 대한 비판 여론을 누그러뜨리려는 시도가 이루어질 수 있기 때문이다. 군사적 AMA가 보편화된 국제사회에서는 갈등상황이 발생했을 때 적과의 평화적인 해결책을 도모하기보다는 쉽고 빠른 물리적인 공격을 선호하게 될 수도 있다. 이는 결코 바람직한 결과가 아니다.
게다가 스스로 결정을 내릴 수 있는 살상 기계는 자체적인 계산 과정에 따라 인간의 예측 범위에서 벗어난 공격을 수행할 수도 있다. 영화 ‘터미네이터’와 같은 상황이 일어날 확률은 매우 낮지만, 그런 가능성을 완전히 배제할 수 없는 이상 ‘예방 원칙’을 적용하여 군사적 AMA의 개발을 지양해야 한다고 생각한다.
2) AMA는 인간의 존엄성을 위협하는가?
많은 기술철학자들은 인간이 기술에 의존할수록 스스로의 자율성을 잃을 수 있다는 점을 경고한다. 특히 AMA는 인간의 개입 없이도 도덕적 의사결정을 내릴 수 있기 때문에, 스스로의 책임을 회피하고자 하는 수많은 사람들의 ‘기술 의존 현상’을 야기할 수도 있다. 가령 ≪왜 로봇의 도덕인가≫의 3장에 소개된 사회과학자 프리드먼과 칸은 의사들이 컴퓨터 기반 의사결정 시스템(APACHE)에 종속되는 상황을 우려했다. 그들은 의사들이 APACHE의 결정을 수동적으로 받아들이는 상황이 반복될수록 기계의 ‘권위’에서 벗어나기 어려워질 것이라고 전망했다.
물론 AMA 기술이 반드시 인간성의 상실을 초래할 것이라는 근거는 없다. 하지만 AMA 기술을 사용하는 사람들이 비판적으로 사고하기를 포기하고, 점점 더 기계가 제시하는 답에 의존할수록 인간적인 존엄성은 분명히 빛을 바랠 것이다. 따라서 AMA의 필요성을 전적으로 부정하지는 않되, 인간이 스스로 생각하고 결정해야 하는 도덕적 사안들이 여전히 존재함을 자각하는 태도가 필요해 보인다.
(이미지 출처) imgurl:https://img1.daumcdn.net/thumb/R1280x0/?fname=https%3A%2F%2Ft1.daumcdn.net%2Fbrunch%2Fservice%2Fuser%2Fglz6%2Fimage%2FGRQ3vyTeVrw3_HqQVeDm-P6LURg.jpg - 검색 (bing.com)