brunch

You can make anything
by writing

C.S.Lewis

by 박한마 Oct 25. 2023

[칼럼] 영화로 보는 인공지능 5_ 채피

인간의 도덕성을 학습하는 인공지능


영화 '채피'는 미래의 요하네스버그를 배경으로 하며 치안을 담당하는 인공지능을 가진 경찰 로봇에 대한 이야기를 다룬다. 인공지능인 채피는 감성과 인식 능력을 가지고 태어났지만, 여러 상황에 맞닥뜨리고 인간들과의 상호작용을 통해 자신의 존재와 도덕적인 문제에 직면하게 된다. 


AI에 관한 시리즈 칼럼을 연재하면서 다음 칼럼을 위한 영화들을 미리 시청한다. 거의 다 봤던 영화들이지만 다시 보면 기억이 되살아나기도 하고 칼럼 주제를 위해 시청하는 거라 다른 관점으로 보이기도 한다. 이번에 다룰 영화 '채피'는 OTT를 통해 처음 보게 됐다. 약간 '디스트릭트9'의 채취가 느껴진다 했는데 알고 보니 그 감독이었다. 디스트릭트9이 훨씬 재밌었지만 영화 내에서 인간 외의 무엇인가를 다루는 방식이 비슷했다. 


딱히 끌리지 않았던 영화기에 큰 기대는 안 했지만... 솔직히 말해서 두 시간의 러닝타임 동안 이 영화를 계속 보는 것이 너무 고역이었다. 유치한 인공지능의 학습과정, 존재감이 거의 없는 빌런, 동기 없이 스탠스가 바뀌는 인물, 30분 만에 앞으로의 이야기가 주마등처럼 펼쳐지는 클리세까지.. 마지막 예상치 못한 결말 정도가 아니었으면 좋은 점을 찾기 힘든 영화였다. 영화평론을 하는 칼럼이 아니기에 비평하고 싶은 마음은 꾹꾹 담아뒀다. 한 가지 다행이라면 영화를 통한 AI의 새로운 활용 방면과 그에 관해 논의할 소재를 찾았다는 것이다. 







 우리는 항상 누군가가 우리의 할 일을 대신해 줬으면 하는 소망을 갖고 있다. 단순 가사노동에서부터 건축·설계를 지나 기술의 연구·개발까지 우리가 할 수 있는 모든 종류의 노동을 대신해 주면서 그에 따른 결과물은 고스란히 누리길 바란다. 영화 채피에서는 고도의 인공지능이 인간 경찰을 대신해 치안을 담당하는 역할을 한다. 범죄와 싸우며 통제하는 위험한 노동인 치안유지를 인공지능에게 맡긴다. 인공지능은 축적된 데이터와 알고리즘을 가지고 상황을 판단한다. 그렇기에 인간과 같이 감정에 휩쓸린 판단을 하지 않을 수 있다. 그런 인공지능이 치안을 담당하고 범죄자들을 처분을 할 수 있다면 어떨까. 


 보통의 로봇들과는 다르게 프로그래밍 된 '채피'는 영화 내에서 경이로운 도덕적 성장과정을 보여준다. 채피는 인간처럼 경험을 통해 배우고 습득하지만 그 속도는 인간보다 수백에서 수천 배가 더 빠르다. 그러나 본래 채피의 창조자인 디온의 의도와는 반대로 닌자 갱단에게 귀속된 채피는 이들에게 교육받으며 이들 세계의 상호작용을 습득한다. 결국엔 치안유지를 위해 만들어졌던 로봇 '채피'는 잘못된 경험의 습득으로 인해 닌자 갱단과 함께 범죄를 저지른다. 이를 막을 수는 없었을까. 인공지능에게 학습시킬 수 있는 완벽한 도덕성이란 존재할까








 인공지능에 의한 치안유지


영화 '채피'에서는 인공지능을 탑재한 로봇이 범죄자 소탕을 목적으로 움직인다. '스카우트'라는 이름을 가진 이 치안유지 경찰 로봇들은 무자비하게 범죄자들을 제압한다. 작중 배경이 되는 이 지역은 하루에만 강력범죄가 300건이 넘어간다고 하니 이 정도면 거의 치안이 없는 수준이다. 경관들까지 범죄자들의 총격에 죽어나가는 상황에서 강철로 무장한 인공지능 로봇으로 범죄자를 제압하고 치안을 유지하려는 선택은 더 나 할리 없는 최선일 것이다. 감독의 전작인 '엘리시움'에서도 안드로이드 로봇들이 불심검문을 하며 불응할 경우 삼단봉으로 무자비하게 구타하기도 하는데 이쯤 되면 감독이 로봇에 공포가 있는 것이 아닌가 하는 생각까지 든다.



1-1 인공지능이 모범적인 치안을 담당할 때의 이점


첫번째로 감정이 없기 때문에 입력된 수많은 데이터로만 범죄를 예방하고 범죄자를 판단하여 수월하게 검거, 또는 제압을 할 수 있다. 범죄자를 검거하는 것보다 더 중요한 것은 일어나지 않게 예방하는 것이다. 이를 우선으로 생각했을 때 인공지능은 정확한 상황판단으로 이를 수행할 수 있다. 작중에서 치안유지 로봇 '스카우트'가 상용화된 후 범죄율이 급감했다고 나온다. 인공지능의 활용이 범죄예방에 도움이 된 것이다. 물론 이는 로봇들에게 갱단들이 가진 기본적인 화기가 통하지 않고 범죄자들을 무자비하게 진압했기 때문이긴 하지만 말이다.. 


두번째로 날씨와 시간에 구애받지 않는다. 로봇은 24시간 7일내내 활용 가능한 24/7서비스가 가능하다. 눈, 비, 낮과 밤, 주중과 주말을 가리지 않고 항상 활성화돼 있다는 것은 비상 상황에 언제나 즉각적으로 대응해야 하는 치안유지에 굉장히 중요하다. 이는 인공지능을 활용할 때 가장 큰 이점이다. 예를 들어 도시의 CCTV 카메라 네트워크는 인공지능 분석을 통해 도로 및 공공장소를 24시간 모니터링하면서 응급 상황이나 범죄, 또는 안전사고에 즉각적으로 대비할 수 있다.


이러한 인공지능의 능력은 치안을 강화하고 도시의 안전을 효과적으로 관리하는데 큰 도움을 준다.



1-2 물론 좋은 점만 있는 것은 아니다.


개인정보 문제가 있다. 인공지능이 활동을 기록하고 분석하면서 개인정보의 침해 우려가 있다. 현재 중국에서 활용화된 CCTV를 대표적인 예로 들 수 있다. 2015년부터 주요 도시에 안전과 치안을 목적으로 정교한 안면인식 시스템의 CCTV를 설치하는 톈왕(天網·하늘의 그물)'이라 불리는 대규모 국가 프로젝트가 그것이다. 중국 전체 인구를 1초 만에 스캔하고 표정, 움직임, 명암차이를 구별해 99.8%라는 적중률을 보인다. 규모도 어마어마해 6억대의 CCTV가 돌아가고 있다고 하니 대륙의 스케일 하나만큼은 장난이 아니다. 물론 강제적으로 안면인식을 등록해야 하기 때문에 무분별한 개인정보 유출을 말할 것도 없고 국가가 개인의 일거수일투족을 감시하고 통제하는 빅브라더 국가가 아니냐는 비판도 나오고 있다. 이렇듯 인공지능에 의한 대규모의 감시체제는 개인정보의 무분별한 활용과 더불어 개인을 배제하고 국가의 소유물로써 효과적으로 통제할 수 있는 도구가 될 수 있다. 








 도덕을 배우는 인공지능


영화 '채피'에서는 고도의 인공지능을 가진 로봇 채피가 인간의 영향을 받아 도덕성을 형성하는 과정을 보여준다. 그중에서도, 채피가 닌자갱단에게 강제로 맡겨진 상황에서의 교육과 관계는 특히 중요한 역할을 하는데 닌자갱단의 3명의 구성원은 각자 다른 방식과 특성으로 채피를 교육하는 모습을 보여준다. 닌자는 폭력으로, 욜란디는 모성애로, 아메리카는 회유와 거짓으로 채피를 교육한다. 이들의 목표대로 교육이 잘 먹힌 건지 왜곡된 도덕적 가치관을 갖게 되고 채피는 목에 금목걸이를 두른 채 닌자갱단과 같이 범죄를 저지른다. 



2-1 우리가 인식하는 도덕성


우리가 인식하는 도덕성은 개인 또는 집단의 행동, 가치관, 행동원칙, 윤리적 판단 등에 관련된 개념이다. 어떠한 행동이 옳거나 그름을 판단하고 그에 따라 행동하는데 미치는 특성을 나타내며 사회와 문화에 따라 다양한 방식으로 정의되고 해석될 수 있다. 사실 개인마다 갖고 있는 도덕성이 확연하게 다르기 때문에 '옳은 도덕은 이것이다'라고 정의하기는 어렵다. 도덕성은 도덕적 상황에서 개인이나 집단이 판단하는 능력이나 정의, 자비, 존엄성, 진실 등등의 수많은 도덕적 가치가 혼합되어 나온 것이기 때문이다. 더군다나 이런 보편적인 가치 외에도 나라와 민족 간의 문화, 종교, 윤리에 따라서도 규정하는 도덕성이 천차만별이다. 이에 따라 똑같은 상황이라도 마주하는 개인에 따라 수많은 도덕의 경우의 수가 있으니, 그 수는 무한에 가깝다고 할 수 있겠다.



2-2 인공지능에게 도덕성의 학습


이렇듯 누구나 만족할 수 있는 중립적인 도덕성을 찾아 인공지능에게 학습시키기란 매우 까다로운 작업일 것이다. 그럼에도 불구하고 이러한 도덕성의 출발점을 상정해 본다면, 아이작 아시모프의 '로봇의 3원칙'은 고려해 볼 가치가 있는 요소이다. '로봇의 3원칙'이란, 작가인 아이작 아시모프가 로봇에 관한 소설들 속에서 제안한 로봇의 작동 원리로서 항목은 다음과 같다.


로봇은 사람을 해하면 안 되며 사람이 위험에 처했을 때 가만히 있어서도 안된다. 

첫째 원칙에 어긋나지 않는 한 로봇은 명령에 복종해야 한다.

첫째와 둘째 원칙에 어긋나지 않는 한 로봇은 자신을 지켜야 한다. 


이 원칙들은 원래 인간과 로봇의 상호작용에서 발생할 수 있는 문제점을 다루기 위해 만들었지만, 자세히 살펴보면 각 항목이 인공지능의 도덕성에 대한 논의의 기초를 제공한다는 것을 알 수 있다. 이 3원칙은 인공지능과 인간이 안전하게 상호작용하고 인간의 이익을 최우선으로 고려하는데 도움을 주는 지침이 될 수 있다고 생각하는데 그 이유는 다음과 같다. 앞서 말했다시피 즉각적인 도덕적 판단을 요하는 일상생활에서의 수많은 사건 사고들은 그 결과에 따라 논란을 일으키기도 한다. 그때 최우선적으로 명령을 따르면서 인간을 해하지 않고 자신을 지킨다는 어떻게 보면 간단명료한 명제인 이 3원칙이 도덕성에 대한 논란을 줄이는 좋은 출발점이 될 수 있다.


작 중에서 채피는 닌자갱단의 잘못된 교육으로 인해 인간들을 공격하는 것을 재우는 것이라고 학습한다. 죽이고 기절시키는 것을 재운다고 배운 것은 둘째치고 표창을 던져 인간에게 상해를 입히는 것에 대한 도덕적 관념이 없으니 잘못된 교육을 그대로 받아들인 것이다. 로봇의 3원칙을 채피에게 프로그래밍 해뒀다면 갱단편에 서서 경찰들을 공격할 일은 없지 않았을까 싶다.



2-3 도덕 학습의 가능성


솔직히 말하자면 인공지능이 인간과 동일한 감정을 갖지 않는 이상, 프로그래밍 만으로 인간사회 모두가 만족할 만한 도덕성을 가질 수 있는지는 의문이다. 예를 들어 '생명을 죽이면 안 된다.'라는 명제를 단순히 명령화시켜 학습시키는 것은 비교적 간단할 수 있겠지만. '살생'이라는 행동이 옳은지 그른지 판단할 수 있도록 '생명은 소중하다'라는 명제를 학습시키는 것은 더 복잡한 과제이다. 이런 판단은 '공감'이나 '윤리'등의 도덕적 감정이 동반돼야 하기 때문이다.


2-1에서 말한 것과 같이 도덕성을 문화, 종교, 개인적 가치, 사회적 상황 등에 따라 굉장히 많은 변수가 있고 상대적일 수 있다. 어떤 도덕적 가치나 원칙이 한 문화나 종교에서는 중요하게 여겨질 수 있지만, 다른 문화나 종교에서는 다르게 평가될 수 있기 때문이다. 예를들어 아랍국가에서 개발된 인공지능이 있다고 가정해 보자. 이 인공지능은 자연스럽게 이슬람 종교의 교훈을 학습했을 것이고 율법을 근거로 여성들의 운전을 금지시키는 등의 권리를 제한할 수도 있다. 이런 상황에서 인공지능의 도덕성은 해당 국가, 또는 문화권의 도덕성과 일치하게 된다.


이렇듯 도덕성은 다양성과 복잡성을 반영하고 있기에 인공지능의 도덕성을 개발하고 관리하는 것은 매우 복잡한 문제이며, 이러한 도덕성을 논란 없이 통일시켜 인공지능에게 학습시키는 것은 더더욱 어려운 과제일 것이다.








◾ 마치며,


인공지능 로봇이 거리를 돌아다니며 사람들의 일거수일투족을 감시하고 통제한다면 어떨까. 농담도, 눈물도 통하지 않는 이 데이터 덩어리는 미래의 인간사회를 언제든지 유토피아 혹은, 디스토피아로 만들 수 있는 가능성이 존재한다. 인공지능이 인간의 도덕성을 이해하지 못하고 편향된 방식으로 판단한다면 그것은 인간사회에 큰 혼란은 야기할 수 있겠지만 인공지능 로봇이 도덕성을 올바르게 학습한다면 보다 훨씬 안전하고 평화로운 사회를 만들 수 있다. 하지만 우리가 알아야 할 것은 채피가 욜란도에게 엄마 같은 사랑과 이해를 배우고, 닌자에게 폭력을 배운 것처럼 결국 유토피아도, 디스토피아도 모두 인간의 손에 달렸다는 사실이다.





작가의 이전글 스크럴, 또는 AI
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari