brunch

You can make anything
by writing

C.S.Lewis

by 고방 주인 Dec 21. 2022

AI 시대의 출현, 선택으로부터 해방인가, 소외인가

유발 하라리의 '호모 데우스'를 읽고..

< AI 시대의 출현, 선택으로부터 해방인가, 소외인가? >


(1) AI는 어디까지 발전하는가?
과연 AI(Artificial Intelligence)는 어디까지 발전할까? 유발 하라리는 그의 저서 ‘호모 데우스’에서 AI는 가까운 미래에 ‘인간보다 더 인간을 잘 아는’ 존재가 될 것이라 예견한다. 우리의 은행계좌, 이메일, SNS 좋아요 기록, 심지어는 우리도 정확히 감지하지 못하는 은밀한 심장박동, 혈당 수치까지. 우리의 일상은 하나하나가 ‘데이터화’된다. 이를 전방위적으로 수집 및 분석하는 AI는 적절한 알고리즘을 거쳐 사람들의 의사결정 과정에 도움을 주기 시작한다. 처음에는 어떤 영화를 볼지, 어디서 휴가를 보낼지를 추천한다. 발전을 거쳐 AI는 우리가 대학에서 무엇을 전공하고, 어떤 일자리를 구할 것인지, 심지어 누구와 만나고 결혼할지 조언할 능력을 갖춘다. 그의 저서 “호모 데우스”에 나온 예시를 하나 살펴보자.


우리는 이를테면 구글에게 이렇게 말한다. “잘 들어봐, 구글. 존과 폴이 둘 다 나에게 작업을 걸고 있어. 둘 다 좋은데 좋은 면이 달라. 네가 아는 사실들을 모두 고려해 나에게 조언 좀 해줄래?” 그러면 구글은 이렇게 대답할 것이다. “나는 네가 태어난 날부터 너를 알고 있어. … 네 유전자 정보, 네 심장 기록도 모두 갖고 있어. 네가 데이트한 정확한 날짜도 보관하고 있으니, 존이나 폴과 만날 때마다 네 심장박동, 혈압, 혈당 수치를 초 단위로 기록한 그래프를 원한다면 보여줄 수 있어. 필요하다면 네가 그들과 가진 모든 성관계의 정확한 순위도 제공할 수 있어. … 이 모든 정보, 내 뛰어난 알고리즘, 수많은 관계에 대한 수십 년에 걸친 통계자료를 토대로, 나는 너에게 존을 선택하라고 권해. 장기적으로 그와 함께할 때 더 만족스러울 확률이 87퍼센트야.”


마치 고대 그리스 신화에서 자신의 운명에 대해 신탁을 청하듯이, 어떠한 연애 상대와 함께할 때 더 행복할지와 같은 아주 개인적이고 내밀한 사안을 AI에 맡기고, 그 결정을 신뢰하기 시작한다. 나아가 AI는 선택을 돕는 ‘조언자’의 역할에서 벗어나, 마침내 인간의 명령과 관계없이 스스로 결정을 하고 실행하는 ‘주권자’로 진화한다. 내비게이션 애플리케이션 ‘웨이즈 Waze’의 사례를 살펴보자. 웨이즈는 수백만 운전자들의 기록으로부터 교통체증과 자동차 사고에 대한 정보를 끊임없이 업데이트하며, 이를 활용하여 목적지로 가는 가장 빠른 길로 사용자를 안내한다.  만약 AI를 탑재한 웨이즈가 점점 더 발전해서 미래에 모든 사람이 사용한다면 어떻게 될까? 웨이즈는 모든 사용자가 목적지에 최대한 빠르게 도달할 수 있는 상황을 스스로 주관할 것이다. 가령 1번 도로는 막히지만 2번 도로는 비교적 원활하다고 할 때, 웨이즈는 모든 운전자에게 그 사실을 알려주면 운전자들이 2번 도로로 몰려 결국 그 도로도 막힌다는 점을 예상한다. 이를 고려하여 2번 도로가 소통이 원활하다는 것을 절반의 운전자들에게만 알려주고, 나머지 절반에게는 이 정보를 비밀로 하는 방식으로 2번 도로를 막히지 않게 하면서 1번 도로의 체증을 해소해 나갈 것이다.


AI는 불완전한 인간의 선택을 보완하여 인간을 선택의 고뇌로부터 해방시킬 도구가 될 수도 있다. 반면, 웨이즈의 사례처럼 행위의 주권자가 된 AI는 인간의 자율적인 선택권을 침해할 우려가 있다. 즉, 우리는 AI가 선택해준 결정을 무조건 따르며, 그들의 결정의 대행자로 전락할 가능성이 있다는 것이다. 과연 AI의 발전은 선택으로부터 해방일까? 아니면 소외일까?


(2) 인간은 자유의지를 지닌 존재인가?


논의에 앞서 우리는 ‘인간보다 인간을 더 잘 아는’ AI가 탄생할 것이라는 예측에 이론적 활보를 열어준 생명과학의 최신 연구들에 대해 알아볼 필요가 있다. 이 연구들은 인간은 ‘자신이 원하는 대로 행동하는 자유의지를 지닌 존재’라는 근대 자유주의의 이론이 허구임을 밝힌다. 즉, 인간에게 고유하고 주체적인 것이라 여겨지는 감정, 생각, 욕망, 의지 등이 모두 생물학적 화학적 법칙의 부산물이라는 것이다.

로봇 쥐 실험이 이를 효과적으로 뒷받침한다. 과학자들은 쥐의 뇌에서 감각 영역과 보상 영역을 찾아 전극을 이식했다. 우리는 이 곳에 리모컨으로 전기적 자극을 주어 쥐에게 정신적 쾌락을 주는 방식으로 쥐에게 특정 행동을 하도록 유도할 수 있다. 뉴욕 주립 대학교의 산지브 탈와르 교수에 따르면, 쥐가 왼쪽으로 움직이도록 리모컨을 누르면 ‘쥐는 왼쪽으로 움직이고 싶어 지기 때문에 자신들의 욕구에 따라 움직일 뿐이다.’  유발 하라리는 우리가 우리에게 ‘자유의지가 있다’고 말하는 것은 마치 이런 쥐가 ‘나에겐 자유의지가 있어, 봐 바! 나는 원할 때 이렇게 원할 때 왼쪽으로 움직일 수도 있지!’라고 말하는 것과 별반 차이가 없다고 주장한다.


윤리적 제약 때문에 연구자들은 뇌 질환을 겪는 환자들을 대상으로 특별한 상황에서만 인간의 뇌에 전극을 이식하는데, 이때 진행된 실험들 역시 인간도 쥐처럼 뇌의 적소를 자극해 사랑, 분노, 두려움과 같은 복잡한 감정들을 일으키거나 없앨 수 있다는 사실을 보여준다. 뇌가 일으킨 생화학적 신호에 의해 우리의 욕망이 생성되고 조절된다면, 우리가 ‘우리의 삶에 자유의지를 지녔다’고 주장할 수 있을까? 그리고 그런 생화학적 신호에 대한 메커니즘을 AI가 성공적으로 해독해낸다면, AI는 ‘인간보다 더 인간을 잘 아는’ 존재로 거듭날 수 있지 않는가?


유발 하라리는 여기서 더 나아가 인간이 자신의 존재에 대해 부여하는 다양한 층위의 의미 또는 가치체계마저 허구임을 주장한다. 즉 인간이 자신의 삶을 둘러싼 사건과 경험을 납득하고자 만든 가치체계들은, 그것이 인간에게 얼마나 매력적으로 여겨질지라도 인간의 감정과 의지와 마찬가지로 생화학적인 부산물로 환원될 수 있는 것이다.
이런 하라리의 주장은 ‘인간은 가치를 추구하는 존재’라는 인간에 대한 기존 믿음을 완전히 뒤집는다. 그의 말대로라면, 인간이 ‘인생의 의미’, ‘가치 있는 삶’이라고 여기는 것들이 생화학적 알고리즘의 집합이 지어낸 허구적 이야기에 불과하다. 따라서 우리는 ‘어떤 것이 좋고 나쁘다’ ‘이것이 더 나은 가치를 지닌 것이다’ 따위의 논쟁을 접어두고, AI가 말하는 내 생화학적 신호들이 말하는 진정한 ‘나’, 진정한 내가 원하는 생물학적인 욕구, 감정, 의지를 따르면 되는 것이다. 우리가 ‘자유의지를 지닌 존재’, ‘가치를 추구하는 존재’라는 기존의 믿음을 버리면, AI는 ‘인간보다 인간을 더 잘 아는’ 존재가 되어 인간을 선택으로부터 완벽히 해방시킬 수 있다.


(3) 인간은 ‘가치’를 포기할 수 있는가?


인간은 그럼 자신이 지닌 가치체계가 허구라는 것을 인정할 수 있을까? 즉 생물학적 신호에 의해 발생한 욕구에 자신의 몸을 맡기는 존재임을 받아들일 수 있는가? 우리는 인간이라는 존재가 숙명적으로 자신이 원치 않는 상황에 처하며, 그곳에서 자신이 욕구하지 않는 일들을 실행함으로써 자신의 존재의 의미를 이끌어낸다는 사실에 주목할 필요가 있다.


아우슈비츠의 열악한 환경에서 생존한 심리학자 빅터 프랭클은 자신의 저서 ‘죽음의 수용소에서’에서 ‘아무리 객관적으로 계산을 하고, 모든 기회를 감안해 보아도 보통 수감자들이 살아나갈 가능성이 아주 희박한 순간’ 속에서도 인간은 올바른 해답을 찾아낼 책임이 있음을 주장했다.  그곳에서 겪는 고통을 생각하더라도 자살하거나, 더 살아가지 못한다고 절망하고 희망을 놓는 편이 맘이 편할 텐데 말이다. 어떠한 사람은 미래에 대한 믿음을 상실하여 죽음을 선택하는 경우도 있었고, 빅터 프랭클과 같이 죽음을 희망으로 승화시킨 사람도 존재한다. 이러한 일정한 가치가 허구라면, 왜 이 가치는 누군가는 죽고 누군가는 사는 결과의 차이를 불러올 수 있겠는가?


유발 하라리의 주장에 의하면 아우슈비츠에 수용된 프랭클이 자신의 삶에 부여한 의미는 허구일 뿐이다. 헐벗고, 굶주렸으며, 가족들은 죽은 것이 분명하며, 두 발은 동상으로 인해 괴사 당하기 직전이며, 수치심과 좌절이 가득한 프랭클은 생화학적으로 ‘죽으면 편하리라’는 것을 알고 욕구했을 것이다. 만약 그 시절 AI가 존재했다면, 그의 호르몬의 변화, 심장박동, 아우슈비츠에서 살아남을 가능성 등 모든 경우의 수를 고려해 프랭클을 분석한 AI는 효용을 위해 차라리 죽는 편이 나을 것이다라고 조언했을 것이다. 프랭클의 표현대로, 그곳은 ‘자살하지 않을 이유가 없는’ 곳이기 때문이다. 그러나 프랭클은 그러지 않았고, 이를 기록한 그의 저서는 전 세계 수많은 사람들에게 읽히며 공감을 일으킨다.


인간은 결국 한정된 자원과 상황에서, 윤리적 선택을 행해야 한다. 트롤리 문제는 이를 단적으로 보여준다. 트롤리 문제에 대한 AI의 효용적 접근은, 주어진 상황에서 가장 많은 사람을 구할 수 있겠지만, 그것이 가장 가치 있는가에 대해서는 답을 내릴 수 없다. 같은 문제 상황에 직면했을 경우, 어떤 인간은 예수처럼 살기를 원하여 스스로가 선로에 빠져 의인이 되기도 한다. 당연하게도 우리는 그러한 사람들을 의인으로 존경한다. 이를 두고 ‘자신의 허구적 의미 체계에 빠져 자신의 목숨까지 앗아간 사람’이라고 볼 수 있지만, 그가 남기고 가는 ‘의미’는 분명히 존재한다.


인간은 결국 효용을 넘어서 가치를 택하기도 한다. 사랑을 바라보는 관점도 그러하다. 여기 막 결혼한 사람이 있다고 하자. 그 사람의 꿈에 전 연인이 나와서 그는 갑작스럽게 그녀를 떠올리게 된다. 그립고 보고 싶어 지며, 심장박동은 빠르게 뛰며 호르몬은 작용하기 시작한다. 우리는 그것을 사랑이라고 보는가? AI는 사랑이라고 대답할 것이다. 다만 사랑을 ‘상대에 대한 절대적 희생과 책임’이라는 의미를 담아 본다면 우리의 가치체계는 그것이 사랑이 아니라고 말한다. 또 만약 한 남자가 한 여성을 사랑하지만, 그 여성은 그 남자를 싫어하는 상황이면, AI는 모든 상황과 확률을 고려하여 남자에게 그 여자를 포기하는 것이 이롭다는 조언을 해줄 것이다. 그럼 그 남자는 효용을 추구하고 사랑이라는 가치를 버릴까? 구구절절한 짝사랑 이야기가 왜 모든 나라에 존재하며 그런 이야기는 왜 많은 사람들에게 회자가 되는가에 대해 고민해볼 필요가 있다.


결론은 AI가 인간에게 선택으로부터 완벽한 해방을 줄 수는 없다는 것이다. 그 이유는 인간이 태생적으로 불완전하며, 감정적인 존재라는 그 지점에서 인간은 의미를 이끌어 내며, 그런 의미는 인간이 포기할 수 없는 것이기 때문이다. 이러한 예측과 다르게 AI가 얼마나 발전할지는 모른다. 인간에게 가치 있는 일을 유도하는 성숙한 AI가 나올지도 모른다. 예를 들어 가치 있는 일을 행하지 못한 인간의 죄책감과 도덕적 비난까지 예측하여 가치 있는 행위를 추천하는 식이다. 확실한 것은 그러한 AI가 만들어진다 해도 행위자로서 인간은 존재한다는 것. 그 선택을 행동으로 옮길 수 있는가는 차원이 다른 이야기이기 때문이다.



<참고문헌>
단행본
유발 하라리(Yuval Noah Harari). 2015. 『호모 데우스 : 미래의 역사』. 김영사.
빅터 프랭클(Viktor E. Frankl). 1984. 『빅터 프랭클의 죽음의 수용소에서: 죽음조차 희망으로 승화시킨 인간 존엄성의 승리』. 경기 파주: 청아출판사



작가의 이전글 우리 사회의 잃어버린 공감 능력을 찾아서 – 내 안의
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari