brunch

매거진 oxopolitics

You can make anything
by writing

C.S.Lewis

by 유호현 Mar 24. 2023

AIcracy: 초월적 지능에 의한 정치

인류가 정치에 에너지를 소모하지 않는 시대

정치적 결정에 영향을 미치는 이해관계와 신념


정치는 기본적으로 이해관계에 따라 움직인다. 각 정치 세력은 자신의 이해관계를 보호하고 확장하려는 목적으로 행동한다. 집을 가진 사람을 부동산 가격을 올리고 세금을 낮추는 방향의 정치를 원한다. 반대로 집이 없는 사람들은 부동산 가격을 내리고 세금은 올리는 방향의 정치를 원할 것이다.


그렇지만 정치는 그렇게 단순하게 경제적이고 메커니즘으로만 작동하지는 않는다. 데이터 기반으로 집이 없는 사람이 평균적으로 10% 가격 하락을 원하고 집이 있는 사람은 20%의 가격 상승을 원하며, 집이 있는 사람을 60%, 집이 없는 사람은 40%라고 계산하여, 집 값을 20*0.6 + 10*0.4 = 8% 오르게 하자라는 식으로 작동하지는 않는다.


정치에는 신념이 작용한다. 신념에 따라 자신의 이익과 반대가 되는 것을 원하기도 한다. 국가와 민족을 위해, 다음 세대를 위해, 힘든 사람들을 위해 자신의 이익이 희생되더라도 자신이 믿는 선한 것을 위해 정치적 선택을 한다. 그렇기에 목숨을 걸고 독립운동을 하는 사람도 있었고, 민주화 투쟁을 하는 사람도 있었고, 조국 근대화와 산업화를 위해 젊음을 바친 사람들도 있었다. 그리고 이 신념은 어떤 주변 사람에게 어떤 이야기를 듣는지, 어떤 채널을 통해 뉴스를 접하는지, 어떤 종교를 믿는지에 따라 영향을 많이 받는다.


이해관계와 신념 중 정치와 언론과 주변 사람이 영향을 미칠 수 있는 영역은 신념의 영역이다. 이 신념의 영역에 변화를 주어 정치적 결정을 유도하기 위해 수많은 정치적 토론과 홍보가 오간다.


정치적 결정의 수식


이러한 정치적 결정의 인문학적 메커니즘을 컴퓨터가 이해할 수 있는 수식으로 바꿔보자.


정치적 결정 = alpha * 이해관계 + beta * 신념


여기서 alpha와 beta는 각 사람이 이해관계와 신념에 대해 부여하는 가중치이다. 정치적 결정, 이해관계, 신념은 -1에서 1까지의 실수, alpha와 beta는 0에서 1까지의 가중치이며 alpha + beta는 1이다.

이렇게 해서 정치적 결정이 0~1 사이가 나오면 긍정적 결정, -1~0 사이가 나오면 부정적 결정이다.


예를 들어, 총성이 난무하는 민주화 시위 현장에 나가서 목숨을 버릴 결정을 하는 경우는 목숨을 잃는 이해관계 -1, 민주화를 이루어서 나와 사회에 돌아가는 선한 영향력에 대한 신념 +0.3이라고 할 때 alpha가 0.1이고 beta가 0.9인 사람은 0.1 * -1 + 0.9 * 0.3 = -0.1 + 0.27 = 0.17로 민주화 시위에 참여를 결정하게 될 것이다.


이전의 기술로 빅데이터 분석을 해서 각 사람이 긍정적인 투표를 할 확률과 부정적인 투표를 할 확률을 구하고 각 사람에게 그에 맞는 정치적 메시지를 전달하는 것이 빅데이터 정치였다. 


AIcracy - AI 시대의 정치


그렇다면 어떤 컴퓨터가 모든 사람의 이해관계와 alpha 가중치, 신념과 beta 가중치를 계산해 낼 수 있다면 어떻게 될까? 그리고 이렇게 단순화된 수식이 아니라 수많은 변수들을 다 계산해 낼 수 있다면 어떻게 될까? 그래서 인공지능이 나를 위해 투표를 하면 내가 했을 투표를 100% 재현해 낼 수 있다면 어떻게 될까?


그렇게 되면 투표를 비롯한 모든 정치 행위를 AI가 할 수 있게 된다. 사람들이 굳이 투표를 안 해도 토론을 안 해도, 시위를 안 해도 자신의 이해관계와 신념에 맞는 의사결정을 AI가 해 줄 것이며, 각 개인들의 총의를 모아 자동으로 AI가 정치를 해 나갈 수 있을 것이다.


그리고 나중에는 AI가 당신의 이해관계와 신념과 가치관을 종합해 보았을 때 당신은 A후보에게 투표를 하는 것이 적절합니다라고 하면 의심이 조금 들더라고 그 의견에 따르게 될 것이다.


이렇게 초월적인 인공지능이 시민을 대표하고 시민들과 영향을 주고받는 정치를 초월적 정치체계 AIcracy라 할 수 있다.


인간의 자율적 판단


인간은 과연 자율적으로 판단을 하고 있을까? 모든 사람들은 스스로 판단을 하고 정치적 결단을 한다. 그렇지만 그 결정은 다분히 어떠한 의견을 들었는지, 즉 input이 무엇인지에 따라 달라진다. 진보 유튜브 채널을 1주일만 보고 있으면 아무리 보수적이었던 사람이 진보주의자가 될 수도 있다. 그러다 보니 현대의 사람들은 진보인지 보수인지를 결정하고 각 진영의 오피니언 리더들의 말에 따라 판단하고 결정하는 경우가 많아지고 있다. 또는 정치에 관심이 없다가 주변사람에게 의견을 묻고 뉴스 등을 찾아보고 선거 때에만 판단을 하는 경우도 있다. 모든 경우에 자율적 판단은 입력된 정보에 따라 절대적인 영향을 받는다.


사람이 제대로 판단을 하기 위해서는 자신의 이해관계를 정확히 이해하고 다양한 신념을 접해야 한다. 그렇지만 그것은 너무나 어려운 일이다. 너무 복잡한 데이터를 검토해야 하는 의사결정이기 때문에 대부분 어떤 감에 의존할 뿐이다. 그리고 사람은 그 “감"이 인간만이 할 수 있는 판단의 영역이라 믿어왔다. 알파고가 이세돌을 이기고 ChatGPT가 인간보다 뛰어난 판단을 보여주기 전까지는 그렇게 믿을 수밖에 없었다. 그렇지만 그 “감”은 결국 수많은 인풋들이 만들어낸 하나의 논리적 또는 비논리적 결론이고 그것은 AI가 매우 잘하는 영역이 되었다.


AIcracy에 저항하여 인간은 자율성을 지키고 스스로 판단하기 위해 노력해야 할까? 이는 자율주행에 대한 논란과 비슷해 보인다. 인간이 끝까지 AI를 믿지 않고 가족의 생명을 지키기 위해 직접 운전대를 잡는 것이 필요할까, 또는 AI에 맡기고 편안한 여행을 하는 것이 나을까? 이는 개인의 판단의 영역이겠지만 AI가 고도화되면서 후자를 선택하는 사람들이 많아질 것이다. AIcracy의 세상에도 귀찮은 정치적 판단보다 내가 믿는 것들을 알고 있는 AI가 내려주는 결정을 따르는 것이 더 편안해질 것이다.


AIcracy가 온다.


지금 내릴 수 있는 가장 편한 결론은 이런 것일 것이다. AI가 사람들이 민주적 판단을 내리는 것을 도와주고 사람이 직접 판단을 내리는, 모든 사람들이 뛰어난 판단을 내릴 수 있는 민주주의 사회가 될 것이라는 희망론이다. 이는 자율주행이 위험하지만 안전 운행을 위해서 도울 것이고 아직은 기계가 사람의 목숨을 좌우하지 않는 시대라는 말과 비슷하게 들린다.


10년 후에는 아마 사람의 운전이 금지가 될 수도 있을 것이다. 규칙을 항상 지키며 가는 차들 사이에서 위험한 차는 스스로 판단을 해서 예상하지 못하는 움직임을 보이는 사람이 운전하는 차가 될 것이다.


사람들이 생각을 안 해도 되는 세상이 곧 온다. 벌써 나는 코딩을 할 때 생각을 별로 할 필요가 없다. 하고 싶은 것을 말만 하면 AI가 코딩을 다 해준다. 나중에는 만들고 싶은 앱을 설명만 잘해주면 앱 전체를 AI가 만들 것이다. 그때에는 기획을 하는 사람, 사업을 하는 사람만 필요할 것이다. 그런데 사업적 기회를 찾고 그에 맞는 비즈니스를 만드는 것도 아마 나중엔 AI가 사람을 압도하게 될 것이다. 그리고 공상과학에 나오던 이 모든 이야기가 너무 빠르게 현실이 되고 있다.


사람들이 생각을 안 해도 되는 시대, AI에 의해 정치가 이루어지는 시대가 디스토피아라고 생각되지는 않는다. 과학 기술이 가져오는 두려움에 의존해서 상상했던 많은 것들에 의하면 이미 지구는 핵전쟁으로 멸망하고 터미네이터가 인류를 끝내러 오는 시대에 살고 있을 것이다. AI는 인간의 삶을 더 효율적이고 풍요롭게 만들 것이다. 10%의 부정적 영향이 있더라도 90%의 긍정적 영향이 있을 것이라 믿는다. 


그런데 아직은 믿음의 영역이다. AIcracy는 올 것이고 우리는 그 도움을 받아 정치를 할 것이고, 나중에는 정치는 기계들이나 하는 일이 될 것이다. 그때 인류는 무엇을 하고 있을까?

                    

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari