유전자들의 협력 연대기 [Part 6]

[Part 6] PERG: 평판 기반 호혜 게임 (1998~2026)

by 성효경

2012년 다이슨과 프레스의 ZD 전략이 "내가 너를 어떻게 요리할 것인가"라는 1:1의 지배력을 다뤘다면, 1998년부터 시작된 평판 이론의 흐름은 "세상이 너를 어떻게 볼 것인가"라는 다자간의 질서를 설계했다. 이것이 바로 우리가 2026년 현재 목격하고 있는 평판 기반 호혜 게임 (PERG, Public Evaluation Reciprocity Game)의 본질이다.


1. 지적 여정의 시작: '이미지 스코어'의 탄생 (1998)

평판이 협력을 만든다는 아이디어의 수학적 시초는 1998년 마틴 노왁과 칼 시그문트가 Nature에 발표한 논문으로 거슬러 올라간다. 그들은 '이미지 스코어'라는 개념을 처음으로 제안했다.

개념: "나는 너를 처음 보지만, 네가 과거에 다른 사람을 도왔다는 '이미지(평판)'를 가지고 있다면 나는 너를 돕겠다."

수학적 모델: 개체 i의 평판 si는 협력할 때마다 +1, 배신할 때마다 -1이 된다.

협력의 조건은 다음과 같이 정의된다.

q > c/b

여기서, q는 상대의 평판을 알 수 있는 확률, c는 비용, b는 이득이다.

이 단순한 수식은 이기적 유전자가 왜 생판 모르는 남에게 친절을 베푸는지에 대한 최초의 수학적 해답을 제시했다. 우리가 오늘날 PERG라고 부르는 시스템의 근간인 공개 평가 개념이 확립된 순간이다.


2. 진화의 규칙: 8가지 사회적 규범 (2004)

기존의 '이미지 스코어' 모델은 치명적인 결함이 있었다. 그것은 바로 '공정성'의 부재였다. 예를 들어, 악명 높은 사기꾼에게 도움을 거부한 사람의 점수가 깎인다면 과연 그 시스템을 정의롭다고 할 수 있을까? 또한, 모두에게 퍼주는 '호구'는 배신자들에게 이용당하며 시스템 전체를 붕괴시킨다.

2004년, 오츠키와 이와사는 수천 가지의 가능한 사회적 규범 중 어떤 것이 배신자의 침약을 막고 협력을 영구적으로 유지할 수 있는지 시뮬레이션했다. 그 결과 살아남은 것이 바로 '선량한 8가지 규범'이다.


① 2차 평가의 도입: "누구를 돕는가?"

이 연구의 핵심은 평판의 계산법을 2차원적으로 확장한 데 있다.

1차 평가: "저 사람이 협력했는가, 배신했는가?" (단순 행동 중심)

2차 평가: "저 사람이 '어떤 평판을 가진 사람'에게 협력(혹은 배신)했는가?" (맥락 중심)

이로써 사회적 규범은 단순한 산술에서 '알고리즘'으로 진화한다. 어떤 행동이 나를 '선한 상태'로 유지할지, 혹은 '나쁜 상태'로 떨어뜨릴지를 결정하는 조건문이 형성된 것이다.


② 8가지 규범의 논리 구조: '엄격한 판정'의 탄생

오츠키와 이와사가 찾아낸 8가지 규범은 각각 미세한 차이가 있지만, 공통적으로 '배신자에 대한 응징'을 정당화한다. 그중 가장 대표적이고 강력한 규범인 '엄격한 판정'의 로직을 보면 왜 이것이 '정의'의 알고리즘인지 알 수 있다.

Gemini_Generated_Image_pjkeqipjkeqipjke.png


여기서 가장 중요한 혁명은 마지막 항목이다. "나쁜 놈에게 배신(거절)하는 것은 선한 행동이다"라는 논리다. 이 수식이 확립되면서, 배신자는 사회적으로 고립될 뿐만 아니라 그를 돕는 사람까지 '나쁜 놈'으로 낙인찍히는 강력한 상호 감시망이 형성된다.


③ 도덕의 수치 해석: 정의라는 이름의 필터

오츠키와 이와사의 연구는 인류의 도덕을 공학적으로 재정의했다. 그들에게 정의란 형이상학적인 가치가 아니라, '협력자들끼리의 결속을 유지하면서 배신자를 효과적으로 배제하는 최적의 필터'다.

이 8가지 규범이 사회에 안착하면 다음과 같은 현상이 발생한다.

정당한 보복의 허용: 배신자에게 도움을 거절해도 내 평판이 깎이지 않으므로, 사람들은 안심하고 배신자를 응징한다.

사기꾼의 도태: 배신자는 누구에게도 도움을 받지 못하게 되며, 유전적(혹은 경제적)으로 빠르게 멸절한다.

시스템의 안정성: 외부에서 '배신 유전자'가 침입해도 8가지 규범이 작동하는 사회에서는 단 한 세대도 버티지 못하고 걸러진다.


④ 평가 규범: 정의의 알고리즘화

이 8가지 규범은 훗날 PERG 시스템의 두 번째 핵심 기둥이 된다.

Public (공개): 행동이 모두에게 알려져야 한다. (1998, 노왁)

Evaluation (평가): 정당한 규칙에 의해 평가되어야 한다. (2004, 오츠키 & 이와사)

Reciprocity (호혜): 평가에 따라 보상이 주어져야 한다.

Game (게임): 이 모든 과정이 무한히 반복되며 진화한다.

2026년 현재, 우리가 사용하는 플랫폼의 알고리즘(예: 평점 시스템, 신용 스코어링)은 실시간으로 이 '8가지 규범'의 논리를 집행하고 있다. 예를 들어, 악성 리뷰어에게 단호하게 대응한 판매자의 평점이 깎이지 않도록 보호하는 시스템은 2004년에 정립된 이 수학적 정의의 실전판이다.


⑤ 이기적 유전자가 발명한 '판사'

결국 2004년의 연구는 이기적 유전자가 자신의 생존을 위해 '객관적인 판사(규범)'를 발명했음을 보여준다. 유전자는 단순히 '나만 잘살자'를 넘어, '우리(협력자)가 잘살기 위해 나쁜 놈을 가려내는 공통의 규칙'을 뇌에 각인시키거나 사회 시스템으로 구축했다.

이제 협력은 따뜻한 마음의 문제가 아니라, '정교한 필터링 시스템의 가동' 문제가 되었다. 인류가 쌓아온 윤리와 도덕의 정체는 사실 배신자라는 '노이즈'를 제거하기 위한 가장 고도화된 오류 수정 코드였던 셈이다.


3. 기술적 완성: 데이터가 된 도덕 (2020 이후)

1998년 노왁의 '이미지 스코어'와 2004년 오츠키-이와사의 '8가지 규범'이 수학적 가설의 영역에 머물렀다면, 2020년대 중반에 이르러 이 이론들은 인공지능과 만나 실재하는 사회적 인프라인 PERG 시스템으로 구체화됐다. 이제 도덕은 관념이 아닌 데이터이며, 협력은 선택이 아닌 시스템의 강제 사항이다.


① 양적 신뢰의 시대: 사기꾼 탐지기의 외주화

인류가 수백만 년간 진화시켜온 '사기꾼 탐지기'는 이제 인간의 뇌를 떠나 알고리즘으로 외주화됐다. 과거에는 누군가의 배신을 기억하고 소문을 퍼뜨리는 데 막대한 인지적 비용과 시간이 소모됐지만, 2026년의 PERG는 인공지능과 블록체인을 결합해 이 과정을 0.1초 만에 실시간으로 처리한다.

알고리즘적 주홍글씨: 과거의 배신이 '기억의 풍화' 속에 사라질 수 있었다면, 지금의 배신은 영구적인 데이터적 낙인이 된다. ZD 전략이 1:1 관계에서의 일시적인 수식이었다면, PERG는 사회 구성원 전체가 공유하고 실시간으로 열람하는 거대한 '디지털 신뢰 장부'다.

강제된 선함: 배신을 통해 얻는 단기적 이득 b보다, 평판 점수 하락으로 인해 발생하는 장기적 손실 L이 압도적으로 커지도록 시스템이 설계되었다 (L >> b). 신용 등급, 취업, 주거 적합도, 심지어 자율주행 택시의 배차 우선순위까지 평판 점수에 연동되면서, 현대인은 나빠질 수 있는 자유를 박탈당했다. 이것은 도덕적 자각이 아니라, 철저히 계산된 생존 본능의 결과다.


② AI 에이전트: 자비의 무게를 계산하는 대리인

PERG 시대의 협력에서 인간은 더 이상 감정을 소모하지 않는다. 개인의 AI 에이전트들이 상대방의 과거 수만 건의 상호작용 로그와 평판 데이터를 초당 수만 번 시뮬레이션하여 최적의 협력 농도를 결정하기 때문이다.

노이즈 분석과 전략적 관용: 현실의 배신은 때로 기술적 결함이나 소통의 오류 같은 '노이즈'에 의해 발생한다. AI는 딥러닝을 통해 상대의 이번 배신이 의도적인 '착취'인지, 아니면 평소 높은 평판 점수와 대조되는 '우연한 사고'인지를 판별한다.

최소한의 자비: AI는 관계의 붕괴를 막으면서도 자신의 이득을 보호하기 위해 투입해야 할 '최소한의 자비'를 계산한다.

Mercy Value = P(cooperate) × E(future benefit) - Risk Cost

인간의 직관에 의존하던 숭고한 '용서'는 이제 소수점 단위까지 정밀하게 계측되는 리스크 관리 전략이 됐다. 자비는 더 이상 성품의 산물이 아니라, 시스템의 안정성을 유지하기 위한 알고리즘적 윤활유다.


4. 인간다움의 재정의: 프로그래밍된 미덕

이 지적 연대기의 끝에서 우리는 리처드 도킨스가 1976년에 던졌던 질문으로 되돌아온다. 시스템이 완벽하게 협력을 강제하고, AI가 최적의 이타성을 산출해준다면 그것을 여전히 ‘인간의 미덕’이라 부를 수 있을까?

2026년의 관점에서 ‘인간성’은 타고난 성질이 아니라 ‘시스템 설계 능력’으로 재정의된다. 우리는 이기적 유전자가 빚어낸 생존 기계로 시작했으나, 이제는 자신의 이익 궤도를 타인의 행복과 정교하게 묶을 줄 아는 수학적 건축가가 되었다. 우리가 부르는 도덕과 사회성은 이기심이 빚어낸 가장 정교한 공학적 결과물이다.

작가의 이전글유전자들의 협력 연대기 [Part 5]