완벽한 소울메이트와 70점짜리 인생

결갈피 독서 모임 후기: 넥서스 3부를 읽고

by 르네

인트로: 점심 메뉴와 세계정부


"오늘 점심 뭐 먹을까요?"


모임이 시작되자마자 누군가 던진 이 평범한 질문이, 이날 토론의 서막을 열었다. 돌아온 대답들은 예상대로 제각각이었다.


"전 면 싫어요." "거긴 멀어요." "가위바위보로 정하죠."


답답해 죽겠지만 모두의 의견을 듣는다. 이것이 민주주의다. 반면 "그냥 국밥 가요"라고 한 사람이 결정해버리면? 빠르긴 하다. 이것이 독재다.


Untitled-1.png



고작 1만 원짜리 점심 메뉴 하나를 정하는 데 10분이 넘게 걸린다. 누군가는 면이 싫고, 누군가는 걷기 싫고, 누군가는 결정장애가 있다. 결국 가위바위보로 정하거나, 총대 멘 누군가가 "그냥 따라오세요"라고 독재를 휘둘러야 이 지루한 트랜잭션(Transaction)은 커밋(Commit)된다.


이 답답한 10분의 시간. 개발자 언어로 표현하자면, 이것이 바로 민주주의가 가진 레이턴시(Latency, 지연 속도)다.


하라리는 <넥서스> 3부에서 민주주의를 일종의 분산 정보 처리 시스템으로 정의한다. 독재가 중앙 서버 한 곳에서 모든 데이터를 처리하고 명령을 내리는 구조라면, 민주주의는 수많은 노드(시민)가 서로 데이터를 교환하고 합의를 거쳐야 하는 구조다. 당연히 느리다. 비효율적이다. 배가 고파 죽겠는데 10분 동안 메뉴도 못 정하는 우리처럼 말이다.


반면, 독재는 빠르다. 만약 우리 모임에 AI 점심 독재자가 있었다면 어땠을까? 그는 우리 4명의 건강 데이터, 현재 위치, 실시간 식당 웨이팅 정보, 그리고 어제 먹은 식단까지 0.1초 만에 분석해서 명령했을 것이다. "도보 3분 거리 '김가네'로 이동하십시오. 영양학적으로 최적입니다. 거부권은 없습니다."





이번 토론에서 우리는 점심 메뉴보다 훨씬 무거운 질문과 마주했다. 한 멤버가 던진 시나리오는 이랬다.


"2030년, 전 세계를 통일한 세계정부가 등장해요. 그 정부는 국가공인 행복 AI를 도입합니다. 모든 시민의 뇌에 칩을 장착해서, 우울증, 불안, 슬픔, 열등감 같은 부정적 감정을 완전히 제거해줘요. 고통도 사라지고, 사랑에 빠질 때의 격정적인 감정도 사라져요. 대신 죽을 때까지 평온하고 안정적인 상태로 살 수 있어요. 이 칩, 맞으실 건가요?"


방 안이 잠시 조용해졌다.


"그거 영화 <기억 전달자> 아니에요?"


맞다. 로이스 로리의 소설을 원작으로 한 그 디스토피아. 고통도 없지만 기쁨도 없는, 모든 것이 통제된 완벽한 사회. 우리는 그 영화를 보며 "저런 세상은 끔찍해"라고 생각했다. 하지만 하라리는 묻는다. AI가 약속하는 미래가 정확히 그것 아니냐고.


1.jpg


"실패 없는 삶. 네가 선택하면 실수하니까, 우리가 최적의 선택을 해줄게."


이것이 AI 독재가 우리에게 내미는 거래다. 자유를 넘기면 고통을 없애주겠다는 파우스트적 거래. 놀랍게도, 아니 어쩌면 당연하게도, 그날 모임에 참석한 거의 모든 사람이 그 칩을 거부했다.


왜일까? 70점짜리 인생이 뭐가 나쁜가? 0점의 나락도 없고, 100점의 환희도 없는, 그냥 무난하고 평온한 삶. 우울증에 시달려 본 사람이라면, 극심한 불안에 잠 못 이뤄 본 사람이라면, 그 영원한 평온이 솔깃하게 들릴 수도 있지 않은가?


하지만 누군가 말했다. "롤러코스터가 없는 인생이잖아요. 그건 인생이 아니라 그냥... 인형이에요. 행복한 인형."


이 대화가 이번 회고의 출발점이다. <넥서스> 3부를 읽고, 우리는 AI가 가져올 최적화된 미래의 민낯을 들여다보았다. 행복을 보장받는 대신 자유를 포기할 것인가. 실패 없는 삶을 얻는 대신 예측 불가능한 낭만을 잃을 것인가. 그리고 가장 날카로운 질문—사랑마저 알고리즘이 정해준다면, 우리는 그것을 받아들일 것인가.


이번 글에서는 그날 밤 우리가 나눈 네 가지 사유의 갈래를 따라가 보려 한다. 행복 칩이라는 유혹, AI 팀장이라는 현실, 도파민 감옥이라는 현재, 그리고 소울메이트를 데이터가 정해주는 미래.


모든 이야기의 끝에서 우리가 마주한 질문은 하나였다.


불완전할 자유는 지킬 가치가 있는가?






1. 행복 칩: 70점짜리 인생의 유혹


시나리오를 조금 더 구체적으로 그려보자.


2028년, 전 세계적인 팬데믹이 발생해 지구 인구의 70%가 사망한다. 살아남은 인류는 태평양 한가운데 거대한 섬으로 이주하고, 국경과 민족의 개념은 사라진다. 세계정부가 수립되고, 이 정부는 국가공인 행복 AI를 도입한다.


모든 시민은 뇌에 칩을 장착해야 한다. 이 칩은 호르몬과 신경전달물질을 실시간으로 조절해서, 우울증, 불안, 슬픔, 분노, 열등감 같은 부정적 감정을 완전히 제거해준다. 고통도 사라진다. 누군가를 미치도록 좋아할 때 느끼는 그 격정적인 떨림? 그것도 사라진다. 대신 모든 시민은 죽을 때까지 평온하고 안정적인 상태로 살게 된다.


그 섬은 완벽하게 설계되어 있다. 언덕도 없고 계단도 없다. 걸려 넘어질 일이 없다. 모든 건물은 똑같고, 모든 집은 동일하다. 음식은 자동으로 공급되고, 위험 요소는 철저히 제거되어 있다. 사고가 날 여지 자체가 없는 곳.


"거부할 수 있어요?"


"거부하면 반란군이 돼요. 쫓기며 살아야 해요."


토론 참가자 중 한 명이 손을 들었다. "잠깐, 그러면 그 칩을 꽂는 순간 내가 불편하다는 것조차 못 느끼는 거 아니에요?"


"맞아요. 불편한 감정 자체가 사라지니까."


"그러면 심심하지 않아요?"


"심심함도 못 느껴요."


"뭐야, 그러면 인형이잖아. 행복한 인형."


이 대화에서 핵심적인 지점이 드러났다. 우리가 행복이라고 부르는 감정은 사실 상대적인 것이다. 불행이 있어야 행복이 있다. 저점이 있어야 고점이 빛난다. 100점의 환희는 0점의 나락을 경험해본 사람만이 진정으로 느낄 수 있다.


누군가 반문했다. "근데 우울증에 시달려 본 적 있어요? 진짜 심하게 아파본 적? 그 고통이 영원히 사라진다면 나쁘지 않지 않아요?"


일리 있는 지적이었다. 실제로 극심한 우울증을 겪는 사람들에게 70점짜리 평온한 인생은 축복일 수 있다. 매일 아침 눈을 뜨는 것 자체가 고통인 사람에게, 롤러코스터의 낭만 따위는 사치스러운 이야기일 수도 있다.

하지만 다른 참가자가 말했다. "그건 그래요. 근데 저는 제 인생에서 0점인 때가 아직 없었거든요. 그게 올 수도 있잖아요. 그게 두려워서 그냥 70점을 선택하는 거고."


"주식으로 치면 그냥 예금인 거네요. 수익률이 꾸준히 보장되는."


"맞아요. 코인 같은 변동성은 없는 거죠."


여기서 하라리가 <넥서스>에서 지적한 AI의 본질적 약속이 떠올랐다. AI가 우리에게 내미는 거래는 결국 이것이다.


"네가 선택하면 실수하니까, 우리가 최적의 선택을 해줄게."


이것이 AI 독재의 핵심 명제다. 인간은 비합리적이고, 감정에 휘둘리고, 실수를 반복한다. 반면 AI는 모든 데이터를 분석해서 객관적으로 최적인 답을 내놓는다. 그러니 우리의 선택권을 AI에게 위임하면, 실패 없는 삶을 살 수 있다.


언뜻 합리적으로 들린다. 하지만 토론에서 누군가 날카로운 질문을 던졌다.


"근데 그 알고리즘, 과거 데이터 기반이잖아요. 과거에는 맞았지만 지금은 틀릴 수도 있는 거 아니에요?"


"아니면 데이터 자체가 원래부터 편향적이었을 수도 있고요."


맞는 말이다. AI는 과거의 패턴을 학습해서 미래를 예측한다. 하지만 과거가 항상 미래의 정답을 담고 있지는 않다. 더구나 그 과거 데이터 자체가 이미 편향되어 있다면? AI는 그 편향을 더욱 정교하게 재생산할 뿐이다.

한 참가자가 흥미로운 비유를 들었다. "판사도 사실 블랙박스 아니에요? 법조문만 보고 판단하는 것 같지만, 실제로는 피고인의 외모, 복장, 말투 같은 사소한 것들에 영향받잖아요."


"그러면 AI 판사가 더 공정한 거 아니에요?"


"근데 AI도 결국 과거 판결 데이터로 학습하잖아요. 과거 판사들의 편향이 그대로 들어가는 거죠."


이 대화에서 우리는 <넥서스> 1부에서 다뤘던 '서류 현실(Paper Reality)'의 문제와 다시 마주했다. AI에게 현실은 오직 데이터뿐이다. 데이터에 기록되지 않은 것은 존재하지 않는다. 그리고 데이터는 항상 현실의 불완전한 그림자일 뿐이다.


토론의 물꼬가 바뀐 건 누군가 이런 질문을 던지면서였다.


"근데 생각해봐요. 완벽한 AI 비서가 있다면 우리는 비 맞을 일이 없을 거예요. 항상 우산을 챙기게 해줄 테니까."


"그게 뭐가 나빠요?"


"나쁜 건 아닌데... 가끔 우산 깜빡하고 비 맞는 것도 낭만 아니에요?"


방 안에 묘한 침묵이 흘렀다. 낭만이라. 예측 불가능한 상황에서 맞닥뜨리는 우연. 계획대로 되지 않았을 때 느끼는 당혹감과 그것을 극복했을 때의 성취감. AI가 모든 것을 예측하고 최적화해주는 세상에서, 그런 경험은 원천적으로 불가능해진다.


"여행 갈 때 생각해봐요. 완벽한 AI 비서가 있으면 날씨, 일정, 동선 다 초 단위로 맞춰줄 거예요. 이때 나가면 되고, 저때 들어오면 되고. 근데 그냥 아무 계획 없이 나갔는데 우연히 시간이 딱 맞아떨어지는 거랑 똑같아요?"


"완전 다르죠."


"그게 낭만인 거죠. 예측 불가능한 환경에서 우연히 맞닥뜨리는 기쁨."


여기서 우리는 자유의지라는 철학적 문제와 마주했다. 낭만이란 무엇인가? 그것은 완벽함이 아니다. 오히려 부족함 속에서, 불확실성 속에서, 내가 스스로 선택한다는 감각에서 오는 것이다. 그 선택이 실제로 자유로운지 아닌지는 알 수 없다. 하지만 적어도 '내가 나를 선택한다'는 느낌, 그것이 인간에게 의미를 부여한다.


AI가 모든 것을 결정해주는 세상에서, 우리는 더 이상 선택하지 않는다. 선택의 고통도 없지만, 선택의 기쁨도 없다. 실패의 나락도 없지만, 성공의 환희도 없다. 그것은 인생이 아니라, 그저 최적화된 생존일 뿐이다.


토론의 마지막에 누군가 영화 <기억 전달자>의 결말을 언급했다. 주인공 조나스는 완벽하게 통제된 공동체를 탈출한다. 고통도 있지만 기쁨도 있는, 불완전하지만 자유로운 바깥 세계로.


"결국 조나스는 뭘 선택한 거예요?"


"불완전할 자유요."


하라리는 <넥서스>에서 이렇게 말한다. AI 시대의 진짜 위협은 터미네이터처럼 인류를 물리적으로 말살하는 것이 아니라고. 진짜 위협은 우리가 자발적으로, 심지어 기꺼이 자유를 넘겨주는 것이라고.


행복 칩은 강제가 아니다. 유혹이다. "고통 없이 살고 싶지 않아요?"라는 달콤한 속삭임. 그리고 그 유혹에 넘어가는 순간, 우리는 인간이기를 그만두고 '행복한 인형'이 된다.


202512301254.png


그날 토론에 참석한 거의 모든 사람이 행복 칩을 거부했다. 하지만 나는 묻고 싶다. 정말로 거부할 수 있을까?

우리는 이미 작은 행복 칩들을 자발적으로 장착하고 있지 않은가? 불안하면 SNS를 켜서 도파민을 충전하고, 우울하면 넷플릭스를 틀어 현실을 잊고, 외로우면 유튜브 알고리즘이 떠먹여주는 영상에 빠져든다. 우리는 이미 고통을 회피하고 쾌락을 극대화하는 방향으로 스스로를 최적화하고 있다.


행복 칩은 그 연장선의 끝에 있을 뿐이다. 그리고 그 끝에서 우리를 기다리는 것은 <기억 전달자>의 디스토피아다.


70점짜리 인생. 나쁘지 않아 보인다. 하지만 그것을 '인생'이라고 할 수 있을까? 그냥 죽지 않고 버티는 것은 아닐까?




2. AI 팀장: 자비 없는 공정함의 역설


토론 중반, 누군가 '극단적 밸런스 게임'을 제안했다.


A. 피도 눈물도 없는 AI 팀장

키보드 타수, 근무시간, 코드 커밋 횟수를 모두 모니터링

성과를 100% 객관적으로 평가

잘하면 잘한 만큼 인정, 못하면 못한 만큼 깎임

단, 아파서 조퇴해도 성과평가에 반영됨


B. 감정기복 심한 인간 팀장

자기 라인을 챙기고, 친분에 따라 평가가 달라짐

기분 좋은 날은 관대하고, 기분 나쁜 날은 까칠함

회식 때 담배 피러 나가서 친해지면 성과평가 잘 받음

단, 실력 있어도 라인 밖이면 찬밥 신세


"저는 무조건 A요."


손이 올라갔다. 한 명, 두 명, 세 명. 놀랍게도 대부분의 참가자가 AI 팀장을 선택했다.


"B는 진짜 싫어요. 착한데 일 못하면 봐주고, 일 잘하는데 라인 밖이면 찬밥이잖아요."


"맞아요. 잘했는데 라인 챙겨서 다른 사람한테 점수 몰아주면? 그건 진짜 열받죠."


"A는 적어도 내가 잘하면 잘한 만큼 인정받잖아요. 못하면 못한 거고. 공정하잖아요."


개발자들 사이에서 AI 팀장이 압도적 지지를 받은 건 어찌 보면 당연했다. 우리는 코드로 일하는 사람들이다. 코드는 거짓말을 하지 않는다. 돌아가거나, 안 돌아가거나. 버그가 있거나, 없거나. 이 명확한 세계에서 일하는 사람들에게, '라인 정치'만큼 혐오스러운 것도 없다.


실제로 판교의 많은 개발자들이 토로하는 불만 중 하나가 이것이다. 기술적으로 뛰어난 사람보다 정치적으로 영리한 사람이 승진하는 현실. 코드 리뷰는 형식적이고, 진짜 평가는 회식 자리와 흡연실에서 이루어지는 조직 문화. "저 사람 일은 못하는데 윗사람한테 잘 보여서 진급했대"라는 뒷담화.


이런 환경에서 "100% 객관적인 AI가 평가해준다"는 말은 솔깃하게 들릴 수밖에 없다. 키보드 타수? 좋다, 측정해라. 코드 커밋 횟수? 좋다, 세어라. 버그 발생률? 좋다, 계산해라. 모든 것이 숫자로 환원되고, 그 숫자에 따라 공정하게 평가받는 세상. 라인 정치 따위는 존재하지 않는 세상.


하지만 토론이 깊어지면서 균열이 생기기 시작했다.


"근데 키보드 타수로 평가한다고요? 저 생각 많이 하는 스타일인데, 그러면 불리하겠네요."


"맞아요. 개발은 타이핑 속도가 아니라 설계 능력인데."


"그리고 아프면 어떡해요? 진짜 몸이 안 좋아서 조퇴했는데, 그것도 성과평가에 반영되면..."


"A는 그렇죠. 아파서 조퇴해도 빵꾸 난 건 빵꾸 난 거니까. 다 기록되고 평가에 들어가죠."


누군가 핵심을 찔렀다.


"결국 이거잖아요. A는 매도도 안 하지만 자비도 없어요. B는 매도도 하지만 자비도 베풀 수 있고요."


방 안이 잠시 조용해졌다. 자비. 우리가 놓치고 있던 단어였다.


AI 팀장은 공정하다. 하지만 그 공정함에는 예외가 없다. 부모님이 돌아가셔서 일주일 휴가를 썼다? 기록된다. 우울증이 심해져서 한 달간 생산성이 떨어졌다? 기록된다. 임신해서 입덧이 심해 조퇴를 반복했다? 기록된다. 모든 것이 데이터로 환원되고, 그 데이터는 냉정하게 평가에 반영된다.


반면 인간 팀장은 불공정하다. 라인을 챙기고, 기분에 따라 평가가 달라지고, 객관적이지 않다. 하지만 그 불공정함 속에 자비가 끼어들 틈이 있다. "어머니 돌아가셨다며? 이번 분기 평가는 그냥 평균으로 해줄게." "요즘 힘들어 보이던데, 괜찮아? 급한 일 아니면 내가 처리해줄까?" 이런 말이 나올 수 있는 여지.

한 참가자가 말했다.


"A가 사람에 대한 매도를 하는 건 아니잖아요. '너는 못하는 사람이야'라고 낙인찍는 게 아니라, '이번에 못했다'고 평가하는 거지. 다음에 잘하면 좋은 평가 받을 수 있고요."


"맞아요. 근데 B는 매도도 해요. '쟤는 원래 저래'라고 사람 자체를 판단해버리죠."


"그러니까 매도도 B가 하고, 자비도 B가 하는 거예요. A는 매도도 자비도 없는 거고."


이 구도가 명확해지자, 선택의 무게가 달라졌다. AI 팀장을 선택한다는 것은 자비 없는 공정함을 선택한다는 것이다. 인간 팀장을 선택한다는 것은 불공정하지만 자비의 가능성을 선택한다는 것이다.


하라리는 <넥서스>에서 알고리즘 기반 의사결정의 위험성을 경고한다. 그가 든 예시 중 하나가 미국의 형사 사법 시스템에서 사용되는 재범 위험 평가 알고리즘이다. 이 알고리즘은 피고인의 범죄 이력, 나이, 거주지, 고용 상태 등을 분석해서 재범 확률을 예측한다. 판사는 이 점수를 참고해 보석이나 형량을 결정한다.


언뜻 보면 합리적이다. 인간 판사의 편견을 배제하고, 객관적인 데이터에 기반해 판단하니까. 하지만 문제가 있다. 이 알고리즘은 과거 데이터로 학습되었는데, 그 과거 데이터 자체가 인종적 편향을 담고 있었다. 결과적으로 알고리즘은 흑인 피고인에게 체계적으로 높은 재범 위험 점수를 부여했다. 객관적 알고리즘이 인종차별을 자동화한 셈이다.


더 근본적인 문제가 있다. 알고리즘은 예외를 모른다. 통계적으로 재범 확률이 높은 집단에 속한다고 해서, 그 개인이 반드시 재범할 것은 아니다. 인간 판사라면 피고인의 눈을 보고, 그의 이야기를 듣고, 무언가 다르다는 직감을 느낄 수 있다. 그리고 그 직감에 따라 자비를 베풀 수 있다. "이 사람은 숫자가 말하는 것과 다르다"라고 판단할 수 있다.


알고리즘에게 그런 여지는 없다. 숫자가 곧 현실이다. 데이터에 없는 것은 존재하지 않는다.


토론에서 누군가 자신의 경험을 나눴다.


"저 전 회사 팀장님이 좀 B 같은 분이었거든요. 감정기복 있으시고, 자기 라인 챙기시고. 근데 다행히 저희 팀이 그 라인이어서 괜찮았어요."


"그러니까 B의 혜택을 받은 거네요."


"네. 근데 솔직히 다른 팀 개발자들 보면 좀 불쌍했어요. 똑같이 일하는데 평가가 다르니까."


이 고백이 B의 본질을 드러냈다. 인간 팀장의 '자비'는 보편적이지 않다. 특정한 사람에게만 베풀어진다. 자기 라인, 자기 사람, 자기와 친한 사람에게만. 그 자비의 바깥에 있는 사람들에게 인간 팀장은 AI보다 더 가혹할 수 있다.


결국 이것은 누구의 입장에서 보느냐의 문제였다. 인간 팀장의 라인 안에 있는 사람에게 B는 천국이다. 자비를 베풀어주고, 실수를 봐주고, 성장할 기회를 준다. 하지만 라인 밖에 있는 사람에게 B는 지옥이다. 아무리 잘해도 인정받지 못하고, 사소한 실수도 크게 부각되고, 승진에서 밀려난다.


반면 AI 팀장 A는 모두에게 똑같이 냉정하다. 라인도 없고, 친분도 없다. 모두가 똑같은 기준으로 평가받는다. 그 기준이 가혹하더라도, 적어도 공정하다.


한 참가자가 정리했다.


"결국 이거네요. 특권을 누릴 것이냐, 말 것이냐. B를 선택하면 라인에 들어갔을 때 특권을 누릴 수 있어요. 근데 라인 밖이면 지옥이고. A를 선택하면 특권은 없지만, 지옥도 없어요. 그냥 모두가 똑같이 힘든 거죠."


"저는 특권 없어도 되니까 A요. 공정한 게 나아요."


"저도요. 라인 탈 자신 없으니까."


하지만 나는 이 토론을 들으며 묘한 불안을 느꼈다. 우리가 'AI 팀장'을 선택한 이유는 정말 공정함을 원해서일까? 아니면 '라인 정치에서 패배할 것 같은 두려움' 때문은 아닐까?


솔직히 말해보자. 만약 내가 팀장의 총애를 받는 '라인 안' 사람이라면? 만약 회식 자리에서 농담 한마디로 분위기를 주도하고, 흡연실에서 은밀한 정보를 교환하고, 팀장의 신뢰를 얻어 중요한 프로젝트를 맡는 그런 사람이라면? 그래도 AI 팀장을 선택할까?


어쩌면 우리가 AI의 '객관적 평가'를 원하는 이유는, 인간 세계의 게임에서 이길 자신이 없기 때문일지도 모른다. 코드는 잘 짜지만 정치는 못하는 우리에게, AI 팀장은 유리한 게임판이다. 규칙이 명확하고, 숫자로 승부하면 되니까.


하지만 그렇게 선택한 세상에서, 우리는 무엇을 잃게 될까?


토론 말미에 누군가 이런 질문을 던졌다.


"근데 자비가 정말 필요한 순간이 있잖아요. 부모님 돌아가셨을 때, 아이가 아플 때, 번아웃이 왔을 때. 그때 AI 팀장은 어떻게 해요?"


"성과평가에 반영되겠죠. 객관적으로."


"그러면 그냥... 운 나쁜 거네요?"


"운 나쁜 거죠."


침묵이 흘렀다. AI 팀장의 세계에서 불운은 개인의 책임이 된다. 아픈 것도, 슬픈 것도, 힘든 것도 모두 데이터로 기록되고, 그 데이터는 냉정하게 평가에 반영된다. 거기에 예외는 없다. 자비도 없다.


인간 팀장의 세계는 불공정하다. 하지만 그 불공정함 속에 예외가 존재한다. 누군가 힘들 때 봐주는 것, 실수했을 때 한 번 더 기회를 주는 것, 숫자로 환원되지 않는 가치를 인정해주는 것. 그것이 자비다.


하라리는 <넥서스>에서 민주주의의 가치를 이야기할 때 비슷한 논점을 제기한다. 민주주의는 비효율적이다. 결정에 시간이 오래 걸리고, 갈등이 많고, 때로는 어리석은 선택을 하기도 한다. 하지만 민주주의에는 수정 가능성이 있다. 실수를 인정하고 방향을 바꿀 수 있는 여지가 있다.


AI 독재는 효율적이다. 빠르게 결정하고, 일관되게 집행하고, 감정에 흔들리지 않는다. 하지만 AI 독재에는 예외가 없다. 한번 정해진 규칙은 모두에게 똑같이 적용되고, 그 규칙이 잘못되었을 때 수정할 메커니즘이 없다.

토론이 끝날 무렵, 한 참가자가 말했다.


"저 그래도 A 선택 안 바꿀 거예요. B의 자비는 결국 운 좋은 사람한테만 가잖아요. 저는 그 운 좋은 사람이 될 자신 없으니까, 차라리 모두가 똑같이 힘든 A가 나아요."


또 다른 참가자가 대꾸했다.


"근데 그러면 모두가 똑같이 자비 없이 사는 거잖아요. 그게 정말 좋은 건가요?"


답은 나오지 않았다. 어쩌면 답이 없는 질문인지도 모른다.


다만 한 가지는 분명해 보였다. 우리가 AI 팀장을 선택한 것은 '공정함'을 원해서가 아니라, '불공정함에 지쳐서'였다. 라인 정치에 시달리고, 실력과 무관한 평가에 좌절하고, 노력이 배신당하는 경험을 반복하면서, 우리는 '차라리 냉정한 기계가 낫다'는 결론에 도달한 것이다.


하지만 그 선택의 끝에서 우리를 기다리는 것은 무엇일까? 자비 없는 공정함. 예외 없는 효율. 그것이 정말 우리가 원하는 세상일까?


아니면 우리는 그저, 지금의 불공정한 세상이 너무 싫어서, 또 다른 형태의 디스토피아를 선택하려는 것은 아닐까?






3. 도파민의 감옥: 새로운 전체주의


"1984년의 빅브라더는 무엇으로 인간을 통제했나요?"


토론 중 누군가 던진 질문이었다.


"고문이요. 공포."


"맞아요. 고통으로 통제한 거예요. '2+2=5'라고 말할 때까지 전기충격을 가하고, 가장 두려워하는 것을 들이대고. 그래서 1984가 무서운 거잖아요. 그 고통이 너무 생생하게 느껴지니까."


202512301310.png


"근데 하라리가 말하는 건 좀 다르잖아요."


그렇다. 하라리가 <넥서스>에서 경고하는 디지털 전체주의는 조지 오웰의 그것과 결이 다르다. 오웰의 전체주의는 고통과 공포로 작동한다. 텔레스크린이 당신을 감시하고, 사상경찰이 당신을 체포하고, 101호실에서 당신을 고문한다. 그래서 무섭다. 누가 봐도 디스토피아다.


하지만 새로운 전체주의는?


"넷플릭스랑 틱톡이요."


방 안에 웃음이 번졌다. 하지만 웃고 나서 다들 묘한 표정을 지었다. 농담 같지만 농담이 아니었으니까.

새로운 전체주의는 고통이 아니라 쾌락으로 작동한다. 당신을 고문하지 않는다. 대신 당신이 좋아하는 것을 끝없이 떠먹여준다. 당신의 취향을 분석하고, 당신이 클릭할 만한 콘텐츠를 추천하고, 당신이 빠져나올 수 없는 도파민의 늪을 만든다.


"그게 뭐가 나빠요? 내가 좋아하는 거 보는 건데."


맞다. 그게 뭐가 나쁜가. 알고리즘이 내 취향을 파악해서 내가 좋아할 만한 영상을 보여주는 것. 내가 관심 있는 주제의 기사를 큐레이션해주는 것. 내 MBTI와 맞는 사람을 소개해주는 것. 모두 서비스다. 내가 원해서 받는 것이고, 언제든 끌 수 있다.


202512301312.png


하지만 하라리의 질문은 이것이다. 정말 끌 수 있는가?


한 참가자가 자신의 경험을 나눴다.


"저 유튜브 알고리즘 되게 좋아해요. 제 계정 들어가면 제가 좋아하는 것만 나오거든요. 근데 동생 계정 들어가서 보면 완전 노잼이에요. 관심 없는 것밖에 없어서."


"그치, 남의 알고리즘은 재미없지."


"근데 그거 생각해봤어요? 동생 유튜브 보면서 '어, 이런 것도 있네?' 하고 새로운 관심사를 발견할 수도 있잖아요. 근데 그런 기회가 원천 차단되는 거잖아요, 내 알고리즘만 보면."


이 대화가 핵심을 찔렀다. 알고리즘의 문제는 '내가 좋아하는 것'만 보여준다는 것이다. 역으로 말하면, '내가 아직 모르는 것'은 영원히 보여주지 않는다.


내가 관심 있는 분야의 영상만 추천받고, 내 정치적 성향과 맞는 뉴스만 읽고, 나와 비슷한 생각을 가진 사람들의 글만 접하다 보면, 세상은 점점 좁아진다. 내 세계관을 강화하는 정보만 들어오고, 그것에 도전하는 정보는 걸러진다. 이것이 에코 챔버(Echo Chamber), 반향실 효과다.


1부 회고에서 나는 이렇게 썼다.

"정보의 본질적 가치는 Correct(옳으냐)가 아니라 Connect(연결되느냐)에 있다."


알고리즘은 나를 나와 비슷한 사람들과 연결한다. 같은 취향, 같은 관심사, 같은 정치적 성향. 그 연결은 편안하다. 내 생각에 동의해주는 사람들, 내 농담에 웃어주는 사람들, 나를 이해해주는 사람들. 하지만 그 연결은 동시에 감옥이다. 다른 세계로 통하는 문이 닫혀버린 감옥.


토론에서 누군가 끓는 물에 개구리 비유를 꺼냈다.


"개구리를 끓는 물에 갑자기 넣으면 팔짝 뛰어나오잖아요. '아, 뜨거워!' 하면서. 근데 미지근한 물에 넣고 서서히 온도를 올리면? 개구리는 그냥 거기서 익어 죽어요. 온도가 올라가는 걸 못 느끼니까."


"우리가 그 개구리라는 거죠?"


"그렇죠. 알고리즘이 서서히 우리를 도파민에 절여놓고 있는데, 우리는 그걸 못 느끼는 거예요. 오히려 좋아하죠. '와, 내 취향 저격이다!' 하면서."


이것이 새로운 전체주의의 무서운 점이다. 1984의 전체주의는 분명했다. 고통스러웠으니까. "나는 지금 통제당하고 있다"는 것을 피해자 자신이 안다. 저항할 수 있다. 적어도 마음속으로는.


하지만 도파민 전체주의는? 피해자가 자신이 피해자인 줄 모른다. 아니, 피해자라고 생각하지도 않는다. "나는 내가 좋아하는 것을 보고 있을 뿐이야. 뭐가 문제야?" 이렇게 생각한다. 통제당하고 있다는 자각 자체가 없다.


하라리는 <넥서스>에서 이렇게 표현한다.

"내가 무엇을 좋아하는지 나보다 더 잘 알고, 내가 보고 싶은 것만 보여주면서 나의 정치적 견해를 조작한다면, 이것을 강요라고 부를 수 있을까?"


강요가 아니다. 적어도 전통적인 의미에서는. 누구도 나를 때리지 않았고, 협박하지 않았고, 감금하지 않았다. 나는 자유롭게 스크롤을 내렸고, 자유롭게 클릭했고, 자유롭게 좋아요를 눌렀다. 모든 선택이 내 것이었다.


하지만 그 선택지 자체가 이미 조작되어 있었다면? 내가 볼 수 있는 옵션이 이미 필터링되어 있었다면? 그것도 자유라고 부를 수 있을까?


토론 중 재미있는 에피소드가 나왔다.


"요전에 SNS에서 유행했잖아요. '남자친구 돋보기 한번 봐봐라.'"


"아, 그거요. 인스타 검색 탭."


"맞아요. 자기 남자친구 계정에서 돋보기 누르면 뭐가 뜨는지 보라는 거. 거기에 다른 여자들 사진 뜨면 빡치는 거죠."


"ㅋㅋㅋㅋ 무서워."


"근데 그게 결국 알고리즘이잖아요. 그 사람이 평소에 뭘 봤는지, 뭘 오래 봤는지, 뭘 클릭했는지. 다 기록되어 있고, 그 기록을 바탕으로 추천이 뜨는 거잖아요."


"알고리즘이 내 은밀한 관심사를 다 알고 있는 거네요."


"그렇죠. 나보다 나를 더 잘 아는 거예요."


이 대화에서 알고리즘의 또 다른 측면이 드러났다. 알고리즘은 단순히 콘텐츠를 추천하는 것이 아니다. 그것은 나를 분석하고, 나의 은밀한 욕망을 파악하고, 그 욕망을 자극하는 콘텐츠를 끝없이 공급한다. 그 과정에서 나는 점점 더 알고리즘에 의존하게 된다. 알고리즘 없이는 무엇을 봐야 할지, 무엇을 읽어야 할지, 심지어 무엇을 좋아해야 할지도 모르게 된다.


누군가 농담처럼 말했다.


"미래에는 연인 만나기 전에 알고리즘 초기화해주는 직업이 생길 것 같아요."


"ㅋㅋㅋㅋ 뭐예요 그게."


"아니, 진짜요. 남자친구 집에 처음 가기 전에 전문가가 와서 유튜브 알고리즘 싹 밀어주고, 인스타 검색 기록 다 지워주고, 무해한 콘텐츠로 새로 채워주는 거예요. 고양이, 강아지, 자연 다큐. 이런 걸로."


"블랙미러에 나올 법하다."


웃긴 상상이지만, 그 안에 씁쓸한 진실이 있었다. 알고리즘은 이미 우리의 일상 깊숙이 침투해 있다. 우리가 무엇에 관심 있는지, 무엇을 두려워하는지, 무엇을 욕망하는지. 그 모든 것이 데이터로 기록되고, 분석되고, 활용된다. 그리고 그 데이터는 우리 자신보다 우리를 더 정확하게 설명한다.


연인에게 내 알고리즘을 보여주는 것은, 어떤 의미에서 내 일기장을 보여주는 것보다 더 은밀하다. 일기장은 내가 의식적으로 쓴 것이지만, 알고리즘은 내가 무의식적으로 남긴 흔적이니까.


하라리가 <넥서스>에서 강조하는 것 중 하나가 이것이다. AI 시대의 진짜 위험은 AI가 '나쁜 짓'을 하는 것이 아니라, AI가 '너무 잘 해주는 것'이다.


AI가 나를 공격하면 나는 저항한다. 하지만 AI가 나를 편안하게 해주면? 내가 원하는 것을 미리 알아서 제공해주면? 나는 저항하지 않는다. 오히려 의존한다. 그 의존이 깊어질수록, 나는 점점 더 AI 없이는 살 수 없는 존재가 된다.


토론에서 누군가 이런 말을 했다.


"알고리즘이 보여주는 콘텐츠만 계속 보다 보면, 내가 살 수 있었던 다른 삶이 거세되는 것 같아요."


"거세된다?"


"네. 원래는 여러 가지 가능성이 있었는데, 알고리즘이 보여주는 것만 보다 보면 그 가능성들이 사라지는 거예요. 내가 될 수 있었던 다른 나, 좋아할 수 있었던 다른 것들. 그런 게 원천 봉쇄되는 느낌?"


이 말이 1부 회고에서 다뤘던 내용과 연결되었다. 나는 그때 이렇게 썼다.

"알고리즘은 우리를 영원히 '단골집'에 가둔다. 내가 좋아할 만한 영상, 내가 동의할 만한 정치색, 나랑 MBTI가 잘 맞는 사람만 큐레이션해준다. 실패 확률 0%의 최적화된 삶. 편안하고 안락하다. 하지만 그곳에 성장은 없다."


우리는 알고리즘 덕분에 실패 없는 콘텐츠 소비를 하게 되었다. 클릭할 때마다 내가 좋아할 만한 것이 나온다. 재미없는 영상을 끝까지 보는 고통, 관심 없는 분야의 글을 읽는 지루함, 나와 전혀 다른 생각을 가진 사람의 주장을 듣는 불쾌함. 그런 것들이 사라졌다.


하지만 그 '실패'들 속에 성장이 있었다. 재미없다고 생각했는데 끝까지 보니 의외로 좋았던 영화. 관심 없었는데 읽다 보니 새로운 세계가 열린 책. 처음에는 불쾌했는데 곱씹어 보니 일리가 있었던 반대 의견. 그런 경험들이 나를 확장시켰다.


알고리즘은 그 확장의 기회를 빼앗는다. 내가 이미 좋아하는 것만 보여주니까. 내가 이미 동의하는 것만 보여주니까. 나는 점점 더 좁은 세계에 갇히고, 그 좁은 세계가 전부인 줄 알게 된다.


토론 말미에 누군가 이런 질문을 던졌다.


"근데 이거, 어떻게 빠져나와요? 알고리즘을 안 쓸 수는 없잖아요."


답하기 어려운 질문이었다. 유튜브를 끊을 것인가? 인스타를 삭제할 것인가? 넷플릭스를 해지할 것인가? 가능은 하다. 하지만 현실적인가?


한 참가자가 말했다.


"저는 일부러 불편한 걸 찾아봐요. 제 생각이랑 다른 유튜버, 제가 관심 없는 분야의 책. 일부러 알고리즘을 교란시키려고요."


"효과 있어요?"


"글쎄요. 잠깐은 다른 게 뜨는데, 금방 원래대로 돌아가더라고요. 알고리즘이 '아, 이건 실수였구나' 하고 학습하는 것 같아요."


쓴웃음이 번졌다. 알고리즘과의 싸움에서 개인이 이기기는 어렵다. 알고리즘은 수십억 명의 데이터를 학습했고, 나보다 나를 더 잘 안다. 내가 일부러 다른 걸 클릭해도, 알고리즘은 그것마저 분석해서 더 정교한 추천을 내놓는다.


그래서 나는 1부 회고에서 이렇게 썼다.

"내 인생의 알고리즘에 의도적인 '버그'를 심는 것. 그것만이 우리가 시스템의 부품이 아니라, 주체적인 인간으로 남는 유일한 길일 것이다."


하지만 솔직히 말하면, 이것도 얼마나 효과가 있을지 모르겠다. 개인의 의지로 시스템에 저항하는 것은 낭만적이지만, 현실적으로는 한계가 있다. 시스템은 개인보다 강하고, 알고리즘은 나보다 끈질기다.


어쩌면 진짜 문제는 다른 곳에 있는지도 모른다.


"근데 저는 알고리즘 없으면 뭘 봐야 할지 모르겠어요. 추천 안 해주면 그냥 멍하니 있을 것 같아요."


이 고백이 섬뜩했다. 알고리즘에 너무 익숙해진 나머지, 알고리즘 없이는 무엇을 원하는지조차 모르게 된 것이다. 내가 무엇을 좋아하는지, 무엇을 보고 싶은지, 무엇에 관심이 있는지. 그 모든 것을 알고리즘이 대신 결정해주다 보니, 스스로 결정하는 능력이 퇴화한 것이다.


이것이 도파민 전체주의의 최종 형태다. 고통으로 통제하면 저항이 생긴다. 하지만 쾌락으로 통제하면? 저항은커녕, 통제 없이는 살 수 없는 상태가 된다. 노예가 스스로 사슬을 원하는 상태.


하라리는 <넥서스>에서 이것을 '자발적 예속'이라고 부른다. 누구도 강요하지 않았다. 우리가 스스로 선택했다. 편리하니까. 편안하니까. 내가 좋아하는 것만 보여주니까.


하지만 그 선택의 끝에서 우리는 무엇이 되는가? 알고리즘이 떠먹여주는 도파민에 의존하는, 자기 취향조차 스스로 결정하지 못하는, 시스템의 부품.


토론이 끝날 무렵, 한 참가자가 조용히 말했다.


"1984의 윈스턴은 적어도 자기가 노예인 줄 알았잖아요. 우리는 그것조차 모르는 거 아니에요?"








4. 99.9%의 소울메이트 vs 80%의 똥차

- 에리히 프롬이 묻다: 당신의 연애는 '사랑'인가 '쇼핑'인가


직장에서의 '공정함'을 위해 AI 팀장을 선택했던 우리는, 이어진 두 번째 밸런스 게임에서 거대한 모순에 봉착했다. 이번엔 사랑(Love)의 영역이었다.


A. 자유 연애 (자만추)

내가 직접 발로 뛰어서 짝을 찾는다.

나의 '직관'과 '운명'을 믿는다.

단, 똥차(Trash Car)를 만날 확률이 80%다. 감정 소모는 극심하고, 실패할 가능성은 매우 높다.


B. AI 매칭

내 DNA와 뇌파, 생활 패턴을 분석해 생물학적/성격적으로 99.9% 완벽한 소울메이트를 딱 한 명 배정해 준다.

단, 거부권은 없다. 상대의 얼굴이 내 스타일이 아니어도, AI는 "이 사람과 살아야 당신의 도파민과 세로토닌이 최적으로 유지됩니다"라고 보장한다. (실패 확률 0%)


이성적으로 생각해보자. 앞서 '효율'과 '공정'을 위해 AI 팀장을 뽑았던 우리라면, 당연히 B(AI 매칭)를 골라야 한다. 80%의 확률로 인생을 망칠 수도 있는 도박(A)을 선택하는 건, 개발자로서도, 합리적인 현대인으로서도 미친 짓이다.


하지만 토론장은 아수라장이 되었다.


"아니, 얼굴이 내 취향이 아닌데 어떻게 평생 살아요?"

"내가 직접 설레고, 썸 타고, 실패하는 그 과정도 사랑 아닌가요?"

"AI가 정해준 사랑은 사육당하는 기분이라 싫어요."


놀랍게도 많은 참가자가 80%의 실패 확률을 껴안고서라도 기어이 자만추(A)를 하겠다고 선언했다. 우리는 왜 직장에서는 그토록 효율을 찾으면서, 인생의 가장 중요한 배우자를 고를 때는 고비용 저효율의 늪으로 스스로 걸어 들어가는 걸까?


(1) '자만추'라는 이름의 오만: 구석기 알고리즘의 착각


우리는 '자만추(자연스러운 만남 추구)'를 운명적이고 낭만적인 것이라 믿는다. 하지만 하라리의 관점에서 보면, 우리가 믿는 그 '직관'이나 '설렘'은 사실 대단한 영적 작용이 아니다. 그저 수만 년 전 사바나 초원에서 생존과 번식을 위해 진화한 구석기 시대 생체 알고리즘일 뿐이다.


내 뇌는 상대의 넓은 어깨나 매혹적인 목소리를 감지하고 "사랑해!"라는 신호를 보낸다. 번식에 유리하기 때문이다. 하지만 이 구형 알고리즘은 현대 사회의 복잡한 변수들—성격 차이, 경제 관념, 도박 빚, 가스라이팅 성향—을 계산하지 못한다. 그래서 우리는 매번 "이번엔 다르겠지"라고 믿으며 또다시 똥차에 탑승한다.


AI 매칭을 거부하는 건, 최신형 슈퍼컴퓨터의 분석 결과를 무시하고 "내 느낌이 더 정확해!"라고 우기는 인간의 오만일지도 모른다. 우리가 자만추를 고집하는 진짜 이유는, '행복'하고 싶어서가 아니라 내 뜻대로 망쳐볼 권리를 포기하고 싶지 않아서가 아닐까?


(2) 데이터가 서사를 덮칠 때: 소설 <더 원>


하지만 반대로, AI를 선택했을 때의 공포도 만만치 않다. 우리는 존 마스(John Marrs)의 소설 <더 원(The One)>을 함께 이야기했다. (넷플릭스 드라마의 원작이기도 하다.)


<더 원>은 존 마스의 2018년 소설이다. 근미래를 배경으로, DNA 매칭 서비스가 등장한 세상을 그린다. 머리카락 한 올만 제출하면, AI가 전 세계 데이터베이스를 뒤져서 당신의 유전적 소울메이트를 찾아준다. 과학적으로 증명된, 당신과 가장 잘 맞는 단 한 사람.


311882268(1).jpg


미혼인 사람들에게 이 서비스는 축복이다. 더 이상 소개팅 지옥을 헤매지 않아도 된다. 어플에서 수백 명을 스와이프하지 않아도 된다. AI가 찾아준 사람을 만나면 된다. 그리고 대부분의 경우, 정말로 잘 맞는다. 첫 만남에서 "아, 이 사람이구나"를 느낀다.


하지만 문제가 있다. 이미 결혼한 사람들은?


소설에서 가장 충격적인 설정이 이것이다. DNA 매칭 서비스가 등장하기 전에 결혼한 부부들. 그들이 호기심에, 혹은 불안감에 검사를 받는다. 그리고 결과를 받아든다.


"당신의 배우자는 25% 매칭입니다. 당신의 진짜 소울메이트는 다른 사람입니다."


이름까지 알려준다. 그 진짜 소울메이트가 누구인지.


"미쳤네..."


"그렇죠. 어떤 커플은 자기 배우자가 소울메이트인 걸로 나와서 행복해하고, 어떤 커플은 25%가 나와서... 무너지죠."


"25%가 나왔는데 어떻게 같이 살아요?"


"그게 이 소설의 핵심이에요. 어떤 사람들은 그래도 배우자를 선택해요. '숫자가 뭐가 중요해, 우리는 이미 10년을 함께 살았어.' 근데 어떤 사람들은..."


"바람피죠?"


"네. 소설에서 실제로 그런 케이스들이 나와요. 자기 소울메이트라는 사람을 찾아가는 거죠."


이것이 AI 시대의 가장 큰 공포다. 데이터(팩트)가 인간의 서사(역사)를 압살하는 것.


'지금까지 내가 느낀 행복은 뭐였지? 착각이었나? 저기 있는 진짜 짝을 만나면 더 완벽한 행복이 있을까?'


실제로 소설에서는 10년의 역사를 폐기하고, 데이터가 가리키는 낯선 여자를 향해 떠나는 인물들이 나온다.


우리가 사랑이라고 믿었던 것이 단순한 호르몬의 오작동이었고, 진짜 정답은 따로 있다는 '진실'을 마주했을 때, 과연 우리는 우리의 인생을 긍정할 수 있을까?


만약 AI가 찾아준 99.9%의 소울메이트가 연쇄살인마라면? 유전적 끌림 때문에 그가 살인마인 걸 알면서도 도망치지 못하는 상황이 온다면? 그때 우리는 행복한 걸까, 아니면 '생물학적 노예'가 된 걸까.


(3) 에리히 프롬의 일침: 당신은 사랑을 하는 게 아니라 '쇼핑'을 하고 있다


토론의 열기가 절정에 달했을 때, 나는 에리히 프롬의 <사랑의 기술>을 테이블 위에 올렸다. 프롬이 2024년의 우리를 봤다면, 아마 뼈가 으스러지도록 비웃었을 것이다.


프롬은 현대인의 '자유 연애'를 가리켜 "시장 지향적 교환(Marketing Exchange)"이라고 맹비난했다.


우리는 사랑을 '하는(Loving)' 능력은 기르지 않고, '사랑받을 만한(Being loved)' 대상, 즉 최고의 상품(Object)을 찾는 데만 혈안이 되어 있다.


"프롬이 이런 얘기를 해요. 현대의 자유연애는 사실 낭만적이지 않다고. 우리가 자유연애를 한다고 생각하지만, 실제로는 사람을 '오브제'로 보고 있다고요."


"오브제요?"


"네. 마치 물건 고르듯이 사람을 고르는 거예요. 키, 외모, 학력, 직업, 재산. 조건을 따지고, 가장 좋은 조건의 '상품'을 고르려고 하죠."


"그게 뭐가 문제예요? 다들 그러잖아요."


"프롬이 말하는 건, 그게 진짜 사랑이 아니라는 거예요. 진짜 사랑은 '좋은 상대를 고르는 것'이 아니라 '내가 사랑할 수 있는 사람이 되는 것'이래요."


우리가 데이팅 앱에서 사진을 넘기고(Swipe), 블라인드에서 직업 등급을 따지고, 인스타를 염탐하며 "이 정도 스펙이면 나랑 급이 맞네"라고 저울질하는 행위. 프롬의 눈에 이건 사랑을 찾는 과정이 아니다. 내 자본(외모, 스펙)으로 살 수 있는 가장 비싼 상품을 고르는 '쇼핑'일 뿐이다.


여기서 뼈아픈 역설이 발생한다.


"자유 연애(A)를 지지한다"고 말한 사람들에게 묻고 싶다. 당신이 지키고 싶은 것이 정말 '운명적인 사랑'인가? 아니면 '내 주제에 맞게 쇼핑할 자유'인가?


만약 우리의 연애가 어차피 '조건 맞추기 게임'이라면, 어설픈 인간의 눈으로 쇼핑하다가 사기(똥차)를 당하는 것보다, AI가 전 세계 매물을 뒤져서 내 예산에 맞는 '최고 가성비 상품'을 골라주는 것(B)이 오히려 더 완벽한 자본주의적 사랑 아닌가?


"그러니까, 문제는 '누구를 사랑하느냐'가 아니라 '내가 사랑할 역량이 있느냐'라는 거예요. 프롬에 따르면, 사랑은 기술이에요. 배우고 연습해야 하는 거죠. 상대를 고르는 게 아니라, 내가 누군가를 사랑할 수 있는 사람이 되는 거예요."


이 관점에서 보면, AI 매칭은 완전히 잘못된 방향이다. AI 매칭은 '가장 잘 맞는 상대를 찾아주겠다'는 전제에서 출발한다. 하지만 프롬에 따르면, 문제는 상대가 아니다. 문제는 나다. 내가 사랑할 역량이 없으면, 어떤 완벽한 상대를 만나도 사랑할 수 없다. 반대로 내가 사랑할 역량이 있으면, 99.9% 매칭이 아닌 사람과도 행복할 수 있다.


우리가 AI 매칭을 그토록 거부하는 진짜 이유는, 낭만이 사라져서가 아닐지도 모른다.


어쩌면 '나의 시장 가치'가 적나라한 데이터로 까발려지는 게 두려워서, 혹은 "나는 조건 따위 보지 않는 낭만적인 사람"이라는 마지막 위선이 들통날까 봐 두려워서가 아닐까.


프롬은 말했다. "사랑은 수동적 감정이 아니라, 능동적 활동이다. 빠지는(Fall) 것이 아니라, 참여하는(Stand) 것이다."


AI 시대에 우리가 잃어버릴 위기에 처한 건 '완벽한 짝'이 아니다. 부족한 짝을 만나 지지고 볶으며 서로를 맞춰가는, 그 비효율적이고 고통스러운 '사랑할 능력(Capacity)' 그 자체다.





"그러면 <더 원>에서 25%인데도 배우자를 선택한 사람들이 프롬이 말하는 진짜 사랑인 거네요?"


"그렇게 볼 수 있죠. 데이터가 뭐라고 하든, '나는 이 사람을 사랑하기로 선택한다'는 거니까."


토론이 깊어지면서, 더 근본적인 질문이 떠올랐다.


"근데 100년 전만 해도 자유연애가 없었잖아요."


"맞아요. 중매결혼이 기본이었죠."


"조선시대만 해도 부모님이 정해주는 사람이랑 결혼했잖아요. 그게 지금 우리가 보기엔 이상한데, 그때 사람들한테는 당연한 거였잖아요."


"그때 사람들은 불행했을까요?"


"글쎄요... 꼭 그렇지도 않았을 것 같은데요."


여기서 흥미로운 관점이 나왔다. 어쩌면 AI 매칭은 중매결혼의 현대적 버전인지도 모른다.


100년 전에는 부모님이 좋은 짝을 골라줬다. 집안, 가문, 재산, 평판. 그런 것들을 종합적으로 고려해서 "이 사람이 너한테 맞아"라고 결정해줬다. 당사자는 거부권이 거의 없었다. 부모님이 정해주면 그 사람과 결혼했다.


그리고 많은 경우, 잘 살았다. 처음에는 어색했지만, 함께 살면서 정이 들었다. 자녀를 낳고, 함께 늙어갔다.


그것이 사랑이 아니었다고 누가 말할 수 있을까?


"그러면 AI 매칭도 비슷한 거 아니에요? 부모님 대신 AI가 골라주는 거죠."


"근데 부모님은 적어도 나를 사랑하잖아요. AI는..."


"AI는 데이터를 사랑하죠."


웃음이 번졌지만, 묘한 씁쓸함이 있었다.


토론 중 한 참가자가 결정적인 질문을 던졌다.


"결국 이거잖아요. A를 선택한다는 건 '자유와 불만'이 있는 삶을 선택하는 거고, B를 선택한다는 건 '자유도 불만도 없는' 삶을 선택하는 거죠."


"자유도 불만도 없다?"


"네. AI가 정해주면 거부권이 없잖아요. 자유가 없는 거죠. 근데 99.9% 맞으니까 불만도 없을 거예요."


"근데 그게... 사랑이에요?"


침묵이 흘렀다.





"저 연애 오래 했거든요. 처음에는 설레고, 두근거리고. 근데 시간이 지나면 그런 거 다 사라져요. 남는 건 정이에요. 그냥 옆에 있는 게 편한 사람. 그게 사랑 아닌가요?"


"설렘이 없으면 사랑이 아닌 거 아니에요?"


"그러면 결혼한 사람들은 다 사랑이 아닌 거예요? 10년, 20년 같이 살면 설렘이 어딨어요. 그냥 정으로 사는 거지."


"정만으로 사는 건 슬픈 거 아니에요?"


"왜요? 정도 사랑이죠. 형태가 다를 뿐이지."


또 다른 참가자가 덧붙였다.


"근데 정만 있고 설렘이 없으면... 권태기 오잖아요. 저도 그랬거든요. '나도 설레고 싶다'라는 생각."


"그래서 어떻게 했어요?"


"노력했죠. 이벤트 만들고, 여행 가고, 새로운 거 같이 하고. 설렘은 가만히 있으면 안 오더라고요. 만들어야 해요."


"그게 귀찮지 않아요?"


"귀찮죠. 근데 그게 사랑 아니에요? 귀찮은데도 하는 거."


이 대화가 프롬의 '사랑의 기술'과 연결되었다. 사랑은 감정이 아니라 행위다. 느끼는 것이 아니라 하는 것이다. 가만히 있으면 오는 것이 아니라, 노력해서 만드는 것이다.


AI 매칭은 '완벽한 상대'를 찾아주겠다고 약속한다. 하지만 완벽한 상대가 있어도, 내가 사랑의 노력을 하지 않으면 그 관계는 시든다. 반대로 75% 매칭인 사람과도, 서로 노력하면 행복할 수 있다.


결국 문제는 상대가 아니다. 문제는 나다. 내가 이 사람을 사랑하기로 선택하느냐. 그리고 그 선택을 매일 다시 하느냐.


"A를 선택한다는 건, 똥차 만날 확률 80%를 감수하겠다는 거잖아요. 왜 그러는 거예요?"


"낭만이요."


"낭만?"


"네. 우연히 만나서, 서로 알아가고, '이 사람이다'라고 느끼는 그 과정. 그게 낭만 아니에요?"


"근데 그 과정에서 상처도 많이 받잖아요."


"그래서 낭만인 거죠. 상처받을 가능성이 있으니까. 실패할 가능성이 있으니까. 그럼에도 불구하고 뛰어드는 거잖아요."


"B는 그런 낭만이 없는 거네요."


"네. 실패가 없으니까. 불확실성이 없으니까. 안전하지만, 낭만도 없는 거죠."


결국 이것도 같은 질문으로 돌아왔다. 실패 없는 삶을 살 것인가, 불완전하지만 자유로운 삶을 살 것인가.




행복 칩은 고통 없는 삶을 약속했다. AI 팀장은 불공정 없는 직장을 약속했다. 알고리즘은 실패 없는 콘텐츠 소비를 약속했다. 그리고 AI 매칭은 실패 없는 사랑을 약속한다.


모든 약속이 매혹적이다. 누가 고통받고 싶은가? 누가 불공정을 원하는가? 누가 실패하고 싶은가?


하지만 그 약속을 받아들이는 순간, 우리는 무언가를 잃는다. 고통과 함께 성장을, 불공정과 함께 자비를, 실패와 함께 낭만을.


<더 원>의 그 남편은 거짓말을 선택했다. 데이터가 뭐라고 하든, 자기는 아내를 사랑한다고. 그것이 불합리해 보일 수 있다. 비과학적으로 보일 수 있다. 하지만 그 불합리함이야말로, 인간이 인간인 이유인지도 모른다.


AI는 99.9% 매칭을 계산할 수 있다. 하지만 AI는 "그래도 이 사람"이라고 말할 수 없다. 그 '그래도'는 데이터에 없다. 확률에 반하는 선택, 숫자를 무시하는 사랑. 그것은 오직 인간만이 할 수 있는 것이다.


우리는 효율적인 소비자가 되기를 원하나, 아니면 고통스러운 작가가 되기를 원하나.


99.9%의 정답을 걷어차고 80%의 오답을 향해 걸어가는 그 무모함 속에만, 어쩌면 인간의 자리가 남아있을지 모른다.





5. 원주민과 난민: 우리는 결국 도태될 것이다

- 2027년, 코딩하는 자와 코딩당하는 자


토론의 마지막 주제는 가장 현실적이고 서늘한 곳으로 향했다. 바로 우리의 생존이었다.


"요즘 10대들 보면 무서워요. 영상 편집이나 포토샵을 배우는 게 아니라 그냥 숨 쉬듯이 하더라고요. 그 친구들한테 디지털은 기술이 아니라 환경이에요."


한 참가자의 말에 모두가 고개를 끄덕였다. 우리 세대(밀레니얼)에게 '디지털'은 배워야 할 기술이었다. 우리는 키보드 타자 연습을 했고, 코딩 학원을 다녔다. 하지만 지금의 알파 세대에게 디지털은 공기다. 그들은 태어날 때부터 터치스크린을 눌렀고, 유튜브를 검색했다.


그리고 이제 AI가 왔다.


"2027년이 되면 어떻게 될까요? 지금 초등학생들은 AI랑 대화하면서 자라잖아요. 궁금한 게 있으면 엄마한테 안 묻고 챗GPT한테 물어봐요. 그 친구들이 어른이 되었을 때, 과연 우리랑 같은 종족일까요?"


토론 중 "글로벌 시대의 영어" 비유가 나왔다.


우리 부모님 세대에게 영어는 피땀 흘려 배워야 하는 고급 기술이었다. 하지만 우리 세대에게 영어는 기본 소양이다. 그리고 다음 세대에게 영어는? AI 통역기가 실시간으로 다 해주는, 굳이 배울 필요조차 없는 무언가가 될지도 모른다.


지금 우리는 "AI를 잘 쓰는 사람이 되자"고 말한다. 프롬프트 엔지니어링을 배우고, 챗GPT 활용법 강의를 듣는다. 이건 마치 우리 부모님이 "영어 잘해야 성공한다"며 새벽 학원을 다니던 모습과 겹쳐 보인다. 우리는 노력해서 AI라는 도구를 손에 쥐려 한다.


하지만 다음 세대는 다르다. 그들에게 AI는 도구가 아니다. 파트너이자 튜터, 혹은 자신의 뇌의 확장이다. 그들은 AI와 협업하는 법을 배우는 게 아니라, AI와 공존하는 법을 본능적으로 안다.


"마이크로소프트가 이번에 C# 스펙을 걷어낸다고 했잖아요. 자연어로 코딩하는 시대로 간다고요. 그러면 프로그래밍 언어 자체가 필요 없어지는 거 아니에요?"


섬뜩한 질문이다.


"맞아요. 우리가 지금 배우는 자바, 파이썬, 리액트... 10년 뒤에도 쓸모가 있을까요? 아니, 코딩이라는 행위 자체가 인간의 영역으로 남을까요?"


우리는 지금 '과도기'에 살고 있다. 그래서 착각한다. 우리가 AI의 주인이 될 수 있다고. 우리가 똑똑하게 명령하면 AI가 코드를 짜주는, 편리한 세상을 상상한다.


하지만 하라리는 <넥서스>에서 경고한다. "인간은 말(Horse)보다 빨라지기 위해 자동차를 만들었지만, 결국 자동차에 밀려 도로에서 쫓겨났다."


2027년, AI가 인간의 지능을 넘어서는 특이점(Singularity)이 오면, 우리는 'AI를 잘 쓰는 개발자'가 되는 게 아니라, 'AI가 유지보수해주는 레거시 시스템'이 될지도 모른다. 코드는 AI가 짠다. 최적화도 AI가 한다. 인간은? 가끔 AI가 "이 부분은 인간의 윤리적 판단이 필요합니다"라고 물어볼 때, 결재 버튼이나 눌러주는 존재로 전락할 수도 있다.


멤버 중 한 명이 자조적으로 말했다.


"그때가 되면 우리는 그냥... '코딩할 줄 아는 원시인' 취급받겠죠? 마치 지금 우리가 주판 잘 튕기는 할아버지를 보면서 '와, 신기하다'라고 하는 것처럼요."


우리는 도태될 것이다. 이것은 비관이 아니라 냉정한 현실 인식이다. 2G폰에서 스마트폰으로 넘어갈 때, 키패드를 빨리 누르는 기술은 쓸모없어졌다. AI 시대로 넘어가는 지금, 우리가 가진 기술의 상당수는 박물관으로 갈 것이다.


하지만 희망이 있다면 이것이다. 우리는 '이행기(Transition)'를 온몸으로 겪어낸 세대라는 점이다. 아날로그의 낭만과 디지털의 편리함, 그리고 AI의 충격까지 모두 경험한 유일한 세대.


우리는 AI에게 "코드를 짜줘"라고 명령할 수 있지만, 동시에 "이 코드는 인간미가 없어"라고 거부할 수도 있다. 효율성의 끝판왕을 맛보았지만, 여전히 똥차를 만나는 낭만을 그리워할 줄 안다.


도태는 피할 수 없다. 하지만 어떤 모습으로 도태될지는 우리가 정할 수 있다. AI에게 모든 것을 맡기고 무력한 애완동물이 될 것인가, 아니면 AI가 흉내 낼 수 없는 '인간만의 비효율'을 끝까지 쥐고 있는 고집스런 장인이 될 것인가.





Outro. 1초 만에 답을 얻는 세상에서, 더 불완전해지기를



"생각해보면 오늘 우리가 한 모든 선택이 비슷해요. 행복 칩 거부, AI 팀장 선택했지만 자비의 문제 제기, 알고리즘 감옥 인식, 자유연애 선호. 결국 다 같은 이야기 아니에요?"


맞다. 네 가지 주제는 겉으로는 달라 보였지만, 결국 하나의 질문으로 수렴했다. 최적화된 삶을 살 것인가, 불완전하지만 자유로운 삶을 살 것인가.


행복 칩은 고통 없는 70점짜리 인생을 약속했다. 우리는 거부했다. 롤러코스터가 없는 인생은 인생이 아니라고.


AI 팀장은 공정한 평가를 약속했다. 우리는 선택했지만, 찜찜함이 남았다. 자비 없는 공정함이 정말 우리가 원하는 것인지.


알고리즘은 실패 없는 콘텐츠 소비를 약속했다. 우리는 편리함을 누리면서도 불안했다. 내가 선택하는 것인지, 선택당하는 것인지.


AI 매칭은 99.9% 소울메이트를 약속했다. 우리는 흔들렸지만, 결국 많은 이들이 80% 똥차 확률의 자유연애를 선택했다. 실패할 자유, 상처받을 자유, 그럼에도 불구하고 사랑할 자유.


"완벽한 AI 비서가 있다면 우리는 비 맞을 일이 없을 거예요. 항상 우산을 챙기게 해줄 테니까."


비 맞을 일이 없는 삶. 언뜻 들으면 좋아 보인다. 누가 비 맞고 싶은가? 옷 젖고, 감기 걸리고, 짜증 나는데. 하지만 정말 그럴까? 가끔 우산 깜빡하고 비 맞는 것, 낭만 아닌가?




낭만이란 무엇인가? 사전적 정의는 '현실에 매이지 않는 감상적이고 이상적인 분위기'다. 그런데 그 낭만이 시작되는 지점, 그러니까 기저 조건은 무엇인가?


낭만은 예측 불가능성에서 온다.


비 예보를 놓쳐서 비를 맞았는데, 마침 좋아하는 사람과 함께였다. 둘이 처마 밑에서 비를 피하며 이야기를 나눴다. 그 순간은 AI가 계획해줄 수 없다. 우산을 챙겼다면 일어나지 않았을 일이다.


여행 일정을 짜지 않고 무작정 떠났는데, 우연히 마주친 골목에서 인생 맛집을 발견했다. AI가 추천해준 '평점 4.8 맛집'이 아니라, 내가 직접 헤매다 찾은 곳. 그 발견의 기쁨은 알고리즘이 줄 수 없다.


소개팅에서 만난 사람이 첫인상은 별로였는데, 이야기를 나눠보니 의외로 통했다. DNA 매칭 25%였을 수도 있다. 하지만 그 '의외성'이 사랑의 시작이었다.


낭만은 실패 가능성이 있을 때 존재한다. 비를 맞을 수도 있고, 맛집을 못 찾을 수도 있고, 소개팅이 망할 수도 있다. 그 불확실성 속에서 운 좋게 좋은 결과가 나왔을 때, 우리는 그것을 '낭만'이라고 부른다.


AI가 모든 것을 최적화해주는 세상에서, 실패 가능성은 사라진다. 하지만 실패 가능성이 사라지면, 낭만도 사라진다. 남는 것은 '효율적인 성공'뿐이다. 비 안 맞고, 맛집 찾고, 좋은 사람 만나고. 모든 것이 계획대로. 하지만 거기에 설렘은 없다. 그냥 예정된 결과일 뿐이니까.


2부 회고에서 나는 '인테리어 업자의 승리'를 이야기했다. 엉망진창으로 시공해놓고 사포 한 장 주고 간 그 업자 아저씨. 황당했지만, 동시에 깨달았다. 저 엉망인 사포질조차 AI는 대신해줄 수 없다고.


디지털 세계에서 AI는 3초 만에 완벽한 코드를 짜준다. 완벽한 기획안을 써준다. 완벽한 디자인을 만들어준다. 0과 1의 세계에서 '완벽함'은 점점 기본값이 되어가고 있다.


하지만 현실 세계에는 '마찰'이 있다. 타일의 미세한 수평을 맞추는 손끝의 감각. 나무 창틀을 1mm 갈아낼 때의 저항감. 창문이 제대로 안 닫혀서 짜증 나고, 바닥에 물이 고여서 스퀴지로 밀어내야 하는 수고로움.


그것이 '삶'이다. 매끄럽지 않고, 최적화되지 않고, 때로는 짜증 나는. 하지만 그 마찰 속에서 우리는 무언가를 느낀다. 안 열리는 창문을 억지로 열었을 때의 성취감. 물기를 다 닦아냈을 때의 뿌듯함. 그런 사소한 감정들.


AI가 모든 것을 해결해주는 세상에서, 그런 감정들은 사라진다. 문제 자체가 없으니까. 해결의 기쁨도 없다.


그냥 모든 것이 처음부터 완벽하다. 사실 AI는 이미 많은 영역에서 인간을 넘어섰다. 체스, 바둑, 퀴즈쇼. 이제는 글쓰기, 그림 그리기, 작곡까지. "이건 인간만 할 수 있어"라고 생각했던 영역들이 하나씩 무너지고 있다.


편리해지고 완전해진다. 어딘가 허전하다.


2부 회고에서 나는 이렇게 썼다.

"AI는 '사랑해'라는 텍스트를 출력할 수는 있지만, 그 말을 위해 자신의 생을 걸지는 못한다. 데이터에는 떨림이 없다."


<더 원>의 그 남편이 아내에게 거짓말한 것. "당신이 내 소울메이트야." 데이터는 25%라고 했지만, 그는 아내를 선택했다. 비합리적이다. 비과학적이다. 하지만 그 비합리성이야말로 인간의 증거다.


AI는 최적의 선택을 한다. 인간은 최적이 아닌 선택을 할 수 있다. 사랑하는 사람을 위해, 믿는 가치를 위해, 혹은 그냥 고집 때문에. 그 '비최적성'이 인간을 인간으로 만든다.


"결국 우리가 오늘 선택한 것들, 행복 칩 거부하고, 자유연애 선택하고, 이런 게 다 '불완전할 권리'를 선택한 거 아니에요?"


우리는 보통 '권리'라고 하면 좋은 것을 떠올린다. 행복할 권리, 자유로울 권리, 존중받을 권리. 하지만 '불완전할 권리'는?


실패할 권리. 실수할 권리. 비합리적일 권리. 비 맞을 권리. 똥차 만날 권리. 후회할 권리.


언뜻 들으면 이상한 표현이다. 누가 실패하고 싶고, 실수하고 싶고, 후회하고 싶은가?


하지만 그 권리가 없다면?


AI가 모든 실패를 막아주고, 모든 실수를 교정해주고, 모든 후회를 예방해준다면?


우리는 더 이상 '선택'하지 않는다. AI가 최적의 답을 알려주고, 우리는 따르기만 하면 된다. 실패도 없고, 실수도 없고, 후회도 없다. 하지만 동시에 성장도 없고, 배움도 없고, 의미도 없다.


하라리는 <넥서스>에서 AI 시대의 가장 큰 위험은 AI가 인간을 공격하는 것이 아니라고 말한다. 진짜 위험은 인간이 자발적으로 자유를 포기하는 것이라고.


우리는 이미 그 길 위에 있다. 편리하니까. 효율적이니까. 실패하기 싫으니까. 알고리즘이 추천해주는 것만 보고, AI가 써주는 글을 쓰고, 매칭 앱이 골라주는 사람을 만난다. 하나하나는 사소한 선택이다. 하지만 그 선택들이 쌓이면, 어느 순간 우리는 스스로 선택하는 법을 잊어버린다.


그리고 그때, 우리는 더 이상 인간이 아니다. 알고리즘의 출력값, 시스템의 부품, '행복한 인형'일 뿐이다.


<넥서스> 3부를 덮으며, 나는 하라리의 질문을 다시 떠올렸다.

"민주주의가 새로운 테스트를 통과할 보장이 없다."


나는 그 질문을 조금 바꿔서 스스로에게 던져본다. 인간이 '인간으로 남기'라는 테스트를 통과할 보장이 있는가?


AI는 점점 더 많은 것을 해줄 것이다. 더 완벽하게, 더 효율적으로, 더 최적화해서. 그리고 우리는 점점 더 많은 것을 AI에게 맡기고 싶은 유혹을 느낄 것이다. 편하니까. 실패하기 싫으니까.


하지만 그 유혹에 넘어가는 순간, 우리는 무언가를 잃는다. 실패할 자유, 실수할 자유, 불완전할 자유.


그것은 '권리'라기보다 '특권'에 가깝다. 오직 인간만이 누릴 수 있는 특권. AI는 실패하지 않으니까 실패할 특권이 없다. AI는 실수하지 않으니까 실수할 특권이 없다. AI는 완벽하니까 불완전할 특권이 없다.


우리는 그 특권을 지킬 것인가, 포기할 것인가.


70점짜리 평온한 인생을 살 것인가, 0점과 100점을 오가는 롤러코스터를 탈 것인가.


자비 없는 공정함을 받아들일 것인가, 불공정하지만 자비의 가능성이 있는 세상을 선택할 것인가.


알고리즘이 떠먹여주는 도파민에 안주할 것인가, 불편하더라도 내 세계를 확장할 것인가.


99.9% 소울메이트를 받아들일 것인가, 80% 똥차 확률을 감수하고 사랑을 선택할 것인가.


토론에서 우리는 대부분 '불완전함'을 선택했다. 행복 칩을 거부하고, 자유연애를 선호하고, 알고리즘의 위험성을 인식했다.


하지만 솔직히 말하자. 그것은 토론장에서의 선택이었다. 일상으로 돌아가면, 우리는 다시 알고리즘이 추천해주는 영상을 보고, AI가 써주는 글을 참고하고, 매칭 앱에서 사람을 찾는다. 거대한 시스템 앞에서 개인의 의지는 나약하다.


그래서 나는 이렇게 생각한다. 중요한 것은 '무엇을 선택하느냐'가 아니라 '선택할 수 있다는 것을 기억하느냐'다.


AI가 최적의 답을 알려줄 때, "그래도 나는"이라고 말할 수 있는 여지. 데이터가 25%라고 할 때, "그래도 이 사람"이라고 말할 수 있는 용기. 알고리즘이 이것을 보라고 할 때, "아니, 저것을 보겠어"라고 말할 수 있는 자유.


그 여지, 그 용기, 그 자유를 잃지 않는 것. 그것이 AI 시대에 인간으로 남는 방법이 아닐까.


인간은 감정에 휘둘리고, 고집을 부리고, 비합리적인 선택을 한다. 사랑하는 사람을 위해 손해를 감수하고, 믿는 가치를 위해 효율을 포기하고, 때로는 그냥 "하고 싶으니까"라는 이유로 어리석은 결정을 내린다.


그것이 인간이다. 불완전하고, 비합리적이고, 때로는 어리석은.


하지만 바로 그렇기 때문에, 아름다운.


"우리가 타일 업자 아저씨의 투박한 손길에서, 혹은 엉망진창인 인간관계에서 기어이 의미를 찾는 이유는 무엇일까? 그것은 우리가 '죽을 수밖에 없는 존재'이기 때문이다. AI는 영생하지만, 인간은 죽는다. 죽음이 있기에 삶의 매 순간이 절박하고, 상실이 있기에 사랑이 귀하다."

— 넥서스 2부 회고 중에서



스크린샷 2025-12-30 12.57.10.png


KakaoTalk_Photo_2025-12-30-12-50-35.jpeg



매거진의 이전글<팩트풀니스>가 안내하는 뇌의 레거시 코드 걷어내는 법