선의는 언제 계산이 되기 시작했을까

by Y One

AI 개발을 다룬 파미 올슨의 패권을 읽으며 가장 오래 남은 인상은 기술 경쟁이나 인물 간의 대립보다도, 그 기술을 만들어가는 사람들이 스스로에게 던지는 질문들이었다.

“얼마나 돈을 벌 수 있는가?”보다는 “이 기술은 인류 전체에 어떤 영향을 미치는가?” “어디까지 안전을 고민해야 하는가?”

특히 인상 깊었던 지점은 AI 개발을 둘러싼 담론 한가운데에 ‘효율적 이타주의(EA)’라는 사고방식이 자연스럽게 자리 잡고 있다는 사실이었다.
효율적 이타주의는 감정에 기대지 않는다. 눈앞의 한 사람을 돕는 행위보다, 같은 자원으로 더 많은 사람에게 더 큰 효과를 낼 수 있는 선택이 무엇인지 계산하자고 말한다.

같은 시간과 비용이라면

-어디에 써야 가장 많은 생명을 살릴 수 있는지

-어떤 위험을 줄여야 미래의 피해를 최소화할 수 있는지

이 관점은 AI, 기후 위기, 팬데믹처럼 ‘지금은 보이지 않지만, 한 번 발생하면 엄청난 영향을 미치는 문제들’과 잘 맞는다. AI 개발자들이 이 사고방식에 주목하는 이유도 여기에 있다.
미래에 수십억 명에게 영향을 미칠 수 있는 기술 앞에서, 지금 당장의 작은 선행은 상대적으로 무력해 보이기 때문이다. 논리적으로는 충분히 설득력이 있다. 하지만 책을 덮고 나면 자연스럽게 다음 질문이 떠오른다.

선의가 계산되기 시작할 때

-‘효율’을 기준으로 선의를 판단하기 시작하면, 이타주의는 조금 다른 얼굴을 갖게 된다.

-무엇이 ‘더 큰 효과’인지 누가 판단하는가?

-어떤 사람들을 우선 고려해야 하는가?

-지금의 소수 피해는 미래의 다수를 위해 감내해도 되는가?

이 질문들은 불편하지만 피할 수 없다. 특히 AI처럼 의사결정 과정 자체를 자동화하는 기술과 결합할 때는 더욱 그렇다.
AI는 결정을 빠르게 만들고, 효율적 이타주의는 그 결정에 논리를 부여한다. 그 결과, 이런 문장이 자연스럽게 등장한다.

우리는 인류 전체를 위해 최선의 선택을 했다.”

이 말은 강력하다. 동시에, 동의하지 않은 개인의 목소리가 쉽게 사라질 수 있다는 점에서 조심스럽게 다뤄져야 한다.


실리콘밸리의 ‘철학’은 어디서 오는가


이 대목에서 한국과 실리콘밸리의 차이가 떠오른다.
한국의 기술 담론은 종종 수익성과 생존 문제에 집중돼 있다. 그렇다고 철학이 없다고 말하기는 어렵다. 오히려 철학을 말해도 실제 의사결정에 반영되기 어려운 구조에 가깝다.

반면 실리콘밸리에서 AI는 이미 단순한 서비스가 아니다. 플랫폼을 넘어 인프라가 되었고, 시장 경쟁을 넘어 국가 경쟁력의 일부가 되었다. 이 단계에 이르면, 기술에 대한 철학을 말하지 않을 수 없다. 그 철학은 도덕적 성찰이면서 동시에, 책임과 영향력을 설명하는 언어다.

사람이 숫자가 되는 순간

효율을 극대화하는 과정에서 우리는 언제 사람을 ‘개인’이 아니라 ‘숫자’로 바라보게 될까. AI가 그 계산을 대신하게 될 때, 누가 멈춤을 말할 수 있을까. 패권이 흥미로운 이유는 이 질문을 끝까지 남겨두기 때문이다. 이 책은 기술을 비난하지도, 무조건 찬양하지도 않는다. 다만 기술이 커질수록, 선의조차 구조와 권력의 언어로 바뀔 수 있음을 조용히 보여준다.


결국 남는 질문은 이것이다.


우리는 정말 모두를 위해 결정하고 있는가. 아니면, 결정할 수 있는 위치에 있다는 사실을 스스로 설득하고 있는가.

keyword