두 사람의 아침
같은 날, 같은 서울.
A의 아침. 강남 아파트. AI 비서가 깨운다. 오늘 일정, 날씨, 주요 뉴스 브리핑. 이메일은 AI가 분류해뒀고, 보고서 초안은 밤새 완성됐다. 출근하면서 AI에게 오후 미팅 전략을 물어본다. AI가 상대 회사의 최근 공시, 담당자의 SNS 활동 패턴, 업계 트렌드를 종합해서 시나리오 세 개를 제안한다. A는 하나를 고른다.
A의 월 AI 구독료: 약 30만 원. GPT 프로, 미드저니, 노션 AI, 개인 코칭 AI.
B의 아침. 관악구 반지하. 스마트폰 알람으로 일어난다. 뉴스는 포털 메인을 스크롤한다. 이메일은 직접 읽는다. 보고서는 어제 밤늦게까지 혼자 썼다. AI? 무료 버전을 가끔 쓴다. 질문 수 제한에 걸리고, 고급 기능은 잠겨 있다.
B의 월 AI 비용: 0원. 가끔 무료 체험을 쓴다.
A와 B의 능력 차이가 아니다. A와 B의 도구 차이다. 같은 24시간인데, A에게는 AI라는 증폭기가 있고, B에게는 없다.
6개월 뒤. A는 승진했다. "일을 잘한다"는 평가를 받았다. B는 제자리다. "좀 느리다"는 평가를 받았다.
이건 공정한가?
새로운 불평등의 구조
AI 이전에도 불평등은 있었다. 교육, 인맥, 자본. 이것들은 오래된 격차의 축이다.
AI는 새로운 축을 추가한다. 도구 격차.
비싼 AI를 쓰는 사람은 생산성이 5배, 10배 늘어난다. 한 명이 열 명의 일을 한다. 경쟁이 안 된다. 무료 AI를 쓰는 사람은 이전과 비슷한 속도로 일한다. 격차는 벌어진다.
그리고 이 도구 격차는 기존 불평등과 겹친다. 비싼 AI를 쓸 수 있는 사람은 대체로 이미 교육을 받았고, 자본이 있고, 디지털 리터러시가 높은 사람이다. 없는 사람은 — 없는 것이 누적된다.
부자는 더 좋은 AI를 쓰고 더 많이 벌고 더 좋은 AI를 쓴다.
가난한 사람은 AI를 못 쓰고 뒤처지고 더 AI를 못 쓴다.
피드백 루프. 자기 강화 불평등.
이건 기술의 문제인가? 사회의 문제인가?
롤스: 정의란 무엇인가
존 롤스. 미국 정치철학자. 1971년, 정의론(A Theory of Justice)을 출간했다.
20세기에서 가장 영향력 있는 정치철학 저작 중 하나. 롤스는 이 책에서 단 하나의 질문을 파고든다.
"공정한 사회는 어떻게 설계할 수 있는가?"
롤스의 접근은 독특하다. 현실의 사회를 분석하는 대신, 처음부터 사회를 설계한다고 가정한다. 백지 상태에서. 그리고 그 설계자들에게 한 가지 조건을 건다.
무지의 베일
무지의 베일(Veil of Ignorance).
롤스의 가장 유명한 사고실험이다.
이렇게 상상해보자.
당신은 아직 태어나지 않았다. 사회를 설계해야 한다. 법, 제도, 분배 방식을 정해야 한다. 하지만 조건이 있다 — 당신은 자신이 그 사회에서 어떤 위치에 태어날지 모른다.
부자로 태어날지 가난하게 태어날지 모른다.
건강하게 태어날지 장애를 가지고 태어날지 모른다.
서울에서 태어날지 시골에서 태어날지 모른다.
남자로 태어날지 여자로 태어날지 모른다.
교육을 받을 수 있을지 없을지 모른다.
아무것도 모른다. 무지의 베일에 가려져 있다.
이 상태에서 — 자기가 누구인지 모르는 상태에서 — 어떤 사회를 설계할 것인가?
롤스의 답:
합리적인 사람이라면, 가장 불리한 위치에 있는 사람에게 이로운 사회를 설계할 것이다.
왜? 내가 그 가장 불리한 사람일 수 있으니까. 내가 가난하게 태어나고, 장애를 가지고, 교육 기회가 없는 사람이 될 수 있으니까. 그 가능성이 있는 한, 합리적인 설계자는 최악의 경우를 대비한다.
이것이 롤스의 차등 원칙(Difference Principle): 불평등은 그것이 가장 불리한 사람에게 이익이 될 때만 허용된다.
무지의 베일 뒤에서 AI를 설계한다면
이 사고실험을 AI 시대에 적용해보자.
당신은 무지의 베일 뒤에 있다. AI 사회를 설계해야 한다. 하지만 당신이 그 사회에서 어떤 위치인지 모른다.
월 30만 원 AI를 쓰는 A일 수도 있고, 무료 버전조차 버거운 B일 수도 있다.
AI 네이티브로 태어나 프롬프트를 모국어처럼 쓰는 10대일 수도 있고, 스마트폰도 겨우 다루는 70대일 수도 있다.
실리콘밸리의 AI 엔지니어일 수도 있고, 아프리카의 코발트 광산 노동자일 수도 있다. (AI 칩에 들어가는 코발트를 채굴하는 사람.)
이 상태에서, 어떤 AI 사회를 만들 것인가?
롤스의 차등 원칙을 적용하면:
AI의 혜택이 가장 불리한 위치의 사람에게도 돌아가지 않는 한, 그 AI 사회는 정의롭지 않다.
현실 점검
이제 현실을 보자.
GPT-4 수준의 AI를 쓰려면 월 2~3만 원. 한국 기준으로 저렴해 보인다. 하지만 전 세계 기준으로 하루 2달러 미만으로 사는 사람이 7억 명이다. 이 사람들에게 월 20달러는 한 달 생활비다.
비용만의 문제가 아니다.
AI를 효과적으로 쓰려면 디지털 리터러시가 필요하다. 프롬프트를 쓸 줄 알아야 하고, 결과를 검증할 줄 알아야 하고, 도구를 조합할 줄 알아야 한다. 이 능력은 교육에서 온다. 교육은 기회에서 온다. 기회는 — 태어난 곳에서 온다.
AI는 능력을 증폭한다. 하지만 증폭기는 원래 가진 것을 키운다. 100을 가진 사람의 100을 500으로 만들고, 10을 가진 사람의 10을 50으로 만든다. 절대적으로는 둘 다 늘었지만, 격차는 100에서 450으로 벌어진다.
이것이 AI의 구조적 불평등이다. 기술이 좋아질수록, 접근할 수 있는 사람과 없는 사람의 차이가 커진다.
"오픈소스면 되지 않나?"
반론이 있을 수 있다.
"오픈소스 AI가 있잖아. 무료인데?" 맞다. 하지만 오픈소스를 쓰려면 설치할 줄 알아야 하고, 실행할 컴퓨터가 있어야 하고, 에러를 해결할 능력이 있어야 한다. 진입 장벽은 돈만이 아니다.
"학교에서 가르치면 되지 않나?" 맞다. 하지만 어떤 학교에서? 강남의 학교와 시골의 학교에서 같은 AI 교육이 이루어지는가? 같은 장비가 있는가? 같은 수준의 교사가 있는가?
"시간이 지나면 보급되지 않나? 스마트폰도 처음엔 비쌌잖아." 맞다. 스마트폰은 보급됐다. 하지만 스마트폰이 보급되는 동안 먼저 쓴 사람들은 이미 앞서 나갔다. 격차의 시간 — 먼저 접근한 사람과 나중에 접근한 사람 사이의 시간차 — 이 누적되면 따라잡기 어려운 구조적 차이가 된다.
문제는 AI 자체가 아니다. AI가 기존 불평등 위에 쌓이는 방식이 문제다.
차등 원칙으로 AI를 설계하면
롤스의 차등 원칙을 AI 정책에 구체적으로 적용해보자.
첫째, AI의 기본 접근은 보편적이어야 한다.
물은 공공재다. 전기는 공공재다. AI도 — 적어도 기본적인 수준의 AI는 — 공공재가 되어야 한다.
기본 AI 서비스에 대한 보편적 접근권. 무료 또는 극히 저렴한 비용으로 누구나 AI를 활용할 수 있는 인프라. 이건 자선이 아니다. 롤스의 기준에서 이건 정의의 최소 조건이다.
둘째, AI 교육은 격차를 줄이는 방향이어야 한다.
AI 교육을 가장 먼저, 가장 많이 받아야 하는 사람은 이미 디지털 리터러시가 높은 사람이 아니다. 가장 뒤처져 있는 사람이다.
이건 직관에 반한다. "잘하는 사람에게 투자해야 효율적이지 않나?" 효율의 논리로는 맞다. 하지만 정의의 논리로는 틀리다.
무지의 베일 뒤에서 당신이 AI를 전혀 모르는 사람으로 태어날 수 있다면, 당신은 AI 교육이 그 사람에게 먼저 가기를 원할 것이다.
셋째, AI의 이익이 상층부에만 집중되어서는 안 된다.
AI가 기업의 생산성을 10배 올렸다면, 그 이익은 어디로 가는가? 주주에게? 경영진에게? 아니면 직원에게? 사회에?
롤스의 차등 원칙: 불평등은 허용된다 — 가장 불리한 사람에게도 이익이 될 때만. AI로 벌어진 이익이 하위 계층에게 교육, 의료, 기회의 형태로 돌아가지 않는다면, 그 불평등은 정의롭지 않다.
개인으로서 할 수 있는 것
"그건 정부가 할 일 아냐?" 맞다. 정책의 영역이다. 하지만 개인의 영역도 있다.
알고 있는 것을 나눠라.
당신이 AI를 쓸 줄 안다면, 그 지식은 특권이다. 주변에 AI를 못 쓰는 사람이 있는가? 부모님? 나이 든 동료? 디지털에 약한 친구?
30분 투자해서 기본적인 사용법을 알려줘라. 거창한 교육이 아니어도 된다. "이렇게 물어보면 이런 답이 와요." 이 한 문장이 누군가에게는 문턱을 넘는 계기가 된다.
무료 도구의 가치를 과소평가하지 마라.
최고급 AI가 아니어도 된다. 무료 버전으로도 충분히 유용한 일이 많다. "유료가 아니면 의미 없어"는 프리미엄 마케팅에 길들여진 생각이다.
무료 AI로 할 수 있는 것의 목록을 만들어봐라. 의외로 길다. 그리고 그 목록을 AI에 접근하기 어려운 사람들과 공유해라.
격차에 대해 말해라.
가장 중요한 건 이것일 수 있다. AI 격차를 인식하고, 말하고, 문제 제기하는 것.
"AI 잘 쓰는 사람이 성공하는 거 당연하지 않나?"라는 말이 자연스러워지면, 격차가 정당화된다. "노력하면 누구나 쓸 수 있잖아"가 상식이 되면, 구조적 장벽이 보이지 않게 된다.
보이지 않는 장벽에 이름을 붙여라. AI 격차. 도구 불평등. 디지털 계급. 이름이 붙으면 논의가 시작되고, 논의가 시작되면 변화의 가능성이 열린다.
베일을 쓰고 다시 생각하기
롤스의 무지의 베일은 사고실험이다. 현실에서 우리는 이미 태어났고, 자기가 누구인지 안다. 베일을 쓸 수 없다.
하지만 쓰는 척은 할 수 있다.
AI에 대한 정책을 판단할 때, 기술 기업의 결정을 평가할 때, 혹은 그냥 일상에서 AI를 쓸 때 — 잠깐 멈추고 자문해봐라.
"내가 AI를 전혀 쓸 수 없는 사람이라면, 이 상황을 어떻게 볼까?"
이 질문을 던지는 것만으로도 시야가 달라진다. 내가 누리는 것이 '당연한 것'이 아니라 '특권'이라는 인식. 이 인식이 공정한 AI 사회로 가는 첫 걸음이다.
롤스는 정의를 '공정으로서의 정의(justice as fairness)'라고 불렀다. 완벽한 평등이 아니다. 모든 사람에게 같은 것을 주라는 게 아니다. 차이는 있을 수 있다 — 단, 그 차이가 가장 약한 사람에게도 이로워야 한다.
AI가 강력해질수록, 이 원칙은 더 절실해진다.
당신이 AI를 잘 쓰는 사람이라면 — 축하한다. 하지만 무지의 베일 뒤에서는, 당신이 아닐 수도 있었다.
그 '아닐 수도 있었다'를 기억하는 것.
그것이 정의의 시작이다.