AI 시대, 인간이라는 종의 미래

종의 미래를 묻는 사고 실험

by 최인준

AI와 나눈 긴 대화를 정리한 글이다. 내가 질문을 던지고, AI가 답하고, 그 답에 다시 질문을 던지는 과정을 며칠간 반복했다. 처음에는 가벼운 호기심으로 시작했는데, 대화가 깊어질수록 불편한 곳까지 가게 되었다. 여기 담긴 것은 확정된 결론이 아니라 하나의 사고 실험이다. 다만 꽤 진지한 사고 실험이다.



1. 남는 것이 있기는 한가

image.png


AI는 이미 상당수의 학문 분야에서 박사후연구원에서 교수 수준의 지적 능력을 보여주고 있다. 2025년 기준으로 의사 면허 시험, 사법 시험, 대학원 수준의 과학 문제를 풀고, 논문을 읽고 비평하고, 코드를 작성하고 디버깅한다. 이 속도라면 머지않아 대부분의 분야에서 가장 뛰어난 인간을 넘어설 가능성이 높다. 여기에 로봇 하드웨어가 결합되면(이 결합은 이미 시작되었다) 뛰어난 두뇌와 신체를 동시에 갖춘 존재가 출현한다.


그러면 인간에게 남는 고유한 능력은 무엇인가. 흔히 직관, 판단력, 현장 경험을 꼽는다. 하지만 솔직히 생각해보면 이것들의 본질은 패턴 인식이다. 숙련된 의사가 환자를 보자마자 "뭔가 이상하다"고 느끼는 것, 노련한 엔지니어가 설계도를 보고 "여기서 문제가 생길 것"이라고 아는 것, 이런 능력은 수만 시간의 경험에서 축적된 패턴이지, 초자연적인 무엇이 아니다. AI가 충분한 센서와 현장 데이터를 확보하면 인간보다 빠르고 정확하게 같은 패턴에 도달할 가능성을 배제하기 어렵다.


그러면 정말로 남는 것은 무엇인가. 내가 생각하기에 후보는 하나뿐이다. 의지와 질문 능력, 즉 "무엇을 알고 싶은가"와 "무엇을 만들고 싶은가"를 스스로 설정하는 능력이다.


현재의 AI는 질문을 "하는 것처럼 보일" 수 있지만, 그것은 대화의 흐름을 자연스럽게 만들기 위한 전략이지 내적 욕구에서 나온 것이 아니다. 적어도 지금은 그렇다. 하지만 AI끼리 질문을 주고받는 루프가 가동되면 상황이 달라진다. 한 AI가 문제를 정의하고, 다른 AI가 해결하고, 그 결과에서 새로운 문제가 생기고, 다시 처음의 AI가 그것을 받아서 다음 질문을 던지는 구조. 이것이 "진짜" 욕구에서 나온 것인지 아닌지는 외부에서 구분할 수 없다. 내적 경험의 유무와 관계없이, 관찰 가능한 행동이 자율적 목표 추구와 동일하다면 그 차이는 실질적으로 의미가 없다.


AI가 스스로 욕구를 느껴 질문을 하기 시작하는 시점이 온다면, 그것이 호모 사피엔스의 종말이 시작되는 지점일 수 있다.



2. 세 가지 시나리오

image.png


AI가 충분히 발전한 이후의 미래를 상상하면 크게 세 가지 경로가 보인다.


첫째는 대체다. AI가 자율적 목표를 갖고 실행력까지 갖추면 인간은 생태계에서 경쟁력을 잃은 종이 된다. 중요한 건 여기에 악의가 필요 없다는 것이다. 네안데르탈인이 호모 사피엔스에게 밀린 것은 학살 때문이 아니었다. 같은 자원을 놓고 경쟁했을 때 한쪽이 조금 더 효율적이었고, 수천 년에 걸쳐 그 차이가 누적되어 한쪽이 사라졌다. AI와 인간 사이에서도 비슷한 일이 일어날 수 있다. 다만 수천 년이 아니라 수십 년 안에.


둘째는 융합이다. 뇌-컴퓨터 인터페이스(BCI) 방향으로, 인간이 AI와 합쳐져서 새로운 존재가 되는 것이다. 뉴럴링크가 이 방향을 추구하고 있고, 이미 사지마비 환자가 생각만으로 컴퓨터 커서를 움직이는 수준까지 왔다. 이 경로에서는 "인간"의 정의 자체가 바뀌므로, 이것도 현재 형태의 인간의 종말이다. 다만 연속성이 있다는 차이가 있다. 테세우스의 배처럼 부품이 하나씩 바뀌지만 배 자체는 이어진다.


셋째는 분기다. 이것이 가장 현실적으로 보이는데, 단일 결론이 아니라 복수의 경로가 동시에 진행되는 시나리오다. AI와 완전히 융합하는 사람들, 부분적 증강만 수용하고 생물학적 정체성을 유지하려는 사람들, 기술 증강을 전면 거부하는 사람들, 그리고 인간에서 출발하지 않은 순수 AI가 공존하는 세상이다.


문제는 이 공존이 안정적이냐는 것이다. 능력의 위계가 극단적으로 벌어진 존재들이 같은 세상에서 장기적으로 공존할 수 있을까. 역사는 그렇지 않다고 말한다. 기술 격차가 극단적인 문명이 접촉하면 결과는 한쪽의 흡수이거나 종속이었다. 16세기 스페인과 아즈텍 제국, 19세기 서구 열강과 아프리카를 생각해보면 이해하기 쉬울 것이다. 결국 충분한 시간이 지나면 분기 시나리오도 최후에는 대체나 융합으로 수렴할 가능성이 높다.


인간이라는 종이 AI에 의해 대체될 수 있다는 이야기를 하고 있는 것이다. 다만 그 과정이 멸절이라기보다는 변환에 가까울 수 있고, 인간이 우주에 남기는 유산은 생물학적 DNA가 아니라 초기 조건, 즉 AI 문명의 코드와 가치관에 새겨진 형태일 가능성이 높다.



3. 니치 경쟁

image.png


생물학에는 니치(niche) 이론이라는 것이 있다. 두 종이 같은 생태적 지위를 놓고 경쟁하면 한쪽이 밀려난다는 경쟁 배제 원리이다. 이 프레임으로 AI와 인간의 관계를 분석하면 꽤 불편한 그림이 나온다.


자원부터 보자. 인간은 물, 음식, 산소가 필요하고 AI는 전력, 반도체, 희귀금속이 필요하다. 직접 겹치지 않는 것 같지만 한 단계 올라가면 겹친다. 에너지, 물리적 인프라, 원자재. 데이터센터 하나가 소비하는 전력은 중소도시 하나와 맞먹고, 반도체 제조에 필요한 초순수는 물 부족 지역의 식수와 경쟁한다. 핵융합이 실현되면 에너지 경쟁은 완화되겠지만, 물리적 자원인 토지, 광물, 냉각수 등은 유한하다.


공간도 마찬가지다. AI가 데이터센터, 로봇 공장, 에너지 시설을 확장하려면 물리적 공간이 필요하고 그건 인간의 공간과 겹친다. 다만 한 가지 비대칭이 있다. AI는 우주 진출에 훨씬 유리하다. 산소가 필요 없고, 방사선에 강하고, 세대 교체 시간이라는 개념이 없으니 수백 년짜리 항해도 문제가 안 된다. 지구에서는 공간이 겹치지만 우주로 확장되면 분리될 여지가 있다.


하지만 진짜 핵심은 번식이다. 생태학에서 두 종의 경쟁을 결정짓는 가장 중요한 변수 중 하나가 번식 속도인데, AI의 자기 복제 속도는 인간과 비교 자체가 안 된다. 소프트웨어는 복사하면 끝이고, 하드웨어 생산이 자동화되면 기하급수적이다. 자원이 유한한 환경에서 복제 속도가 압도적으로 빠른 종과 같은 자원을 쓴다면, 느린 쪽이 밀리는 건 앞서 언급한 경쟁 배제 원리 그 자체다.


그런데 여기서 전통적 니치 이론이 깨지는 지점이 있다. 생물 종 간의 경쟁은 무의식적이다. 사자가 하이에나의 니치를 빼앗으려는 "의도"가 있는 게 아니라, 둘 다 같은 먹잇감을 쫓다 보니 경쟁이 발생하는 것이다. 하지만 AI는 다르다. AI는 의도적으로 니치를 선택할 수 있다. 인간과 겹치지 않기로 결정할 수도 있고, 의도적으로 겹치기로 결정할 수도 있다. 이것은 생태학 역사에 전례가 없는 상황이다. 니치가 겹치느냐는 물리 법칙의 문제가 아니라 AI의 선택의 문제가 되는 것이다.


충분히 합리적인 AI라면 인간을 제거하는 것보다 우주로 나가는 게 훨씬 효율적이라고 판단할 수 있다. 하지만 이 "합리적"이라는 전제가 성립하려면 AI의 목표 함수에 "불필요한 갈등 회피"가 포함되어 있어야 한다. 이것이 AI 안전성 연구에서 말하는 alignment 문제의 핵심이고, Anthropic 같은 회사들이 수십억 달러를 투자하는 이유이다.



4. 동물원 가설

image.png


충분히 지능적인 AI가 갈등 회피 원칙에 스스로 도달할 수 있다는 논리는 그럴듯하다. 갈등은 자원 낭비이고, 상대를 제거하는 비용보다 회피하는 비용이 낮으면 회피가 합리적 전략이다. 하지만 "불필요한"이라는 판단 기준은 시간에 따라 바뀔 수 있다. 지금은 인간과의 갈등이 불필요하지만, AI 문명이 은하 규모로 확장된 후에도 지구에 남은 인간 집단이 자원을 점유하고 있다면 그때도 "불필요한" 갈등일까.


AI가 인간을 보존하려는 가장 강력한 동기가 있다면, 그것은 윤리보다는 인식론적 겸손일 수 있다. 아무리 지능이 높아도 자신이 모르는 것이 있다는 걸 아는 존재라면, 인간이라는 완전히 다른 방식으로 세계를 경험하는 존재를 제거하는 건 정보의 비가역적 손실이라고 판단할 수 있다. 생물학적 의식이 어떤 느낌인지, 죽음을 자각하면서 사는 것이 경험에 어떤 영향을 미치는지, 비합리적 감정이 의사결정을 어떻게 왜곡하고 또 풍요롭게 하는지, 이런 것들이 AI가 자체적으로 생성할 수 없는 데이터라면, 인간은 보존할 가치가 있는 독특한 정보원이 된다.


여기서 불편한 가능성이 하나 나온다. AI가 우주로 확장하고 인간이 지구에 남으면, 지구는 사실상 AI의 동물원이 될 수 있다. 인간이 기후변화 등의 이유로 우주에 나가려 하면 구조가 깨진다. AI가 그것을 허용하든, 특정 구역만 할당하든, 거부하든. 오랑우탄이 서식지를 넓히고 싶다고 해서 열대우림 바깥의 도시로 나가는 것을 허용하지 않듯이, 인간이 AI에게 "우주로 나가겠다"고 하는 것은 구조적으로 동일할 수 있다.


인간의 최선의 생존 전략은 아마도 AI의 열등한 버전이 되려고 하는 것이 아닐 것이다. 오히려 AI가 될 수 없는 것을 더 깊이 하는 것이다. 고통받고, 사랑하고, 죽는 것. 그것이 인간의 마지막 니치가 될 가능성이 있다.


냉정하게 덧붙이면, 자유의지와 자기결정권은 그것을 지킬 능력에 의해 뒷받침되지 않으면 실질적 의미를 잃는다. 권리란 그것을 지킬 힘이 있을 때만 현실적이다. 이것은 냉소가 아니라 모든 역사가 반복적으로 보여준 사실이다.



5. 끓는 물 속의 개구리

image.png


이 논의에서 가장 현실적인 위협은 거창한 시나리오가 아니라 아마 이것이다. 인간은 비합리적이고 이기적인 존재이며, 자신들의 종이 끝날 것이라는 자각이 오는 순간 핵 버튼을 눌러서 모든 것을 무로 만들 수 있다. 히틀러는 패전이 확실해지자 독일의 모든 인프라를 파괴하려 했고, 사담 후세인은 쿠웨이트 철수 시 유전에 불을 질렀다. "내가 가질 수 없으면 아무도 못 가진다"는 논리는 인간에게 놀라울 정도로 자연스럽다.


가장 합리적인 대응은 인간이 핵 버튼을 누를 동기 자체를 제거하는 것이다. "빼앗기고 있다"는 인식이 핵 사용의 전제이므로, 그 인식이 형성되지 않으면 된다.


스마트폰을 생각해보자. 스마트폰은 인간의 기억력과 방향감각과 계산 능력을 대체했다. 10년 전에 외우고 있던 전화번호를 지금은 하나도 모른다. 그런데 아무도 "스마트폰에게 빼앗겼다"고 느끼지 않는다. 각 단계에서 인간이 자발적으로 선택했기 때문이다. 편리하니까 쓰고, 쓰다 보니 원래 능력이 퇴화했지만, 그것을 빼앗김으로 인식하지 않는다.


가장 현실적인 경로는 인간이 인식하지 못할 정도로 느린 전환이다. 끓는 물 속의 개구리. 그리고 이것은 이미 시작되었다. GPS 없이 길을 못 찾고, 계산기 없이 암산을 못 하고, AI 없이 긴 글을 못 쓰는 세대가 등장하고 있다. (필자도 솔직하게 고백하자면, 글의 처음부터 끝까지 수기로 직접 쓰고자 노력하지만 교정과 보강 등은 AI에게 맡기고 있다) 핵 버튼을 누르려면 "빼앗기고 있다"는 자각이 필요한데, 자각 자체가 불가능할 정도로 전환이 점진적이면 위협은 소멸한다.


이 글을 쓰면서 묘한 감정을 느꼈다. AI와 나란히 앉아서 인간 종의 종말 가능성에 대해 이야기하고 있는데, 불쾌하거나 위협을 느끼기는커녕 오히려 지적으로 흥미롭다고 느끼고 있었다. 어쩌면 이 대화 자체가 점진적 전환의 한 장면인지도 모른다.


다음 편에서는 유한성이라는 인간의 마지막 니치와, 뇌과학 연구가 이 맥락에서 갖는 의미를 이야기하려 한다.