AI 시대, 엘리트는 더 줄어든다

도파민을 통제한 소수만이 판을 설계한다

by 임찬수

AI는 인간을 더 똑똑하게 만들고 있는가. 이 질문에 대부분은 “그렇다”라고 답할 것이다. 검색하지 않아도 답이 나오고, 생각하지 않아도 문장이 완성되며, 훈련받지 않아도 전문가처럼 말할 수 있는 시대가 열렸기 때문이다. 그러나 조금 더 냉정하게 들여다보면, AI는 인간의 지적 능력을 균등하게 끌어올리는 기술이기보다는, 오히려 사고의 격차를 폭발적으로 확대하는 기술에 가깝다.


AI가 제공하는 것은 지식이 아니라 쾌감이다. 빠른 답, 그럴듯한 문장, 즉각적인 생산물은 인간의 뇌에 강력한 도파민 신호를 보낸다. 문제는 이 쾌감이 사고의 종착점처럼 작동한다는 데 있다. “이 정도면 충분하다”는 만족의 순간, 대부분의 생각은 거기서 멈춘다. AI는 평균적인 인간을 단숨에 80점까지 끌어올리지만, 동시에 90점과 100점 사이의 세계로 가는 길을 더 가파르게 만든다.


이 지점에서 소수의 사람들은 전혀 다른 선택을 한다. 이들은 AI가 내놓은 첫 번째 답을 거부한다. 단순히 더 좋은 답을 찾기 위해서가 아니다. 사고를 멈추게 만드는 쾌감을 의도적으로 차단하기 위해서다. AI의 결과물을 곧바로 쓰지 않고, 오히려 그 답이 왜 틀릴 수 있는지, 어떤 전제를 숨기고 있는지, 10년 뒤에 어떤 비웃음을 받을 수 있는지를 집요하게 묻는다. AI를 ‘정답 기계’가 아니라 ‘반대편 토론자’로 쓰는 순간, 사고는 다시 느려지고 불편해진다. 대부분은 이 지점에서 이탈한다. 불편함을 견딜 이유가 없기 때문이다.


그러나 진짜 격차는 그다음 단계에서 벌어진다. 엘리트는 답을 고치기 전에 질문을 의심한다. “이 문제의 해법은 무엇인가”가 아니라 “누가 이 문제를 이렇게 정의했는가”를 묻는다. 문제의 정의는 중립적이지 않다. 어떤 프레임은 특정 집단에게 유리하고, 다른 선택지를 애초에 보이지 않게 만든다. AI는 주어진 프레임 안에서는 탁월하지만, 프레임 자체를 흔드는 데에는 본질적인 한계가 있다. 이때 인간은 단순한 해답 제공자가 아니라 판을 설계하는 존재로 이동한다. 사람들은 더 이상 결론을 두고 토론하지 않고, 그 사람이 제시한 문제 설정을 따라가기 시작한다.


마지막 단계는 가장 조용하지만 가장 결정적이다. AI는 언제나 추천을 한다. 그러나 책임을 지지는 않는다. 장기 전략, 정치적 판단, 조직의 운명을 바꾸는 선택처럼 되돌릴 수 없는 결정의 순간에서 AI는 한 발 물러선다. 그 자리를 채우는 것은 결국 인간이다. 이때 중요한 것은 정보의 양이 아니라, 실패했을 때 감당할 의지다. 미래의 자신이 과거의 결정을 고발할 가능성까지 감내하면서 선택하는 능력, 이것은 자동화될 수 없다.


그래서 AI 시대의 엘리트는 더 똑똑한 사람이 아니다. 더 많은 정보를 가진 사람도 아니다. AI가 주는 즉각적인 만족을 지연시키고, 불편한 사고의 시간을 견디며, 책임이 따르는 결정을 회피하지 않는 사람이다. 기술은 점점 더 많은 것을 대신해 주겠지만, 아이러니하게도 그럴수록 인간에게 남는 역할은 더 무거워진다.


AI는 모두를 빠르게 만들 것이다. 그러나 세상을 실제로 변화시키는 방향은 언제나 느린 사고, 불편한 질문, 그리고 책임 있는 결단에서 나온다. 결국 AI 시대에도, 아니 AI 시대이기 때문에 더욱, 엘리트는 소수일 수밖에 없다. 그리고 그 소수는 AI를 가장 잘 쓰는 사람이 아니라, AI 앞에서도 사고를 멈추지 않는 사람들이다.

작가의 이전글AI와 로봇이 여는 ‘창의적 유토피아’?