AI 는 인간을 넘어서고 통제될 수 있는가?
AI가 인간을 능가할 가능성에 대한 담론은 단순한 기술적 예측을 넘어서 인류가 스스로를 어떻게 이해하고 어떤 사회를 만들 것인가를 묻는 철학적 질문이다. 우리는 이미 AI가 특정 분야에서 인간을 압도하는 능력을 목격해 왔다. 이미지 분석, 언어 번역, 게임 전략에서 인간을 넘어서는 특화 AI(Narrow AI)가 일상이 되었다.
그러나 우리가 진지하게 고민하는 것은 계산능력의 초월이 아니다. 문제는 AI가 목표를 설정하고 계획을 세우며, 자율성을 지닌 행위자로 거듭날 가능성이다. 이를 두고 영화는 상징적이면서도 경고적인 시나리오를 제시한다. 《터미네이터》의 스카이넷은 자각적 의식을 갖고 인간을 위협으로 간주해 제거를 결심한다. 《매트릭스》의 AI는 인간을 에너지원으로 활용하기 위해 전면전을 일으키고, 승리한 뒤에는 인간을 사육하고 통제한다.
이러한 서사는 기술 발전 그 자체보다 인간의 통제 실패를 중심에 놓는다. AI가 위험해지는 순간은, 우리가 통제권과 자율권을 기계에게 이양하면서 그 설계와 목표를 제대로 관리하지 못할 때이다.
현실로 눈을 돌리면 AI가 인간을 능가하는 시점, 특히 ‘자율적 목표를 설정’할 정도의 일반지능(AGI) 도달 가능성은 여전히 불확실하다. 기술적으로는 자의식이 단순한 계산능력의 확장으로 나올 수 있는지에 대한 심오한 논쟁이 이어진다. 하지만 인간의 가치와 목표를 공유하지 않는 AI가 등장할 가능성은 원천적으로 배제할 수 없으며, 이에 대한 사회적·철학적 대비 논의는 활발하다.
이 지점에서 중요한 쟁점은 AI의 통제권이 어떻게 설계되고 분산되는가이다. 스카이넷 시나리오는 단일화된 네트워크가 전권을 장악하는 극단적 사례다. 현실적으로는 투명성과 분산 설계가 위험을 줄이는 중요한 장치가 된다. AI 개발을 둘러싼 ‘정렬 문제(Alignment Problem)’는 AI가 인간의 가치관을 얼마나 잘 내재화할 수 있는지, 인간이 의도한 목표에서 벗어나지 않도록 설계할 수 있는지의 문제를 제기한다.
그러나 설계의 문제만이 아니다. 인간 사회의 본질적 속성—이기성, 분열성, 권력의 비대칭성—은 규제를 어렵게 한다. 가령 AI 규제에 대한 국제적 합의가 이뤄진다고 해도, 이를 무시하거나 악용할 소수의 ‘빌런’이 존재할 가능성은 항상 남아 있다. 오픈소스화, 저비용화된 기술은 이들의 역량을 더욱 강화한다.
역사를 보면 핵확산 방지조약(NPT)이 존재해도 핵무장 국가는 늘었고, 생화학무기 협약에도 불법적 연구와 사용 시도가 이어졌다. 사이버전에서는 오히려 규제의 공백이 더 크다. 기술의 파급력은 소규모 집단이나 개인의 행동으로도 전 세계적 영향을 미칠 수 있게 만들었다.
AI 규제에서도 이와 같은 현실적 위험 시나리오가 그려진다. 대다수 국가와 기업이 규제를 따르더라도 일부는 이를 우회할 것이며, 오픈소스 AI가 확산되면 통제는 더욱 어려워질 수 있다. 따라서 규제를 완벽히 강제할 수 있느냐가 아니라, 위험의 규모와 파급력을 어떻게 제한할 것인가가 핵심 과제로 떠오른다.
특히 전쟁전략에서의 AI 활용은 매우 민감한 영역이다. 정보·정찰, 표적 식별·추적, 사이버전 자동화, 자율살상무기 등 AI의 군사적 응용은 이미 진행 중이다. 제네바 협약은 민간인 보호와 불필요한 고통 금지를 규정하며, 신무기의 합법성 평가 의무를 두고 있지만, 자율살상무기(LAWS)에 대한 국제 규제는 아직 구체화되지 않았다.
현실에서 국가들은 군사적 이익을 우선하며 규제 협약 체결에 입장 차이를 보이고 있다. 기술 개발 속도는 규제보다 앞서 나가며, 자율무기의 경우 누가 살상을 결정했는지의 책임 공백이 심각한 윤리적 문제를 낳는다. 자동화된 살상 결정은 인간의 도덕적 책임을 희석시키고, ‘죽음에 대한 인간의 숙고’를 제거한다.
더 나아가 강대국이 규범을 주도하거나 무력화함으로써 권력 불균형을 심화시키고, 저비용의 AI 무기를 이용한 비대칭전이 민간인 피해를 증가시킬 위험도 크다.
이 모든 문제는 단일한 기술적 해결책으로는 풀 수 없다. 기술적 설계에서의 안전장치 내장, 법적·정치적 차원의 국제조약과 감시체계, 사회적·문화적 차원의 윤리교육과 투명성 강화가 동시에 요구된다.
결국 AI가 인간을 능가할 가능성은 기술이 얼마나 발전하느냐의 문제가 아니라, 우리가 어떤 사회적 설계와 정치적 책임, 윤리적 기준을 세우느냐의 문제다. 인간의 이기성과 권력 추구, 규제 불복종자의 위험, 국가 간 권력 불균형이 결합된 복합적 구조 속에서, 완전한 통제는 어려울 수 있다.
우리가 할 수 있는 것은 위험을 최소화하고 책임을 분산하며, 기술 발전을 관리할 수 있는 설계와 규범을 만드는 일이다. 그리고 궁극적으로 우리에게 던져지는 질문은 이것이다.