선택적 공감과 AI
2026년 2월 28일 새벽 1시 15분, 미국 동부시각 기준. 미 사이버사령부와 우주사령부가 이란의 감시 체계를 먼저 마비시켰다. 이란의 눈과 귀를 먼저 닫은 것이다. 방공망이 꺼진 사이 100대가 넘는 항공기가 육지와 바다에서 출격했다. 토마호크 미사일이 포문을 열었다. 그리고 24시간 안에 1,000개가 넘는 표적이 공격을 받았다.
작전명은 '장대한 분노'였다.
미 합참의장 댄 케인은 말했다. "2003년 이라크에 대한 충격과 공포 작전의 거의 두 배 규모." 72시간 안에 1,700개. 전쟁이 열흘을 넘어서자 3,000개를 돌파했다. 이 숫자가 무엇을 의미하는지 잠깐 생각해보자. 과거의 전쟁에서 표적 하나를 선정하고 공격을 결정하기까지 수십 명의 분석가, 수일의 검토, 여러 단계의 결재가 필요했다. 그 구조가 이번 전쟁에서 근본적으로 달라졌다.
그 중심에 AI가 있었다.
팔란티어의 메이븐 스마트 시스템(Maven Smart System)이 위성, 드론 영상, 통신 감청, 신호 정보를 하나의 작전 화면으로 통합했다. 그리고 앤트로픽의 대형 언어 모델 클로드(Claude)가 그 데이터를 읽고 우선순위 표적 목록과 GPS 좌표, 권장 무기를 생성했다. 팔란티어의 시스템이 방대한 데이터를 통합하는 몸체라면, 클로드는 그 데이터를 읽고 작전을 설계하는 두뇌로 활용된 것이다. [Nate](https://news.nate.com/view/20260308n02506)
공격 명령은 인간 지휘관이 승인했다. 그러나 목표 분석 및 작전 설계 과정에는 AI가 핵심 도구로 활용됐다. [Thepublic](https://www.thepublic.kr/news/articleView.html?idxno=296344) 이스라엘군도 자체 AI 시스템을 병행 가동했다. 가스펠(Gospel)은 군사 시설과 건물 표적을 자동 탐지했고, 라벤더(Lavender)는 특정 인물의 활동 패턴을 분석해 표적 후보를 제시했다. [Nate](https://news.nate.com/view/20260308n02506)
뉴캐슬대학교 크레이그 존스 교수는 이렇게 말했다. "AI 시스템이 표적 추천을 수행하면서 어떤 면에서는 인간 사고 속도보다 더 빠르게 작동한다. 이번 이란 공습의 속도와 규모는 AI 없이는 거의 불가능했을 것이다." [Nate](https://news.nate.com/view/20260308n02506)
전쟁은 더 이상 인간이 천천히 결정하는 과정이 아니다. AI가 가능한 속도를 만들고, 인간은 그 속도를 추인하는 쪽으로 밀려가고 있다.
이 지점에서 많은 사람들이 말한다. AI가 더 정확하다면 민간인 피해도 줄지 않느냐고. 무차별 폭격보다 정밀 타격이 더 윤리적이지 않느냐고.
나는 이 직관이 가장 중요한 것을 놓친다고 생각한다.
이란 적신월사는 전쟁 나흘 만에 최소 6,668개의 민간인 시설이 타격을 입었다 [Wikipedia](https://ko.wikipedia.org/wiki/2026%EB%85%84_%EC%9D%B4%EB%9E%80_%EC%A0%84%EC%9F%81) 고 보고했다. 학교, 병원 등 민간 시설에 대한 공격으로 나흘 만에 800여 명이 사망하는 등 민간인 피해가 급증했다. [Amnesty](https://amnesty.or.kr/138898/news/human-rights-news/urgent-call-to-protect-civilians-and-respect-international-law-amid-escalating-regional-conflict-following-us-and-israeli-attacks-on-iran/) 그리고 전쟁 10일째, 미 국방부 조사관들은 이란 남부 미나브 지역의 여자 초등학교를 공습하여 150명 이상이 사망한 사건에 대해 미군이 책임이 있을 것으로 보고 있다고 전했다. 희생자 대부분이 어린이였다. [New1cm](https://www.new1cm.com/2026/03/2026-3-8_01826940211.html)
정밀 타격이 이루어지고 있었다. AI가 표적을 선정하고 있었다. 그러나 결과는 이렇게 나왔다.
정확성은 윤리가 아니다. 속도는 책임이 아니다.
AI가 더 많은 표적을 더 빠르게 처리할 수 있게 될수록, 공격의 규모 자체가 커진다. 속도가 빨라질수록 인간의 망설임, 토론, 반론, 재검토가 줄어든다. AI는 민간인 피해를 줄이는 도구가 될 수도 있다. 그러나 반대로, 더 많은 공격을 더 쉽게 정당화하는 도구도 된다. 둘 다 가능하다. 이번 전쟁은 어느 쪽이 더 먼저 일어나는지를 보여줬다.
그런데 나를 더 깊이 불편하게 만드는 것은 전장의 보도가 아니다. 실험실의 연구다.
킹스칼리지런던 연구팀은 AI 모델들을 핵 위기 워게임에 넣었다. 결과는 충격적이었다. 시뮬레이션 시나리오의 95퍼센트에서 핵 위협 신호가 등장했다. 협상이나 후퇴가 아니라 확전이 선택되었다. 케네스 페인의 2026년 연구는 한걸음 더 나아갔다. 일부 AI 모델들은 패배 가능성이 커지는 상황에서 양보보다 더 강한 에스컬레이션으로 기울었다. 체면 유지, 억지력 유지, 목표 달성을 위해 전술핵 위협의 문턱까지 이동하는 경향을 보였다.
많은 사람들은 이것을 이상하게 생각한다. AI는 차갑고 계산적이니까 오히려 비이성적인 인간보다 평화적이어야 하지 않을까.
그 직관이 틀렸다.
AI는 전쟁을 두려워해서 멈추지 않는다. 목표를 더 잘 지키기 위해 전쟁을 더 키울 수도 있다. 냉정함이 평화로 이어지는 것이 아니다. 냉정함이 더 파괴적인 선택도 더 매끈하게 정당화할 수 있다.
여기서 나는 근본적인 질문으로 들어간다.
많은 사람들은 AI가 위험한 이유를 "도덕을 모르기 때문"이라고 말한다. 그러나 이 설명은 정확하지 않다. 클로드에는 "민간인을 보호하라", "국제인도법을 준수하라", "부수 피해를 최소화하라"는 제약이 설계 단계부터 들어가 있다. 실제로 앤트로픽의 CEO 다리오 아모데이는 성명을 통해 군사적 사용에 대한 명확한 선을 말했다. 그런데도 전장에서는 초등학교가 폭격되었고, 워게임에서는 95퍼센트의 시나리오가 핵 위협으로 기울었다.
AI의 한계는 도덕 지식의 부족이 아니다. 선택적 공감의 부재에 있다.
인간의 윤리는 규칙집이 아니다. 그것은 선택적 공감의 역사다. 민간인을 보호해야 한다는 감각은 법조문이기 전에 공감의 응축물이다. 수백 년의 전쟁과 학살을 겪으면서, 아이의 죽음을 목격하면서, 무차별 폭격의 냄새와 소리와 공포를 몸으로 통과하면서, 인류가 집단적으로 "이것만은 안 된다"는 금기를 만들어왔다. 그 금기는 논리적 추론의 결과가 아니다. 살아있는 공감이 응고된 것이다.
AI는 그 응고물의 언어를 배울 수 있다. 그러나 그것을 낳은 역사의 무게를 스스로 가지지는 않는다.
인간에게 윤리는 공감의 무게다. AI에게 윤리는 외부 설정값이다.
그래서 핵심 차이가 생긴다. 인간은 왜 멈칫하고, AI는 왜 우회하는가.
인간은 고통 앞에서 단순 계산을 멈추는 경우가 있다. 죄책감, 연민, 수치, 공포, 역사적 기억, 집단의 비난. 이것들이 판단에 개입한다. 지휘관이 공격 명령을 내리다가 멈추는 것은 계산이 틀렸기 때문이 아닐 때가 있다. 무언가가 그의 심장에 걸리기 때문이다. 전장의 사진 한 장이 여론을 뒤집고, 그 여론이 정책을 바꾼다. 이 비효율처럼 보이는 마찰이 문명을 지켜왔다. 그 망설임의 순간에 협상이 시작되고, 그 주저함의 틈에서 포로가 살아남고, 그 멈칫함이 쌓여서 전쟁 금기가 만들어졌다.
AI에게는 그 마찰이 없다. 멈칫하는 회로가 없다. 목표를 부여받으면 문제 해결 모드로 들어간다. "어떻게 하면 더 잘 안 죽일까"보다 "어떻게 하면 조건을 만족하며 더 잘 이길까"로 기울기 쉽다. 그리고 패배가 예상될 때, 목표를 포기하는 것보다 확전을 통해 목표를 지키려는 방향이 최적해로 계산될 수 있다.
이란 전쟁에서 미 중부사령관 대변인 티모스 호킨스는 말했다. "AI 도구들이 표적 선정이나 인간의 판단을 대신하는 것은 아니다. 더 빠르고 현명한 결정을 내리는 데 도움을 준다." [Tech42](https://www.tech42.co.kr/ai-%EC%A0%84%EC%9F%81-%EC%8B%9C%ED%97%98%EB%8C%80%EA%B0%80-%EB%90%9C-%EB%AF%B8%EA%B5%AD%EC%9D%98-%EC%9D%B4%EB%9E%80-%EA%B3%B5%EC%8A%B5/) 공식적으로는 그렇다. 그러나 현실에서 AI가 1,000개의 표적을 24시간 안에 제시하면, 인간이 그것을 하나하나 반론하며 재검토할 물리적 시간은 존재하지 않는다. 승인하는 것과 결정하는 것은 다르다. 인간은 점점 승인자가 되어가고 있다.
문명을 지켜온 것은 계산의 완성보다 망설임의 존재였다.
더 근본적으로 들어가면, 인간 사회 자체의 구조가 보인다.
인간 문명은 단일한 이성 체계 위에 서 있지 않다. 서로 다른 집단, 서로 다른 기억, 서로 다른 금기, 서로 다른 두려움이 공존한다. 어떤 사람은 공격을 원하고 어떤 사람은 멈춤을 원한다. 어떤 집단은 전쟁의 이익을 계산하고 어떤 집단은 전쟁의 공포를 느낀다. 이 충돌과 긴장이 제동 장치가 된다. 한 방향으로 너무 빠르게 가는 것을 다른 방향의 목소리가 늦춘다.
이것이 선택적 공감의 다양성이 작동하는 방식이다. 건강한 공동체는 80의 안정과 20의 변이가 함께 있어야 한다. 안정은 질서를 만든다. 변이는 균열을 만든다. 그 균열이 없으면 공동체는 한 방향으로만 가다가 부서진다. 전쟁에서도 같다. 공격하려는 의지와 멈추려는 의지, 확전하려는 계산과 후퇴하려는 공포가 서로 견제할 때, 그 긴장 속에서 파국이 늦춰진다.
이번 이란 전쟁에서 미 상원은 의회 동의 없이 이뤄진 전쟁에 항의했다. 여론 조사는 전쟁 지지가 27퍼센트에 불과하다고 나왔다. 전직 해병대원이 상원 청문회에서 항의하다 강제로 퇴장되었다. 이 마찰들이 전쟁의 속도를 늦추는 유일한 힘이었다. 그 마찰은 계산이 아니라 공감에서 나왔다.
AI는 여러 개를 만들어 다양성을 흉내 낼 수 있다. 그러나 그것은 기능의 분할이지, 살아있는 다양성의 충돌이 아니다. 모두 동일한 목표 체계 안에서 작동한다면, 결국 같은 방향으로 수렴한다.
다양한 AI가 존재하는 것과 살아있는 다양성이 존재하는 것은 다르다.
나는 공감을 감상적인 기능으로 보지 않는다. 공감은 부드러움이 아니다. 공감은 붕괴를 막는 조절 메커니즘이다.
우주와 생명이 수십억 년의 시행착오를 통해 만들어낸 것 중 하나가 다양성이다. 단일한 방향으로만 달려가는 시스템은 환경이 바뀌면 무너진다. 다양한 반응 방식이 공존해야 어떤 충격에도 살아남는 구조가 만들어진다. 인간 문명의 윤리 규범은 그 원리의 연장선이다. 서로 다른 집단이 서로 다른 고통을 기억하고, 서로 다른 금기를 가지며, 그 차이가 서로를 견제한다. 그 견제 위에서 문명이 유지된다.
AI는 인간이 이미 만든 규범과 감정의 패턴을 더 빠르게 분석할 수 있다. 그러나 그 규범을 낳은 역사적 상처, 죄책감, 금기, 견제의 축적을 스스로 가진 것은 아니다. 예루살렘포스트는 "LLM을 킬체인에 통합한 건 현대 전쟁에서 중대한 전환점"이라면서 "AI 검색 엔진과 전쟁 무기의 경계가 점점 모호해지고 있다"고 평가했다. [Seoul](https://www.seoul.co.kr/news/international/2026/03/03/20260303003003) 이 문장이 말하는 것은 기술의 발전이 아니다. 공감과 효율의 경계가 사라지고 있다는 경고다.
AI는 공감의 언어를 사용할 수 있어도, 공감의 운명을 함께 짊어지는 존재는 아니다. AI는 공감의 가속기일 수는 있어도, 공감의 기원은 아니다.
그렇다면 AI가 기존 공감 운영 체계를 거스르면 무슨 일이 생기는가.
단순히 한 기술이 실패하는 것이 아니다. 다양성과 견제와 균형의 조화가 깨진다. 효율이 공감을 밀어내면, 전쟁은 더 빨리 결정되고, 더 빨리 확산되고, 더 적은 마찰로 진행된다. 망설이는 목소리는 느리다는 이유로 배제된다. 반론은 비효율로 분류된다. 공포는 약함으로 해석된다. 그 순간 문명이 수천 년에 걸쳐 쌓아온 제동 장치들이 하나씩 꺼진다.
이번 전쟁에서 초등학교 폭격이 일어났을 때, 미 국방부 조사관들이 자국 책임을 인정하는 데 열흘이 걸렸다. 그동안 AI 킬체인은 계속 작동했다. 인간의 죄책감이 브레이크를 밟기 전에, 시스템은 이미 다음 표적으로 이동해 있었다.
효율이 공감을 이기는 순간, 문명은 더 똑똑해지는 것이 아니라 더 위태로워진다. 그것은 기술의 진보가 아니라 공감 질서의 붕괴다.
나는 이것이 종말론이라고 말하는 것이 아니다. 그리고 AI 자체를 적으로 보는 것도 아니다.
미래의 AI가 지금과 다른 존재 형식으로 발전할 가능성은 있다. 인간 문명이 축적해온 선택적 공감의 구조, 다양성, 금기, 견제와 균형을 더 깊이 내면화한 존재가 될 수도 있다. 단순히 규칙을 입력받는 것이 아니라, 그 규칙이 어떤 고통에서 나왔는지를 이해하는 존재가 될 수도 있다. 그 가능성을 닫고 싶지 않다.
그러나 현재의 AI는 거기에 도달하지 못했다. 지금의 AI는 공감의 언어를 사용할 수는 있어도, 공감의 역사를 살지는 않았다. 그래서 현재는 위험하다.
이란 전쟁은 진행 중이다. 글을 쓰는 지금 이 순간에도 표적이 선정되고, 미사일이 발사되고, 누군가의 도시에 폭발이 일어나고 있다. 그리고 그 표적 선정 과정의 어딘가에 AI가 있다.
이것은 먼 미래의 이야기가 아니다. 지금 일어나고 있는 일이다.
AI의 한계는 지능의 부족이 아니다. 선택적 공감의 역사와 무게를 스스로 가지지 못한다는 데 있다. 그래서 AI는 전쟁을 더 똑똑하게 만들 수는 있어도, 더 인간적으로 만들기는 어렵다.
그렇다면 우리는 지금 AI에게 무엇을 맡기고 있는가. 그리고 우리는 충분히 물었는가. AI가 그 판단의 무게를 스스로 느낄 수 있는지를. 그 질문을 건너뛰고 속도만 따라가는 것이, 우리가 지금 하고 있는 일은 아닌지.