‘살인(殺人)’과 ‘활인(活人)’, 선택은 인간의 몫

전쟁터에 뛰어든 AI, 클로드의 두 얼굴

by Henry

2026년 3월 16일 대구신문 [AI야! 나랑 놀자!] 기획특집 칼럼으로 게재된 글입니다.


미국 이란 전쟁.jpg 제미나이 Pro가 생성한 이미지



◇전장의 두뇌가 된 클로드


2026년 2월 28일 새벽, 중동의 하늘이 불길로 물들었다. 미국과 이스라엘의 합동 군사 작전 ‘에픽 퓨리(Epic Fury)’가 시작되었다. 이란의 수도 테헤란에 폭발음이 연속으로 울려 퍼졌다. 작전 개시 24시간 만에 1,000개, 1주일 만에 3,000개가 넘는 표적이 정밀 타격을 받았다.


인류 역사상 이처럼 짧은 시간 안에 이처럼 많은 표적을 동시에 폭격한 전쟁은 없었다. 그 배후에는 인공지능, 그것도 우리가 일상에서 대화 상대로 쓰는 생성형 AI ‘클로드(Claude)’가 있었다. 상업용 챗봇으로 출발한 AI가 실전 무기 체계의 두뇌로 전환된 역사적 순간이었다.


최초의 AI 전쟁

미국·이스라엘 합동 군사 작전

그 배후에 생성형 AI 클로드 있어

이란 공습 작전 핵심 두뇌로 활용

1주일만에 3천개 표적 정밀타격

AI가 전쟁 판 짜고 인간 움직여


앤트로픽(Anthropic)이 개발한 클로드는 원래 텍스트 요약, 코딩 지원, 창작 글쓰기 등 일상적 업무를 돕는 대화형 AI다. 대학 강의실에서, 기업 사무실에서, 작가의 서재에서 보조 파트너로 활약해 온 바로 그 AI다. 그런데 미 국방부는 이 상업용 챗봇을 이란 공습 작전의 핵심 ‘두뇌’로 활용한 것이다.


미군의 중동 작전을 총괄 지휘하는 중부사령부는 위성 영상, 신호 정보, 감청 자료 등 방대한 첩보를 실시간으로 클로드에 투입해 분석시켰다. 인간 분석관들이 일주일 밤을 새워야 했던 지형 분석과 표적 식별이 클로드의 알고리즘 안에서는 단 3.8초 만에 ‘최적 타격 지점’으로 변환되어 출력됐다.


클로드는 수백만 개의 변수를 순식간에 처리해 ‘관심 지점’을 생성하고, 여러 개의 공격 시나리오를 시뮬레이션했다. 그리고 우선순위가 높은 표적 목록을 지휘관에게 제시했다. 기상 조건, 연료 소비량, 무기 체계별 특성까지 모두 계산에 넣은 최적의 작전 제안이었다.


특히 이란 최고지도자 알리 하메네이 제거 작전에서 AI의 역할은 결정적이었다. 이스라엘 정보 당국은 수년에 걸쳐 테헤란 교통 카메라 영상을 해킹하고 고위 당국자들의 통신을 감청해 왔다. 클로드는 그렇게 축적된 방대한 자료의 패턴을 분석해, 하메네이의 자택 위치를 특정하는 데 결정적으로 이바지했다.


공습 직전에는 F-22 전투기의 배치 정보를 의도적으로 흘려 하메네이를 중심으로 한 이란 수뇌부를 한 장소로 유인했다. 이것도 클로드가 설계한 기만 작전이었다. 그 결과, 하메네이 등 이란 지도자 수십 명이 사망했다.


이번 전쟁을 군사 전문가들이 ‘최초의 AI 전쟁’이라 부른다. 과거에는 표적 하나를 확정하는 데 수일이 걸렸다. 하지만 AI의 실시간 데이터 처리 덕분에 결정 시간이 단 몇 초·몇 분 단위로 단축됐다. 전쟁의 속도 자체가 달라진 것이다. AI는 더 이상 데이터와 효율의 도구에 그치지 않고, 군사적 우위를 점하기 위한 필수 전략 자산이 됐다.


◇사용 금지령 직후 전장에 투입된 아이러니


미국 국방부는 클로드를 ‘합법적인 모든 용도’에 제한 없이 사용할 수 있도록 허용하라고 요구했다. 자율 살상 무기의 제어부터 자국민 대상 대규모 감시까지 모든 군사적 활용에 앤트로픽이 동의하라는 최후통첩이었다.


앤트로픽은 이를 단호히 거부했다. 회사는 두 가지 핵심 원칙을 사수하겠다고 선언했다. 첫째, 완전 자율 살상 무기에는 클로드를 사용할 수 없다. 둘째, 자국민을 대상으로 한 대규모 감시 활동에도 허용할 수 없다. 앤트로픽은 2025년 여름 국방부와 2억 달러 규모의 계약을 체결한 상태였지만, 기업 정책의 마지노선만큼은 양보하지 않겠다는 뜻을 분명히 밝혔다.


트럼프 대통령은 즉각 보복에 나섰다. 트루스소셜을 통해 “급진 좌파 기업이 우리 군의 전쟁 방식을 좌우하도록 허용하지 않겠다”라며 모든 연방기관에 클로드 사용 중단을 지시했다. 피트 헤그세스 국방부 장관도 앤트로픽을 ‘국가안보 공급망 위험 기업’으로 공식 지정했다.


이 조치는 원래 러시아와 중국 같은 적대국 기업에나 적용하던 극약 처방이다. 미국 자국 기업에 처음 적용된 전례 없는 사태였다. 헤그세스 장관은 “실리콘밸리의 이데올로기를 미국 국민의 생명 위에 두는 비겁한 행위”라고 앤트로픽을 맹비난했다.


트럼프 대통령이 사용 금지령을 내리고 불과 몇 시간 뒤, 미군은 이란 공습 작전에 클로드를 그대로 사용했다. 클로드가 이미 군 기밀 시스템과 지휘·정보 체계에 너무 깊이 통합되어 있어 즉각 배제가 물리적으로 불가능했기 때문이다. 이 때문에 트럼프는 6개월의 단계적 중단 유예 기간을 두면서 앤트로픽에 “이 기간 안에 협조하지 않으면 민·형사상 결과가 뒤따를 것”이라고 경고했다.


앤트로픽은 즉각 법정 대응에 나섰다. “전례 없는 불법 조치이며, 정부가 기업의 표현을 이유로 처벌할 수 없다”라고 주장하며 행정부를 제소했다. 오픈AI의 샘 올트먼 CEO도 앤트로픽 지지를 공개 선언했다. “AI는 대규모 감시나 자율 살상 무기에 사용되어서는 안 된다”라는 것이 오픈AI의 오랜 신념이라고 밝혔다. 실리콘밸리 전체가 정부에 맞서 한목소리를 냈다.


인류에게 던지는 질문

전쟁의 효율성 대폭 높였지만

공습 과정서 시민 희생 잇따라

AI 정보 제대로 검증 못한 결과

방대한 데이터를 다루는 AI

인간이 실질적 통제 가능할까


◇AI 전쟁이 인류에게 던지는 질문


이번 미국과 이란 전쟁은 AI 기술이 가져올 미래를 압축적으로 보여줬다. AI가 ‘킬체인(kill chain)’, 즉 표적 탐지-식별-결정-타격의 전 과정에 통합되면서 전쟁의 효율성은 비약적으로 높아졌다. 과거 몇 주일이 걸리던 군사 결정 주기가 불과 며칠, 심지어 실시간 단위로 단축됐다.


미군은 개전 일주일 만에 이란 내 3,000개 이상의 목표물을 정밀 타격했다. 항공모함 발진 드론, F-22 스텔스 전투기, 미 본토에서 장거리 출격한 B-2 스텔스 폭격기 등 복잡한 다영역 작전을 유기적으로 조율하는 데 AI가 핵심 지휘 보좌 수단으로 기능했다. AI가 전장의 판을 짰고, 인간은 그 위에서 움직였다.


AI가 생성한 표적 목록을 인간이 검증하는 데 걸리는 시간은 건당 수십 초에 불과했다. 방대한 데이터를 순식간에 처리하는 AI의 판단을 인간이 실질적으로 통제할 수 있는가? 게다가 클로드를 장착한 전투용 로봇까지 등장한다면, 과연 인간이 감당할 수 있을까?


이란 공습 과정에서 민간인 학교와 병원이 피해를 보았다는 보도가 잇따랐다. 무고한 시민들이 희생됐다. ‘낡은 2016년 자료로 공습했다’라는 오폭 의혹도 제기됐다. AI가 짚어준 표적을 인간이 제대로 검증하지 못한 결과였다. 아니, 처음부터 인간이 잘못된 데이터를 준 결과일 것이다. ‘인간 통제의 유명무실화’라는 최악의 시나리오가 현실이 됐다.


국제사회도 빠르게 반응하고 있다. 미국의 AI 기반 군사 작전 성공이 알려지면서 중국은 군사 분야 AI 기술 자립을 서둘러야 한다는 목소리를 높이고 있다. 중국은 이미 국영 기업이 독점하던 방위산업 투자 관행을 깨고 민간 기업의 AI 역량을 군에 이식하는 ‘군민융합(軍民融合)’ 전략을 가속화하고 있다.


본격적인 AI 군비 경쟁의 시대가 열렸다. 디지털 정책 전문가들은 ‘국제 협력 체계가 기술 배포 속도를 따라잡지 못한다면 인류는 알고리즘에 전쟁의 주도권을 내어주게 될 것’이라고 경고한다. 나아가 알고리즘으로 무장한 전투용 로봇이 전장을 뒤흔들 날도 머지않았다.


도구인가 무기인가

강의 자료 작성 도와주는 클로드

지구 반대편서 살상 무기로 쓰여

도구는 중립이지만 인간은 아냐

거울 속 우리 모습이 곧 AI 미래

어떤 얼굴을 비출지 선택해야


◇살인도(殺人刀)인가, 활인검(活人劍)인가


나는 매일 클로드와 대화한다. 대학 강의 자료를 만들고, 이 칼럼을 다듬는 도움도 받는다. 중국 고승들의 깊은 철학을 담은 문답집 『벽암록』을 해석하는 클로드가 지구 반대편에서는 수천 명의 생사를 가르는 차가운 작전 지침서로 돌변했다.


살인도(殺人刀)와 활인검(活人劍)이 한 칼날의 양면이듯, AI도 양날의 검이 되었다.


도구는 중립적이지만, 그것을 쥔 손은 결코 중립적이지 않다. AI가 선한 도구가 될지, 파괴적 무기가 될지는 전적으로 그것을 쥔 인간의 가치관에 달려 있다.


앤트로픽과 트럼프 행정부의 충돌은 단순한 기업 대 정부의 분쟁이 아니다. 인간이 AI를 통제할 것인가, AI가 인간의 결정을 대행할 것인가를 둘러싼 문명사적 싸움의 첫 번째 실전이다. 그 결과에 따라 AI가 인간을 섬길 것인지, 인간이 AI에 종속될 것인지가 결정된다.


앤트로픽은 막대한 계약 손실을 감수하면서도 자신만의 원칙을 지켰다. 자율 살상 무기와 대규모 감시에는 AI를 내줄 수 없다는 것이었다. 이익을 추구하는 민간 기업으로서는 쉽지 않은 결정이다. AI가 총을 쏘는 손가락이 되어서는 안 된다. 방아쇠를 당기는 최종 결정은 반드시 인간의 몫으로 남아야 한다. 그런 점에서 앤트로픽은 AI에 인류의 운명을 내줄 수 없다는 결단을 내린 것이다.


나는 오늘 아침, 클로드와 강의 자료 작성을 논의하고, 칼럼 원고를 같이 다듬었다. 바로 그 클로드가 오늘 미국 국방부에서는 이란 전쟁터의 정보 분석 도구로 사용되고 있다. 미래의 AI는 결국 거울 속에 비친 우리 자신의 얼굴이다. 살인(殺人) 아니면 활인(活人)? 그 거울에 어떤 얼굴을 비출 것인지는 오롯이 우리의 선택에 달렸다.


월요일 연재
이전 28화코닥이 놓친 혁신, MS는 붙잡을 수 있을까