AI는 중립적이지 않다

전쟁이 시작되자 드러난 것

by 이재희


2026년 2월 말, 미국과 이스라엘이 이란에 대한 군사 작전을 개시했다.

전쟁의 첫날, 단 24시간 동안 약 1,000개의 표적이 식별되고 타격됐다.
이 속도를 가능하게 한 것은 인간이 아니었다.


위성 사진, 신호 정보(SIGINT), 감시 데이터 등 방대한 정보를 실시간으로 분석해
표적 후보를 분류하고 GPS 좌표와 타격 우선순위를 정리한 것은 AI였다.


최근 보도에 따르면 이러한 분석 과정에 생성형 AI가 활용되었고,
일부 시스템에는 Anthropic의 AI 모델 Claude가 통합되어 있었다.


이 사건은 여러 매체에서
“생성형 AI가 실제 군사 작전에 대규모로 활용된 사례”로 언급됐다.

하지만 이 사건이 중요한 이유는
AI가 전쟁에 사용되었다는 사실 자체가 아니다.

더 중요한 것은 기업과 국가가 공개적으로 충돌했다는 점이다.


기업과 국가의 충돌


Claude를 개발한 AI 기업 Anthropic은 그동안
자사 AI가 다음 두 가지 용도로 사용되는 것에 강한 우려를 표명해 왔다.


첫째, 미국 시민을 대상으로 한 대규모 감시 시스템

둘째, 완전 자율 살상 무기

Anthropic은 이러한 사용을 제한하는 조항을
정부 계약에 포함해야 한다고 주장했다.


그러나 국가의 입장은 달랐다.

미국 국방부는 Anthropic을
“국가 안보 공급망 위험(supply chain risk)” 기업으로 지정했고,
일부 정부 기관에는 Claude 사용 중단 지시까지 내려졌다.


아이러니하게도 문제는 여기서 발생한다.

이미 군 시스템 깊숙이 들어간 기술은
계약이 중단되었다고 해서 즉시 제거할 수 없다는 것이다.


Claude는 Palantir의 Maven Smart System과 같은
군 정보 분석 플랫폼에 통합되어 있었고
군 분석관들은 이를 정보 정리와 표적 분석에 활용하고 있었다.


군 관계자들은
“AI가 직접 공격 명령을 내리는 것은 아니며
정보 분석을 지원하는 도구일 뿐”이라고 설명한다.

하지만 질문은 여전히 남는다.


이중용도 기술의 오래된 딜레마


이 장면은 낯설지 않다.

인터넷은 군사 통신망에서 시작됐다.
GPS 역시 처음에는 군 전용 기술이었다.


원자력은 물리학 연구에서 시작해
무기가 되었고 다시 발전소가 되었다.


AI도 같은 길을 걷고 있다.

이런 기술을 이중용도 기술(Dual-use technology)이라고 부른다.

번역에도 쓰이고
의료에도 쓰이고
금융에도 쓰인다.

그리고 전장에도 쓰인다.

기술 자체는 어느 방향이든 갈 수 있다.


문제는
그 방향을 누가 결정하느냐이다.


2026년 현재
AI는 이미 군의 정보 평가, 표적 식별, 작전 시뮬레이션에 깊숙이 들어와 있다.


다시 말해 우리는
AI가 전쟁에 사용될 것인가를 논의하는 단계가 아니라
이미 AI가 사용되는 시대에 들어온 것이다.


언어의 세계에서도 벌어지는 변화


이 문제는 언어의 세계에서도 비슷하게 나타난다.

번역과 통역에서도 AI는 이미 문장을 만들 수 있다.
단어를 바꾸고 문장을 정리하는 기능 자체는 점점 더 자동화되고 있다.


그러나 중요한 순간에는 여전히 인간의 판단이 필요하다.

같은 문장이라도 상황에 따라 전혀 다른 의미가 될 수 있기 때문이다.


협상 자리에서의 한 문장,
외교적 표현의 미묘한 뉘앙스,
상대의 의도를 읽는 맥락.

이런 것들은 아직 AI가 책임지고 결정할 수 있는 영역이 아니다.

기술은 점점 더 많은 일을 대신하지만
맥락을 읽고 책임을 지는 판단은 여전히 인간의 몫이다.


진짜 질문


AI 기업들조차
자사 시스템이 오류를 일으킬 수 있다는 사실을 인정한다.

AI 연구자들 역시
최첨단 AI 모델이 정확히 어떻게 판단을 내리는지
완전히 설명하기 어렵다고 말한다.


그럼에도 불구하고
수백 개의 AI 분석 결과가 매일 작전에 활용되고 있다.


이 지점에서 질문은 바뀐다.

AI를 사용할 것인가 말 것인가가 아니다.
이미 사용되고 있기 때문이다.


진짜 질문은 이것이다.

AI가 의사결정 과정에 들어온 세계에서
그 결과에 대한 책임은 누가 질 것인가.


AI는 데이터를 분석할 수 있다.

패턴을 찾을 수 있다.
수천 개의 선택지를 정리할 수도 있다.


하지만 책임을 지지는 않는다.

결정을 내리는 것은 여전히 인간이다.
그리고 책임 역시 결국 인간의 몫이다.


기술은 점점 더 많은 일을 대신한다.


그러나 어디에 쓰고,
어떻게 사용하며,
그 결과에 어떤 책임을 질 것인지는
여전히 인간이 결정해야 한다.


전쟁이라는 극단적인 상황은
그 질문을 가장 선명하게 드러내는 장면일지도 모른다.


AI는 문장을 만들 수 있다.
그러나 책임을 번역하지는 못한다.


[참고 자료]

KBS 뉴스: “AI 전쟁 1.0”…‘전쟁 설계자’ 된 AI


작가의 이전글“번역은 AI가, 인간은 교정만”