‘보호받는 기술’의 시대가 온다
런던 북서부의 한 회의실. 영국 정부가 2023년 야심차게 설립한 ‘AI 안전 연구소(AI Safety Institute)’의 간판이 조용히 바뀌었다. 이제 그 이름은 ‘AI 안보 연구소(AI Security Institute)’다. 단어 하나가 바뀌었을 뿐이지만, 인류가 AI를 대하는 태도 전체가 달라졌다. ‘위험한 미래’를 예방하던 시대는 끝났다. 이제 AI는 방어해야 할 자산이자, 감시해야 할 위협이 되었다.
영국 과학기술부 장관 피터 카일은 뮌헨 안보회의에서 이렇게 말했다. “국민이 이 기관에 기대하는 것은 AI의 도덕을 설계하는 것이 아니라, 그것이 어떻게 우리의 안보를 위협할 수 있는지를 과학적으로 규명하는 일이다.” 그 말은 세계의 새로운 표준이 되었다. ‘AI 윤리’라는 도덕적 언어가 ‘AI 안보’라는 전략적 언어로 대체되는 순간이었다.
미국 워싱턴의 분위기도 달라졌다. 백악관의 ‘아메리카의 AI 액션 플랜(America’s AI Action Plan)’은 AI를 단순한 기술혁신의 도구가 아닌, 국가 안보의 핵심 자산으로 정의한다. 수출통제는 강화되고, 반도체 제조 공정 자체가 국가 전략의 일부로 편입됐다.
상무부와 정보기관이 협력해 “칩의 움직임을 추적하는 위치확인 기능”을 내장시키는 일은 과거 같으면 음모론처럼 들렸겠지만, 지금은 현실이다. 기술은 더 이상 공유의 대상이 아니다. 그것은 봉쇄와 통제, ‘기술 주권’을 위한 무기다.
이제 ‘AI의 자유로운 확산’은 더 이상 민주주의의 상징이 아니다. 미국은 다자간 협정을 통해 동맹국이 자국 기술을 제3국에 공급하지 못하도록 하고, 동시에 그들에게 미국산 기술을 보급함으로써 의존 관계를 강화한다. AI는 상품이 아니라 외교의 수단이 되었고, 칩은 총보다 더 날카로운 지정학의 탄환이 되었다.
유럽연합의 반응은 다른 길을 택했지만, 방향은 같다. 유럽의회가 통과시킨 EU AI 법(AI Act)은 모든 ‘고위험 AI 시스템’에 대해 사이버보안과 강건성(robustness)을 법적 의무로 규정했다.
데이터 중독, 모델 회피, 적대적 입력—이 단어들은 이제 컴퓨터 과학의 용어가 아니라, 공공안전을 규율하는 법적 개념이다. 기업은 AI의 윤리성을 말하기 전에, 그 무결성을 증명해야 한다.
유럽은 미국처럼 수출을 통제하지 않는다. 대신 시장을 통제한다. 시장 접근의 조건으로 ‘안보’를 요구함으로써, 기술의 신뢰성을 자본의 언어로 재정의했다.
AI가 국가의 인프라에 스며들수록 그 자체가 새로운 공격 표면이 되었다. 미국 국토안보부(DHS)는 이를 세 가지 범주로 나눈다. AI를 이용한 공격, AI를 표적으로 한 공격, 그리고 AI 설계의 실패.
AI 기반 보안 시스템은 이미 발전하고 있다. 사이버보안국(CISA)은 AI로 이상 징후를 탐지하고, 위협 대응 시간을 30초 미만으로 단축시킨다. 하지만 그 속도가 빠를수록, 공격자 역시 더 정교해진다. AI를 이용해 AI를 공격하는—그야말로 알고리즘 대 알고리즘의 전쟁이 시작된 것이다.
국가안보국(NSA)은 데이터 출처 추적(Data Provenance Tracking) 기술을 안보의 필수 요소로 명시했다. 데이터가 오염되면, 무기는 오작동한다. 그 오염을 추적하지 못하면, 방어체계 전체가 무너진다. AI는 더 이상 연구실의 산물이 아니다. 그것은 방공망의 일부이며, 해킹 도구이며, 국경선 없는 전장의 핵심이다.
서울의 상황도 예외가 아니다. 대한민국 정부는 2025년 3월, 국가안보실 주도로 ‘국가 AI 안보협의체’를 출범시키기로 했다. 유엔에서 ‘안전(Safety), 안보(Security), 신뢰(Trustworthy)’를 묶은 결의안을 주도하며, 국제적 위상을 높이려는 포석이다.
하지만 국내의 AI 거버넌스는 여전히 이중 구조다. AI 안전 연구소가 윤리와 안전을 다루는 한편, 정보기관이 보안을 관리한다. AI 기본법은 사이버보안을 명시하지 않는다. ‘안전’과 ‘안보’ 사이의 간극은 여전히 존재한다.
전문가들은 한국이 ‘AI 안보’를 진정한 법적 영역으로 끌어올리지 못하면, 기술은 계속해서 회색지대에 머물 것이라고 경고한다. 이제는 “누가 더 윤리적인 AI를 만드는가”가 아니라, “누가 더 방어 가능한 AI 생태계를 구축하는가”의 싸움이 된 것이다.
결국, AI 정책의 전환은 기술 그 자체의 진화보다 더 근본적인 질문을 던진다. “AI는 보호받아야 하는가, 아니면 보호해야 하는가?”
전 세계는 이제 그 답을 찾고 있다.
영국은 기관의 이름을 바꿨고, 미국은 칩의 경로를 추적하며, 유럽은 법의 문장 속에 ‘강건성’을 새겼다. 그리고 한국은 그 모든 사이에서 균형점을 모색한다.
AI는 더 이상 신기한 도구가 아니다. 그것은 새로운 국경이자, 새로운 군비이며, 새로운 경제 질서의 기초다.
‘안전(Safety)’은 이제 시작에 불과했다. 진짜 게임은 ‘안보(Security)’에서 시작된다.