사람 목숨이 왔다 갔다 합니다

AI시대 진짜 전문성

by life barista

결재 버튼 위에서 멈춘 손가락


요즘 전쟁 뉴스에는 낯선 이름이 하나 더 따라붙습니다. 바로 인공지능‘클로드(Claude)’입니다. 최근 이란 공습에 미국이 AI ‘클로드(Claude)’를 썼다는 보도로 전 세계가 술렁였습니다.


원래 미군은 “미국인에 대한 대규모 감시는 하지 않는다”, “사람의 생사를 좌우하는 무기 사용 결정에는 반드시 인간이 개입한다”는 원칙을 내세워 왔다고 합니다. 그런데 이번에는 그 약속이 지켜지지 않은 것 아니냐는 의혹이 나오면서, 클로드를 만든 회사 CEO가 “지금과 같은 방식의 전쟁 사용에는 동의할 수 없다”고 공개적으로 선을 그었습니다.


보도에 따르면, 이 AI는 정보를 분석하고, 표적 후보를 추려내고, 여러 전쟁 시나리오를 시뮬레이션하는 데 쓰였습니다. 문제는 ‘참고용’으로 쓰인다던 AI의 추천이 사실상 살상 여부를 좌우하는 결재선 안으로 들어와 버렸다는 점입니다. 실제로 이란 남부 한 지역에서 학교가 공습을 당해, 아이들을 포함한 많은 민간인이 숨졌다는 보도까지 나오면서, 사람들은 묻기 시작했습니다.


“그 목표를 고른 건 누구였을까. 사람일까, 기계일까.”


AI를 만든 회사는 처음부터 “미국인에 대한 대규모 감시”와 “완전 자율살상무기”만큼은 선을 긋겠다고 했습니다. 하지만 군은 “작전은 군이 결정한다”며 더 넓은 사용 권한을 요구했고, 결국 갈등은 계약 파기와 소송으로까지 번졌습니다. 개발사 입장에서는 자기들이 만든 프로그램이 실제 전장에서 사람의 죽고 사는 문제에 어디까지 개입했는지, 끝까지 다 알 수조차 없는 상황이 된 셈입니다.


우리 일상의 결재창 위에 있는 버튼은, 다행히도 사람을 죽게 하지는 않습니다. 그래도 구조는 비슷합니다. 보고서 초안을 AI가 쓰고, 리스크를 시스템이 분석해 주는 시대라고 해도, 마지막에 “승인” 버튼을 누르는 순간만큼은 여전히 사람의 이름으로 남습니다. 회사든 군대든, 그 버튼이 가끔은 미사일 발사 버튼처럼 느껴질 때가 있습니다. 이번 이란–클로드 사태는, 그 느낌을 가장 극단적인 형태로 보여 준 사건일지도 모릅니다.


그래서 질문은 조금 달라져야 하는 것 같습니다.


“AI가 얼마나 똑똑한가?”가 아니라,

“사람 목숨이 왔다 갔다 하는 결정을, 어디까지 기계에게 넘겨도 되는가?”로 말이죠.



산초의 판단 기준


이런 책임의 무게를 조금 다른 방식으로 보여 주는 장면이, 소설 《돈키호테》에 나옵니다. 평생 가난한 농부로 살던 산초가 느닷없이 어떤 섬의 총독이 됩니다. 하루아침에 결재선 맨 위로 올라간 셈입니다.


그에게 아주 묘한 사건 하나가 떨어집니다. 마을 다리에 이런 규칙이 붙어 있습니다. 다리를 건너려면 어디로 무엇을 하러 가는지 말해야 하는데, 진실을 말하면 살고 거짓말을 하면 건너자마자 교수형을 당하는 규칙입니다. 그런데 한 남자가 다리 앞에서 이렇게 말합니다.


“저는 저 교수대에 매달리러 갑니다.”


규칙대로라면 막막한 상황입니다. 정말 교수대에 가면 진실을 말한 사람을 죽이는 꼴이 되고, 그냥 보내 주면 규칙을 어긴 거짓말을 봐주는 셈이 됩니다. 규칙 자체가 이상해서 생긴 문제지만, 잘못 처리하면 누군가 죽게 생겼습니다.



산초, 규칙 말고 목적을 보다


사람들은 규칙을 어떻게 해석해야 하는지 가지고 머리를 싸맵니다. 그때 산초는 조금 다른 곳을 봅니다. 그는 이렇게 말합니다.


애매할 때는 더 자비로운 쪽을 택하는 게 옳습니다.

다리는 사람을 죽이려고 세운 게 아니라 건너가라고 세운 거니까, 이 사람은 살려 줍시다.”


산초의 판단이 설득력 있게 느껴지는 이유는, 규칙의 문장만 본 게 아니라 “다리는 원래 무엇을 위해 세웠는가”라는 목적을 먼저 떠올렸기 때문입니다. 다리의 목적은 처벌이 아니라 통행입니다. 규칙의 목적도 사람을 함정에 빠뜨리기 위한 게 아니라, 서로 무사히 오가며 함께 살게 하려는 데 있습니다.


이 마을의 다리 규칙은 그 목적을 잘 지키지 못하고 있었습니다. 산초는 그 점을 정확히 짚었고, 결국 가장 중요한 규칙, 곧 사람의 생명을 살리는 쪽을 선택했습니다.



숫자만 있고 사람은 없다


산초의 판결에 비춰 보면, AI 시대에 우리가 책임져야 할 게 무엇인지 조금 더 선명해집니다. 요즘 우리는 많은 판단 자료를 AI로부터 받습니다. 사실관계 정리, 요약, 관련 규정, 비슷한 사례와 그 이후의 영향까지, 예전보다 훨씬 빠르고 보기 좋게 뽑아 주는 보고서들이 늘었습니다.


그 보고서를 펼쳐 보면, 일단 눈에 들어오는 건 잘 정리된 그래프와 표입니다. 이런 도표는 감정에 휘둘리지 않고 공정하게 보려는 사람에게 꼭 필요한 도구이기도 합니다. 숫자가 주는 객관성은 책임을 져야 하는 입장에선 참 달콤합니다. “이 정도 자료면 누구라도 나와 비슷한 결정을 내렸을 것”이라는, 일종의 안전장치를 주기 때문입니다.


하지만 그래프와 숫자는 구체적인 삶의 얼굴을 들려주지는 않습니다. 하루에도 수십 건씩 결재 문서를 처리하다 보면, 그 숫자 뒤에 있는 사람들의 표정이나 목소리를 떠올리는 것이 점점 더 어려워집니다. 이 결재 결과에 가장 먼저 영향을 받는 사람은 누구인지, 잠깐 멈춰 생각해 볼 여유도, 그렇게 해야 한다는 필요성도 잃어버리기 쉽습니다.



답안지는 여전히 내 이름으로


철학자 하이데거는 기술이 세상을 점점 ‘자원’처럼 보이게 만든다고 말했습니다. 사람과 사물을 볼 때도, 무엇을 얼마나 만들어 낼 수 있는지, 얼마나 효율적인지부터 따지게 된다는 이야기입니다. AI도 비슷한 점이 있습니다. 사람의 이야기와 경험, 감정까지 데이터로 정리해서, “이걸 이렇게 쓰면 좋겠다”는 그림을 그럴듯한 문장과 논리로 보여 줍니다.


하지만 AI의 보고서는 어디까지나 참고서입니다. 참고서는 공부할 때 도움이 되지만, 그렇다고 참고서 표지에 자기 이름을 써서 시험지로 내지는 않습니다. 공부는 참고서로 하더라도, 답안을 쓰고 이름을 적는 것만큼은 결국 내 몫입니다.


저도 어느새 AI가 써 준 보고서를 답안지처럼 그대로 결재라인에 올리고 있을 때가 많아졌습니다. “AI가 이 정도면 웬만한 사람보다 낫겠지”, “다른 일도 많은데 이 정도 자료조사는 그냥 써도 되겠지” 하는 마음으로요. 솔직히 말하면, 내 노동을 아끼면서 책임도 조금 피하고 싶은 마음이 숨어 있었습니다.


그런데도 마지막 결론을 어떻게 내릴지, 어디에 도장을 찍을지는 결국 사람이 결정합니다. AI 정보가 부정확해서만이 아니라, 그 결정에 누군가의 삶이 걸려 있을 수 있기 때문입니다. “내가 잘 아는 사람의 삶이 이 결재 하나에 달려 있어도, 나는 같은 선택을 할 수 있을까?”

AI 시대에는 이 질문이 점점 더 무겁게 다가옵니다.



AI시대에 꼭 필요한 전문성


숫자만 보면 “지금 당장 이렇게 해야겠다” 싶은 결정들이 있습니다. 그런데 그 숫자 뒤에 있을 사람을 떠올리면, 그렇게 쉽게 밀어붙이기 어려운 결정이기도 합니다. 회사에서는 이런 일이 자주 일어납니다.

이제 우리는 AI가 준 자료를 토대로 검토하고, 실무자가 오가며 주고받은 코멘트를 조금 더한 뒤, 최종 보고서까지 AI에게 맡기는 것에 익숙해지고 있습니다. 수익이 가장 중요한 덕목이 되어 버린 회사들은, 신입사원을 줄이고 그 자리를 점점 AI 시스템으로 채우고 있습니다. 이런 환경에서 “돈은 안 되지만, 인권이나 안전, 생명·다양성 때문에 한 번 더 검토해 보자”고 말하는 사람은 점점 줄어들 수밖에 없습니다.


그래서 더더욱, 숫자와 구조만 보는 사람이 아니라 “이 사업의 최종 목적이 무엇인지”까지 함께 떠올려 주는 사람이 필요합니다. 앞 장에서 이야기했던 ‘삶의 목적’이 여기서도 다시 등장합니다. “우리는 결국 무엇을 위해 이 일을 하고 있는가?”라는 질문이 빠져버린 자리에, 숫자와 알고리즘만 남기 쉽기 때문입니다.

산초가 다리 규칙을 볼 때 했던 일은 단순했습니다. 규칙 문장만 들여다보지 않고, “다리는 원래 무엇을 위해 세웠는가”라는 목적을 먼저 떠올렸습니다. AI도 마찬가지입니다. 우리가 AI를 사용하는 목적은 결국 인간의 안전과 존엄, 그리고 조금 더 나은 삶을 위해서입니다.


그렇다면 AI를 둘러싼 규칙 역시 사람이 사람을 위해 통제해야 하는 장치여야 합니다. 규칙이 사람을 옭아매는 올가미가 아니라, 서로를 지키는 울타리가 되게 하는 것. 그 방향을 정하는 일은 여전히 인간의 몫입니다.

AI와 시스템이 많은 것을 대신해 주는 시대일수록, 책임자의 결재란에 자기 이름을 적는 의미는 더 커지고 있습니다. 모든 결정을 바꿀 수는 없더라도, 적어도 한 번쯤 속도를 조금 늦춰서, 그 결정에 엮여 있을 사람의 얼굴과 목소리를 함께 떠올려 보는 연습을 해보면 좋겠습니다.

아주 거창한 능력은 아닐지 모릅니다. 하지만 사람의 목숨과 행복을 생각하며 망설일 줄 아는 능력, 규칙과 숫자 뒤에서 “원래 이건 무엇을 위해 있는가”를 다시 물어보는 감각. 어쩌면 그게, AI 시대에도 끝까지 사람 손에서 놓치지 말아야 할 가장 중요한 전문성일지도 모릅니다.

화요일 연재
이전 12화쥐약은 쥐에게만 맛있게 보인다