AI의 안목 시대: PM에게 남는 건 '책임'

2026 All-Day-Project (069/365)

by Jamin

내 글에 이어서 생각하기 037: 필연적 흐름과 철학적 질문 에 이어서

내 글에 이어서 생각하기 038: 철학이 세상을 바꿀 수 있는가 에 이어서

내 글에 이어서 생각하기 039: 실행조차 저렴해진 시대 에 이어서


"일이란 곧 책임이야. 근데 넌 아무것도 책임지고 있지 않아." 2025년 방영된 드라마 서울 자가에 대기업 다니는 김부장 이야기의 이 대사는 작년 한 해 수많은 직장인의 뼈를 때렸다. 주인공 김부장은 대기업 타이틀과 서울의 아파트를 지키기 위해 악착같이 버티지만, 결국 자신이 짊어져야 할 책임의 무게에 짓눌려 무너지고 만다.


이 서늘한 대사는 생성형 AI가 폭발적으로 진화한 2026년 현재, 프로덕트 매니저들에게 더욱 섬뜩한 경고로 다가온다. AI가 완벽한 코드를 짜내고, 수려한 디자인을 쏟아내며, 심지어 평균적인 인간을 뛰어넘는 안목까지 학습해 내는 세상이다.


기획안의 초안부터 최적화된 사용자 여정까지 AI가 버튼 한 번에 100개씩 뽑아내는 이 시대에, PM은 그저 AI의 산출물에 도장이나 찍는 결재권자로 전락하는 것일까. 역설적이게도 우리가 두려워하는 그 책임이야말로 AI 시대에 인간 PM에게 남은 마지막 성지이자 가장 강력한 프리미엄이다.


책임이란 단순히 주어진 결과에 순응하고 감당하는 수동적인 태도가 아니다. 그것은 수많은 선택지의 무게를 온전히 짊어지고, 처참한 실패의 가능성까지 끌어안은 채 비록 위험하지만 이것이 옳다고 세상에 선언하는 극도로 인간적인 행위다.


고전적인 윤리 문제인 트롤리 딜레마를 떠올려보자. 기차가 다섯 명을 향해 돌진할 때, 방향을 틀어 한 명을 희생시킬 것인가. 인간은 이 질문 앞에서 끝없이 망설인다. 윤리와 도덕, 맥락과 감정이 복잡하게 얽히기 때문이다.


하지만 AI는 다르다. 그들은 방대한 데이터를 기반으로 희생자를 최소화하는 최적의 값을 1초 만에 계산해 내고 즉각적으로 경로를 바꾼다. 문제는 그 AI의 최적값이 현실 세계에서는 종종 치명적인 오답이 된다는 데 있다. 편향된 데이터로 학습한 시스템은 무고한 사람을 배제하거나 타겟으로 오인할 수 있다.


책임의 본질은 바로 이 지점에서 탄생한다. AI는 차갑게 계산할 뿐이지만, 인간은 그 계산의 결과를 자신의 몫으로 껴안아야 한다. AI가 틀렸을 때 시스템 뒤에 숨어버린다면 그것은 단순한 도구의 오작동에 불과하지만, 누군가 고개를 숙이고 피해자를 마주하며 사과할 때 비로소 그 결정은 인격적인 주체의 선택이 된다. 최근 AI 윤리 논쟁에서 책임의 부재가 인간성의 해체로 이어질 수 있다고 경고하는 이유다.


이러한 딜레마는 이미 전쟁터라는 극단적인 현실에서 끔찍한 형태로 나타나고 있다. 이스라엘과 가자지구의 분쟁에서 이스라엘 국방군은 라벤더라는 AI 시스템을 도입해 수만 명의 잠재적 타겟을 식별했다. AI가 빅데이터를 긁어모아 의심스러운 개인을 분류해 내면, 인간은 그저 초기 단계에서 일정 수준의 민간인 사상자를 허용하는 기준을 승인했을 뿐이다. 그 결과는 통제할 수 없는 민간인 피해로 이어졌다.


우크라이나 전쟁에서도 AI는 얼굴 인식으로 수십만 명의 군인을 식별하고 드론 타겟팅을 가속화하며 전장의 문법을 완전히 바꾸고 있다. AI가 목표물을 제안하고 인간이 발사 버튼을 누르는 현재를 넘어, 완전 자율 무기가 스스로 타겟을 정하고 방아쇠를 당기는 세상이 온다면 어떻게 될까.


앤스로픽의 최고경영자 다리오 아모데이가 미 국방부의 펜타곤 요구를 정면으로 거부한 사태는 이 질문에 대한 가장 묵직한 대답이다. 그는 현재의 프론티어 AI 모델들이 자율 무기를 통제하기에는 신뢰할 수 없다며, 미국 군인과 민간인을 해칠 수 있는 맹목적인 사용을 절대 넘지 말아야 할 레드 라인으로 규정했다.


회사가 국방부의 공급망 위험으로 지정되고, 오픈AI의 로보틱스 리더가 윤리적 우려로 사임하는 등 엄청난 후폭풍이 일었지만, 이것은 AI의 오판이 불러올 돌이킬 수 없는 실수에 대해 누군가는 반드시 책임을 져야 한다는 절박한 선언이었다. AI가 사진 한 장의 픽셀을 잘못 해석하는 순간, 누군가의 삶이 송두리째 파괴될 수 있기 때문이다.


이 피비린내 나는 전쟁의 논리를 우리가 매일 마주하는 프로덕트 개발의 세계로 가져와 보자. 리니어의 제품 책임자 난 유가 "AI가 90퍼센트의 PM보다 훨씬 더 나은 안목을 가졌다"고 선언했을 때, 많은 이들이 절망했다. 실제로 정교한 평가 기준만 설계해 주면 AI는 인간이 며칠 밤을 새워야 할 기획안 중 가장 그럴싸한 결과물을 순식간에 뽑아낸다.


물론 피그마의 딜런 필드나 구글의 베테랑 PM들이 반박하듯, 평균을 비틀어버리는 혁신적인 파격은 아직 인간의 영역으로 남아있지만, 그마저도 딥러닝의 진화 속도를 보면 언제 따라잡힐지 모를 일이다.


그렇다면 안목마저 AI에게 내어준 PM에게 도대체 무엇이 남는다는 말인가. 결국 남는 것은 철저한 책임의 엔지니어링이다. AI가 화려한 기획안을 쏟아내고 당장의 수익을 가리킬지라도, 이 결정은 장기적으로 사용자에게 해가 될 수 있다고 브레이크를 거는 윤리적 고집이 필요하다. 그리고 그 결정이 참담한 실패로 돌아왔을 때, 시스템의 오류나 데이터의 부족을 탓하는 대신 내가 결정했고 내가 감당한다고 말할 수 있는 오너십이 필요하다.


PM의 진짜 일은 AI가 수백 개의 옵션을 폭발시킨 이후에 비로소 시작된다. 시장의 날 것 같은 피드백을 마주하고, 의심하는 팀원들을 진흙탕 속에서 설득해 내며, 예상치 못한 리스크를 온몸으로 막아내는 그 마지막 1마일의 사투는 결코 AI가 대신해 줄 수 없다.


AI 빌더들은 안전장치를 구축하는 것을 단순한 엔지니어링의 제약으로 치부할지 모르지만, PM은 우리의 제품이 통제 불능의 괴물이 되기 전에 책임을 먼저 시스템에 설계해 넣어야 한다. 앤스로픽이 펜타곤 앞에서 레드 라인을 그었던 것처럼, PM 역시 지표의 유혹 앞에서 절대 넘지 말아야 할 선을 긋는 훈련을 해야 한다.


바야흐로 AI가 평균적인 안목을 지배하는 시대, PM은 기획하는 자에서 감당하는 자로 진화하고 있다. 김부장처럼 화려한 타이틀 뒤에 숨으려 한다면 결국 밀려나겠지만, 기꺼이 십자가를 지는 순간 우리는 진짜 리더가 된다. 물론 이 책임이라는 무기는 대단히 위험하다. AI의 계산이 틀리거나 당신의 판단이 어긋나면 그 모든 타격을 혼자 감수해야 한다.


트롤리 딜레마의 선로 위에서 선택의 무게가 두려워 눈을 감아버린다면, 당신은 그저 AI가 만들어내는 소음을 분류하는 비싼 관리자로 전락할 것이다. 다가올 미래에는 제품 안목의 95퍼센트를 AI가 담당하게 될지도 모른다. 하지만 남은 5퍼센트, 왜 수많은 옵션 중 이것이 우리에게 옳은가를 묻고 그 결과는 내가 짊어지겠다고 선언하는 그 독한 용기야말로 AI가 결코 흉내 낼 수 없는 인간의 프리미엄이다.


우리는 강력한 AI 엔진을 장착한 배의 항해사다. 폭풍우가 몰아치고 파도가 덮쳐올 때, 눈앞의 내비게이션 화면만 쳐다볼 것이 아니라 두 손으로 방향키를 꽉 틀어쥐어야 한다. 어떤 대가를 치르더라도 배의 궤적을 스스로 결정하는 것, 그것이 AI 시대에 우리가 잃지 말아야 할 진짜 일의 의미다.


매거진의 이전글의대 증원을 넘어