신약 개발은 발견의 게임이 아니라 설득의 게임이다
AI는 이제 후보물질을 만들고, 구조를 예측하고, 독성을 걸러낸다. 불과 몇 년 전까지만 해도 연구자의 직관과 경험에 의존하던 영역에 이제는 AI 알고리즘이 깊숙이 들어왔다. 심지어 규제기관에서도 AI를 기반으로 한 의약품 개발 원칙을 공식적으로 발표하고 있다.
그래서 제약 분야에서 일하는 사람의 입장에서는 이제 피할 수 없는 질문 하나를 마주하게 된다.
AI가 신약을 만든다면 인간은 무엇을 해야 하는가?
많은 사람들은 신약 개발을 이야기할 때 기술의 관점에서 접근한다. 이 약의 성분은 무엇인지, 어떤 기술로 만들어졌는지, 어떤 혁신적인 플랫폼을 사용했는지를 먼저 떠올린다. 아마 바이오/제약 소식을 주식이나 산업 뉴스를 접해온 사람일 것이다. 뉴스에서 말하는 제약은 이렇다.
"이 회사의 기술은 무엇인가" 혹은 "이 기술이 어떤 질병을 치료하는가"
복잡한 영어단어와 의미를 알 수 없는 형광색 세포이미지 그리고 동물실험 결과 그래프 등으로만 확인할 수 있으니 정확한 내용을 모두 이해하지 못한 채 '제약은 정말 첨단 기술의 영역이구나'라고 느끼는 경우가 많다.
솔직히 말해 나 역시 기술 설명만 보면 무슨 말인지 모를 때가 훨씬 더 많다. 그만큼 제약 산업의 언어는 기술집약적이고 복잡하다. 이런 관점에서 AI는 제약 산업을 뒤집어놓을 기술임에는 틀림없다.
하지만 제약 현장에 있는 사람들은 알고 있다. 신약 개발은 발견의 게임이 아니라, 설득의 게임이라는 사실을 너무 잘 알고 있다. AI가 아무리 정교한 결과를 내놓아도 그 결과는 결국 설득 가능한 논리 위에 올려져야 한다. 그리고 그 설득은 언제나 신뢰를 전제로 한다.
이 지점에서 역설이 생긴다. AI가 고도화될수록 오히려 사람의 역할은 줄어들지 않고 더 중요해질 것이다. 애초에 설득이란 기계가 아니라 사람을 대상으로 하는 행위이기 때문이다. 그렇다면 AI가 대체해 들어오는 신약 개발 시장에서 인간은 무슨 일을 해야 하는 가에 대한 답이 나왔다.
그 답은 인간은 신약개발에서 누구를 설득해야 하는가이다.
의약품 개발에서 가장 강력한 청중은 규제기관이다.
AI가 아무리 뛰어난 후보물질을 만들어내더라도 규제기관은 'AI가 그렇게 말했습니다'라는 문장을 받아들이지 않는다. 규제기관을 설득하기 위해 요구되는 것은 데이터의 출처와 신뢰성 그리고 통제성이다. 그리고 AI의 성능이 높아질수록 규제기관의 관심은 기술 자체에서 통제와 책임으로 이동할 것이라 생각된다.
어떤 기준으로 AI 모델을 사용하기로 결정했는지 그 판단을 어떻게 문서화하고 관리하고 있는지와 같은 모든 것이 수치와 기록으로 제시되기를 요구받게 될 것이다. 그리고 그 신뢰성을 확인하기 위한 더 정교한 규제 체계가 만들어질 가능성도 높다.
투자자는 기술을 좋아한다. 하지만 기술 그 자체보다 더 중요하게 보는 것은 이 기술의 사업성과 리스크가 관리되고 있다는 신호다. AI는 화려한 데이터를 통해 가능성을 말한다. 그러나 투자자가 원하는 것은 화려한 모델 구조나 복잡한 알고리즘이 아니다. 어디까지는 믿어도 되고 어디부터는 조심해야 하는지에 대한 명확한 경계 설정이다. AI는 이 경계를 설명하지 못한다. 적어도 현재까지는 그렇다.
신약 개발 중 의외로 가장 어려운 설득은 같은 회사 안에서 벌어진다.
생산팀은 묻는다. '이 결과를 실제 공정에 어떻게 적용할 수 있는가.'
품질팀은 묻는다. '변경관리 대상인지 밸리데이션 범위는 어디까지 규제에 맞추어 설정해야 하는가.'
규제팀은 묻는다. '이 내용이 무슨 규제와 부합되고 어떤 내용을 문서에 써야 하는가.'
AI로 만들어낸 데이터만 가지고 조직은 움직이지 않는다. 오히려 업무의 내용과 책임소지에 대한 질문을 더 날카롭게 만든다. 이때 필요한 것은 더 뛰어난 AI 데이터가 아니라 번역과 소통 능력이다. AI가 만든 자료를 가지고 무슨 일을 해야 하는지 그리고 일을 누가 진행시키고 책임져야 하는지로 번역할 수 있는 능력이 필요하다. 만약 이 역할이 원활하게 소통되지 못하면 AI는 혁신이 아니라 갈등의 중심이 된다.
규제기관과 투자자, 내부 조직까지 설득했다고 해서 신약 개발이 끝나는 것은 아니다. 결국 의약품도 제품이고 결국 사용되는 순간에 완성된다. 그리고 그 순간의 중심에는 의사와 환자가 있다.
의사는 설명할 수 없는 데이터를 신뢰하지 않는다. 이 약이 왜 이 환자에게 적합한지, 왜 안전하다고 판단했는지에 대한 임상적 근거를 원한다. 이 질문에 답하지 못하는 기술은 임상 현장에서 선택되지 않는다.
환자는 더 솔직하고 알고 싶은 것은 훨씬 단순하다. 왜냐하면 직접 먹거나 주사를 맞아야 되니까. 만약 내가 병을 치료하기 위해서 이 약을 먹어도 괜찮은가 그리고 왜 내가 이 치료를 받아야 하는가에 대한 질문이 해소되지 않으면 먹지 않는다. 환자에게 AI가 설계한 약이라는 사실은 아직까지는 신뢰의 근거가 되지 않는다. 오히려 불안을 키우는 요소가 되기도 한다. 그래서 환자를 설득하는 언어는 복잡한 알고리즘 설명이 아니라 왜 이 선택이 지금의 나에게 합리적인지 왜 위험보다 이익이 크다고 말할 수 있는지다. 이 설명을 대신해 줄 AI는 아직 없다.
그래서 AI 시대에 인간의 경쟁력은 어디에 남는가?
AI 시대에 인간의 경쟁력은 더 빨리 계산하는 능력에 있지 않다. 예상하건대 이러한 급격한 변화 속에서 인간에게 요구되는 능력은 세 가지로 보고 있다.
첫째, 이 결과가 어떤 중요한 의미를 가졌는지 판단하고 인식하는 능력.
둘째, 이 모든 것을 다른 이해관계자가 납득할 수 있게 설명하는 능력.
셋째, 결과와 책임을 사람에게 연결하는 능력.
결국에는 AI가 만들어낸 방대한 양의 데이터 중 진짜 핵심데이터를 뽑아내고, 이 데이터로 명확히 설명하고, 책임을 부과시키는 설득하는 능력이 가장 필요한 능력이 될 것이라 생각한다.
AI는 답을 만들 수 있다. 하지만 그 결과로 나온 약을 써도 되는 이유는 인간만 설명할 수 있다.
AI는 기존 데이터를 기반으로 새로운 신약 후보물질을 만들어내는 생산자다. 생산자로서의 AI는 이미 인간을 뛰어넘고 있다. 그러나 그 신약을 세상에 나오게 하는 것은 여전히 인간의 설득이다. AI가 아무리 좋은 생산성을 갖더라도 규칙을 창조해내지는 못한다. 규제기관을, 투자자를, 내부 조직을 그리고 사용자를 설득하지 못한 신약은 아무리 뛰어난 기술로 만들어졌어도 존재하지 않는다. 그래서 우리 인간의 역할은 더욱 간단해지고 어려워졌다.
AI가 신약을 만든다면 인간은 같은 인간을 설득해야 한다.