Human-AI Interactions within CDSS
의료 분야는 끊임없이 발전하고 있으며, 최근 몇 년간 인공지능(AI) 기술의 도입으로 그 속도가 더욱 빨라지고 있습니다. 그중에서도 임상의사결정지원시스템(Clinical decision support system, CDSS)은 의료진의 의사결정을 돕는 중요한 도구로 자리 잡고 있습니다. AI 기술이 결합된 CDSS는 환자 데이터를 분석하여 진단, 치료, 예후 예측 등 다양한 분야에서 의료진을 지원하고 있으며, 응급실과 같이 빠른 의사결정이 필요한 환경에서 그 중요성이 더욱 부각되고 있습니다. 그러나 CDSS가 정교해지더라도 의료 현장은 여전히 사람 중심입니다. 환자의 상태를 종합적으로 판단하고, 의료적·윤리적 결정을 최종적으로 내리는 것은 결국 의료진입니다. 따라서 AI가 뛰어난 데이터 분석 능력을 가지고 있다 해도, 그 가치가 실제로 발휘되기 위해서는 의사와 AI 간 긴밀한 협력, 즉 Human-AI Interaction(HCI)이 핵심이 됩니다. 이번 글에서는 최근 연구들을 중심으로 의사와 AI가 어떻게 협력하여 더 나은 의료 서비스를 제공할 수 있는지 살펴 보고자 합니다.
CDSS는 환자의 임상 데이터를 분석하여 의료진에게 실시간으로 의사결정을 지원하는 시스템입니다. 한마디로 “의사들의 진단과 치료 결정을 도와주는 지능형 조력자”라고 할 수 있습니다. 과거에는 규칙 기반 형태로 의료진의 지식과 임상 경험을 체계적으로 입력해 놓고, 특정 조건이 충족되면 경고나 추천을 주는 방식이 주를 이뤘습니다. 그러나 최근에는 딥러닝과 같은 AI의 지속적 발전에 따라 직접 환자의 데이터를 학습하면서 규칙 기반 이상의 정교함과 정확성을 갖춘 시스템으로 발전했습니다. 예를 들어, 대규모 영상 데이터를 학습해 숨은 패턴을 찾거나 환자의 전자의무기록(EMR)과 실시간으로 연동해 환자의 경과를 즉각적으로 분석하는 사례가 늘고 있습니다 [2, 3].
하지만 이렇게 진화한 AI 기반 CDSS라 할지라도, 기술적 발전만으로는 의료 현장에서 즉각적인 성공을 보장하기 어렵습니다. 의료는 사람의 임상적 통찰과 윤리적 판단이 결합되어야만 완성되는 분야이기 때문입니다. 바로 이 지점에서 Human-AI Interaction이 중요한 의미를 갖습니다.
AI는 대규모 데이터를 빠르게 분석해 진단이나 치료 방향을 제안하는 데 탁월합니다. 딥러닝 모델을 통해 기존에 발견되지 않은 패턴을 찾아낼 수도 있습니다. 하지만 의료는 사회적·심리적 맥락, 환자의 복합적 배경, 그리고 윤리적 고려가 함께 이뤄져야 하는 분야입니다. AI 스스로 이런 복합적 요소를 완벽히 처리하기는 아직 어렵습니다. 반면 의사는 환자와 직접 대면하여 세밀한 신체·심리적 상태를 파악하고, AI가 놓칠 수 있는 예외 상황을 고려할 수 있습니다. 또한, 환자에게 치료 계획을 설명하고 동의를 구하는 과정도 전적으로 사람이 수행해야 합니다. 결론적으로 AI와 의사는 서로 다른 강점을 지녔습니다. 이 둘이 협력할 때 비로소 CDSS가 의료 현장에서 빛을 볼 수 있습니다.
아무리 뛰어난 AI 모델이라도 의사가 시스템을 이해하고 신뢰하지 못하면 현장에서 사용하기 어렵습니다. 설명 가능한 AI, 투명성, 불확실성 표시 등은 의사가 AI를 믿고 활용할 수 있도록 돕는 핵심 요소입니다. 반대로 의료진이 AI의 한계를 이해하고, 적절히 보완해주어야 데이터 분석 결과와 임상적 판단이 조화를 이루어 환자에게 더 나은 의료 서비스를 제공할 수 있습니다 [4, 5].
최근 연구들에 따르면 CDSS에서의 Human-AI Interaction은 다음과 같은 요소들이 중요합니다.
설명 가능성(Explainability): AI가 내린 결정에 대한 설명은 의사가 AI를 신뢰하고 활용하는 데 필수적입니다. 예를 들어, AI가 특정 진단을 내린 이유를 명확히 설명할 수 있어야 의사는 이를 신뢰하고 활용할 수 있습니다. 연구에 따르면, 설명 가능한 AI는 의사의 의사결정의 정확도를 높이고, AI에 대한 신뢰를 강화하는 데 기여합니다. AI가 폐암 진단을 내릴 때, 어떤 영상 특징을 기반으로 진단했는지를 의사에게 설명해준다면, 의사는 AI의 판단을 더욱 신뢰할 수 있습니다 [6].
불확실성 표시(Uncertainty Indication): AI는 자신의 예측에 대한 불확실성을 표시할 수 있어야 합니다. 예를 들어, AI가 특정 진단에 대해 70%의 확신을 가지고 있다면, 이를 의사에게 명확히 알려줌으로써 의사가 추가 검사를 고려할 수 있도록 돕습니다.예시: 응급실에서 AI가 환자의 상태를 분석하여 "이 환자는 60%의 확률로 심장마비 위험이 있습니다"라고 알려준다면, 의사는 이를 바탕으로 추가 검사를 진행할 수 있습니다 [7].
실시간 피드백(Real-time Feedback): AI는 의사의 피드백을 실시간으로 반영하여 학습할 수 있어야 합니다. 예를 들어, 의사가 AI의 진단을 수정하거나 보완한 경우, AI는 이를 학습 데이터로 활용하여 향후 예측 정확도를 높일 수 있습니다. AI가 특정 환자의 진단을 내렸지만, 의사가 이를 수정한 경우, AI는 이 정보를 학습하여 향후 유사한 사례에서 더 정확한 진단을 내릴 수 있습니다 [5, 8].
사용자 중심 설계(User-Centered Design): CDSS는 의사의 업무 흐름에 자연스럽게 통합될 수 있도록 설계되어야 합니다. 예를 들어, AI가 제공하는 정보는 의사가 쉽게 이해하고 활용할 수 있는 형태로 제공되어야 합니다. AI가 제공하는 정보가 너무 복잡하여 의사의 업무 흐름을 방해한다면 의사는 이를 활용하지 않을 가능성이 높습니다 [4, 8].
응급실은 의료진이 순간적인 판단을 내리기 위해서 방대한 정보를 빠르고 정확하게 처리해야 하는 대표적 환경입니다. 환자의 중증도가 실시간으로 변동될 수 있기 때문입니다. 이런 상황에서 AI 기반 CDSS가 빠르고 정확한 데이터를 제공해줄 수 있다면 의사결정에 큰 도움을 줄 수 있습니다 [9, 10].
하지만 응급실에서 CDSS가 제 역할을 하기 위해서는 반드시 의료진의 임상적 통찰과 윤리적 판단이 결합되어야 합니다. 예를 들어, AI가 ‘이 환자는 심장마비가 발생할 확률이 60%입니다’라고 경고한다면, 의료진은 단순히 60%라는 숫자만 보는 것이 아니라 왜 그렇게 예측했는지, 다른 임상 지표와는 어떻게 연관되는지, 환자의 현재 상태와 어떤 괴리가 있는지를 신속하게 판단해야 합니다.
이 과정에서 Explainability(설명 가능성)는 필수적입니다. AI가 어떻게 결론을 도출했는지 이해하지 못하면, 응급 상황에서 의료진은 AI의 판단을 온전히 신뢰하기 어렵습니다. 또한 예측 결과에 대한 불확실성 표시(예: 예측 확률, 신뢰 구간)가 충분히 제시되지 않는다면 오진의 위험이 생길 수 있습니다. 응급실에서는 하나의 잘못된 판단이 연쇄적으로 이어져 환자 안전에 치명적 결과를 초래할 가능성이 있기 때문입니다. AI에 대한 신뢰와 의료진의 판단력이 균형을 이뤄야 합니다 [12].
또한, 응급실에서는 실시간 피드백(Real-time Feedback)이 매우 중요합니다. 환자의 상태가 시시각각 변하는 응급실에서 AI 역시 새로운 정보를 지속적으로 업데이트하고 상황에 따라 예측 결과를 조정해야 합니다. 만약 의료진이 AI의 권고와 다른 결정을 내린다면 그 이유와 실제 치료 결과가 AI의 학습 데이터로 반영되어야 합니다. 이를 통해 같은 유형의 환자가 다시 왔을 때 더 정확한 예측과 권고를 제공할 수 있습니다.
AI 기반 CDSS가 의료진의 업무 흐름을 어떻게 보완하고 결과적으로 환자에게 더 나은 치료로 이어지도록 할 수 있는지를 극적으로 보여줍니다. 응급실처럼 긴박한 환경에서 AI와 의료진 간의 협업(Human-AI Interaction)이 제대로 이루어질 때, 순간의 판단이 환자의 생사를 좌우하는 순간에 가장 큰 효과를 발휘할 수 있습니다.
AI 기반 CDSS는 의료 패러다임을 바꿀 수 있는 많은 잠재력을 가지고 있지만 전면적으로 보급되기 위해서는 아직 해결해야 할 문제들이 남아 있습니다. 대표적으로는 대규모 고품질 데이터 확보가 쉽지 않다는 점이 지적됩니다. 병원마다 전자의무기록 시스템이 달라 데이터 공유와 활용이 어렵습니다. 민감한 환자 정보가 여러 기관을 오가야 한다는 부담도 있습니다. 이를 해결하기 위해 병원 간 협력과 데이터 표준화가 필요합니다 [13].
또한, 딥러닝 모델은 블랙박스처럼 작동하여 의료진이 AI의 결정 과정을 이해하기 어렵습니다. 이는 AI에 대한 신뢰를 떨어뜨릴 수 있으므로 AI의 결정 과정을 설명할 수 있는 기술 개발이 필요합니다. 만약 AI가 잘못된 판단을 내려 손해가 발생했을 때 책임 소재를 누구에게 돌려야 하느냐는 법과 윤리적 쟁점도 풀어야 할 숙제입니다.
AI 기반 CDSS는 의료 분야 전반에 걸쳐 혁신을 가져올 잠재력이 큽니다. 특히, 응급실처럼 순간의 판단이 환자의 생사를 좌우하는 분야에서 정교한 데이터 분석과 의료진의 임상적 통찰이 결합할 수 있다면 의료 품질이 크게 향상될 것입니다. 하지만 AI 기술 발전만으로는 부족하고 이를 안전하고 효과적으로 활용하기 위한 Human-AI Interaction(HCI)의 고도화가 필수적으로 수반되어야 합니다. 설명 가능성, 불확실성 표시, 실시간 피드백, 사용자 중심 설계등은 의사와 AI가 협업하여 최적의 진단과 치료를 제공하는 데 있어 핵심적인 열쇠입니다.
앞으로 의료진, AI 연구자, 정책 결정자가 협력한다면, AI 기반 CDSS는 더욱 고도화되어 개인 맞춤형 치료와 예방 의료를 실현하는 데 중요한 역할을 할 것입니다. AI가 의료 현장에 가져올 긍정적인 변화가 어디까지 확장될지 그리고 우리가 더 건강하고 안전한 삶을 누리기 위해 어떻게 기여할 수 있을지 기대해 봅니다.
[1] 미국 보건복지부. (n.d.). 임상 의사 결정 지원. eCQI 리소스 센터. https://ecqi.healthit.gov/cds?qt-tabs_cds=about
[2] 인공지능 기반 임상의사결정지원 시스템 (CDSS), 움트매거진(e-umt Magzine) 12호
[3] 임상의사결정지원시스템(CDSS) 기술동향, 전자통신동향분석 2016
[4] Towards a Science of Human-AI Decision Making: An Overview of Design Space in Empirical Human-Subject Studies, Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency 2023
[5] Lessons learned from designing an AI-enabled diagnosis tool for pathologists, CSCW 2021
[6] Human-Centered Tools for Coping with Imperfect Algorithms During Medical Decision-Making, CHI 2019
[7] Ignore, Trust, or Negotiate: Understanding Clinician Acceptance of AI-Based Treatment Recommendations in Health Care, CHI 2023
[8] Unremarkable AI: Fiting Intelligent Decision Support into Critical, Clinical Decision-Making Processes, CHI 2019
[9] Clinical Decision Support Systems for Triage in the Emergency Department using Intelligent Systems: a Review, Artif Intell Med. 2020
[10] A novel deep learning algorithm for real-time prediction of clinical deterioration in the emergency department for a multimodal clinical decision support system, Scientific Reports 2024
[11] Artificial intelligence decision points in an emergency department, Clin Exp Emerg Med. 2022
[12] Human-Algorithmic Interaction Using a Large Language Model-Augmented Artificial Intelligence Clinical Decision Support System, CHI 2024
[13] AI-Driven Clinical Decision Support Systems: An Ongoing Pursuit of Potential, Cureus. 2024
작성자 박흰돌은 KAIST 전산학부 박사 과정 학생으로 Interactive Computing Laboratory (지도교수: 이의진)에서 지도를 받고 있습니다. 인간-컴퓨터 상호작용(Human-Computer Interaction, HCI) 분야에서 디지털 헬스케어와 메디컬 AI에 관심을 갖고 있습니다. 특히 의료 현장에서 환자의 상태를 효과적으로 모니터링하고 진단을 보조할 수 있는 CDSS 기반 인터랙티브 시스템에 대하여 연구를 수행하고 있습니다.