하영식 바임컨설팅 대표파트너
의료산업에서 AI 적용에 대한 관심은 뜨겁다. 가장 데이터가 많은 곳이기도 하고 직접적으로 효과가 나타날 곳이기도 하기 때문이다. 그러다보니 병원과 의료기기 회사, 제약 회사와 같은 전통적인 사업자들도 바삐 움직이지만 스타트업들도 많이 나타나 주목받고 있다. 주요 스타트업들을 조사하여 발표하는 cbinsights.com에 나오는 의료 AI 기업들이 작년 3분기에 70여 업체가 조사되었는데 올해는 벌써 100여 개를 넘어섰다.
[카카오 AI 리포트] Vol. 6 (2017년 8월호) 는 다음 내용으로 구성되어 있습니다.
[1] Industry - 데이터와 음성인식
01. 하용호 : 머신러닝 적용의 실제, 논문이 가르쳐주지 않는것들
[2] Trends - 생생한 AI 현장의 이야기
04. 하영식 : AI 접목된 의료영상의 주요 플레이어들 (이번글)
[3] Learning - AI 연구 동향과 강화학습 개념
06. 엄태웅 : 딥러닝 연구의 현재와 미래 part 2
07. 최성준, 이경재 : 알파고를 탄생시킨 강화학습의 비밀 part 2
[4] Information
[카카오 AI 리포트] Vol. 6 전체글 다운받기
내용 중간의 [ ]는 뒷부분에 설명 및 관련 문헌의 소개 내용이 있음을 알리는 부호입니다. 예를 들어, [1]에 대한 설명은 '설명 및 참고문헌'의 첫 번째에 해당합니다.
인공지능 기반의 의료영상 시장 현황:
주요 플레이어와 관련 기술력 소개를 중심으로
시장 전망에서 나오는 숫자들이란 것이 실감하기 쉽지 않지만 한 기관의 자료만 인용해보자. 프로스트앤설리반에서는 2014년에 약6.3억 달러의 의료 AI 시장이 2021년까지 10배 이상 성장하여 66억달러가 넘을 것이라고 전망했다[1]. 실제 몇 천만 달러 수준이던 의료AI 투자액은 2014년부터 몇 억 달러 단위로 넘어갔다. 작년 1분기AI 투자액 중에서는 15%가 의료 분야로 투자되기도 했다[2]. 이는 딥러닝의 영향이리라.
의료 AI 영역에서 이전부터 회사가 많았던 환자 데이터 관리 분야나 리스크 분석 분야에 비해 가장 빨리 증가하고 있으며 현재 대세를 차지하고 있는 스타트업들은 의료 영상을 이용한 진단지원분야다. 이렇게 스타트업들이 많이 나타나는 데는 딥러닝이 현실적용에 유리한 경험적 연구(empirical research)의 특성을 지니기 때문이다. 알고리듬이라는 것, 네트워크를 설계한다는 것은 기본적인 이론을 바탕으로 잘 알려진 여러 네트워크 요소들을 데이터의 특성에 맞추어 마치 레고블럭 쌓듯 쌓아가는 과정이다.
이렇게 만들어진 네트워크를 돌리기 위한 컴퓨팅 파워, 개발 플랫폼은 클라우드로 제공되고 있다. 실제 데이터만 잘 구할 수 있으면, (실은 그게 제일어려운 부분이기는 하지만) 누구라도 한번 도전해볼 만한 시장이다. 더군다나 병원이라는 곳은 매일 매일 엄청난 양의 (영상) 데이터가생겨나는 곳이 아닌가? 새로운 데이터만 구할 수 있으면 아래 그림처럼 이미 “as a service”로 분석할 수 있는 환경이 되었다.
더군다나 영상 인식이라고 하는 것은 딥러닝 분야 중에서도가장 많이 발전됐고 새로운 논문들이 쏟아져 나오는 영역인데다 CNN(Convolutional Neural Network) 기법에 기초한 알렉스넷이니 유넷이니 인셉션이니 하는 증명된 네트워크도 손쉽게 적용해 볼 수 있는 분야이니 말이다. 그래서 장기적으로는 새로운 모델을 만들어서 알고리듬의 혁신을 꿈꾸면서 단기적으로는 기존에 나와있는 CNN 모델을 데이터에 잘 적용하여 좋은 결과를 찾아내는 점진적인 방법이 병행되고 있다. 우선 몇몇 스타트업들을 살펴보자.
Enlitic
2014년에 설립된 이 회사는 MIT Technology Review에서 대표적인 의료 AI 기업으로 소개되었다. 주 연구 분야는 엑스레이와 같은 영상 데이터에 딥러닝을 적용하여 병의 유무와 병변의 위치를 찾는 것이다. 이 기업에 대해 주로 소개되는 내용은 흉부 엑스레이에서 폐암과 관련된 결절의 위치를 찾아내는 것과 정형외과 엑스레이에서 골절 부위를 찾아내는 것이다. 2016년 이코노미스트에서 악성 종양을 의사보다 50% 더 잘 찾아낸다고 보도해 화제가 되었다[3]. 호주 의료 영상 서비스 기업과 협력하여 40여개 병원에서 테스트를 하고 있으며 약 100억원 규모의 투자를 받았다. 최근에는 CNN 기반의 영상 외에도 자연어 처리 (NLP) 기능을 영상 진단 플랫폼에 추가할 계획이라고 한다.
Butterfly Network
이번에는 좀더 멀리 보고 있는 기업이다. 2011년에 로쓰버그 (Jonathan Rothberg) 박사와 MIT 연구자들이 모여서 스타트렉에 나오는 트라이코더처럼 들고 다니면서 인체 내부를 컬러 영상으로 살펴볼 수 있는 스마트폰 크기의 영상 기기를 만들겠다고 시작한 기업이다[4]. 천억 원대의 투자를 받았고 몇 년 전에 1-2년 안에 상품을 내겠다고 했지만 아직 개발중이다. 로쓰버그 박사는 이미 초음파 기술이 심장 속까지 들여다보고 있는데 아직도 1800년대에 나온 청진기에 진찰을 의존하는 현실을 안타까워했다. 특히 의료영상 서비스를 받지 못하는, 다수의 개발도상국에 희망을 주고자 한다고 말했다. 초음파 영상으로 학습된 딥러닝 네트워크를 하드웨어칩에 내장하고 데이터는 클라우드에 올려서, 환자 영상을 찍으면 찍을수록 더욱 진화하는 기기를 구상하고 있다.
Arterys
스탠포드 대학교 출신들이 모여 출발한 이 회사는 지이헬스케어 (GE Healthcare)와 협력하여 심장 영상을 다양한 형태로 보여줄 수 있는 기술을 개발하고 있다. GE와 협력하여 기존에 60분 가량 걸리던 심장 MRI를 10분 이내로 줄이고 3차원 영상에 더해서 혈류의 방향과 속도까지 표시해준다. 구체적으로 밝히지는 않지만 2차원 영상에서 3D 영상을 정합하여 만들어내고 심방과 심실을 자동으로 나누고, 혈류량을 측정하는 등 유동과 기능을 분석하기 위해서 딥러닝을 사용했다고 한다. 딥러닝과 직접적이지는 않지만 의료 영상 데이터를 영상촬영장비에서 바로 클라우드로 보내고 인터넷을 통해 시각화한 결과를 보여주는 점도 주목할 만하다. 올해 초에 FDA 허가를 받았으며 GE MRI에 탑재되어 미국 Fairfax Radiology Consultants에서 임상 적용해 쓰고 있다. 우리 나라에도 다른 나라와 비교하여 손색없는 수준으로 비슷한 기술을 개발하고 있는 기업들이 있다. 대표적인 회사가 뷰노(Vuno)와 루닛(Lunit)이다.
Vuno
삼성종합기술원과 포항공대 출신들이 주축이 되어 만든 회사로 엑스레이, CT, MRI 영상에서 진단을 자동화하는 연구를 하고 있다. 흉부 엑스레이에서 결절을 찾는 연구 결과를 발표하고 손목 엑스레이에서 골연령을 추정하는 연구 결과도 발표했다. 최근에는 딥러닝이 경험적 연구에 기반한 블랙박스라는 특성으로 인해 의사들이 수용하기 어려운 현실을 고려하여 어텐션맵 (attention map) 등을 이용, 영상의 어느 지점이 의사결정에 중요한 영향을 끼쳤는 지를 보여주어 딥러닝 결과를 해석할 수 있는 방안에 대한 연구를 진행하고 있다. 또 영상뿐 아니라 음성, 텍스트 기록 등과 연계한 멀티모달 (multi-modal) 연구도 병행하고 있다.
Lunit
이미지넷 대회 등으로 딥러닝 분야에서 우리나라에서보다 세계적으로 먼저 알려진 기업이다. 마찬가지로 흉부 엑스레이 연구와 함께 최근에는 유방촬영술(mammography) 영상을 이용한 유방암 진단, 병리 영상에 대한 진단을 주요 분야로 연구를 진행하고 있다. ILSVRC, MICCAI와 같은 영상기술 관련 알고리듬 대회에서 좋은 성과를 보여 주목을 받고 있으며 58억원 규모의 투자를 받았다. 특히 병리 영상은 이미지 한장이 몇십GB에 달할 정도로 커서 일반 영상에서 쓰였던 알고리듬을 적용하기 위한 전처리 과정이 매우 복잡하고 연구가 필요한 분야이기도 하다. 또한 딥러닝을 이용한 진단 알고리듬뿐만 아니라 병원에서 사용하기 쉽도록 시각화, 편집 등 UI 개발 및 PACS 연동에도 신경을 많이 쓰고 있다.
위에 열거한 스타트업들과 비슷한 일을 구글 스케일로 하고 있다. 작년 말에 대표적인 의료 학회인 JAMA (the journal of the American medical association)에 논문이 실려 관련업계에서는 큰 뉴스가 되었던 당뇨성 망막병증 연구를 살펴보자[5]. 인도에서 안과 전문의 54명이 6개월 정도 참여하여 12만여 장의 망막안저영상을 분석했다. 결과를 테스트하기 위해서도 전문의 자격증을 가진 안과 의사 여러 명이 검토했다. 올 초에는 유방암 환자의 병리 조직을 진단하는 프로젝트를 수행했다. 인셉션 네트워크를 활용했는데 시간 제한 없이 토했던 병리학자에 비해 더 좋은 결과가 나왔다고 한다[6]. 구글이 단순히 연구만 하고 있을 것 같지는 않다. 안저영상연구를 인도에서 한 게 특히 의미가 있는데 선진국에서는 이미 병원에서 쉽게 안저영상 검사를 할 수 있지만 개발도상국들은 그렇지 않다. 구글이 자동화된 안저영상 검사/판독 시스템을 인도에 보급한다면 인간 의사가 새로 들어갈 틈은 별로 없을 것이다.
IBM
너무 유명한 Watson이다. AI로 유명세를 떨쳤지만 딥러닝과는 조금 다른, 대화 기반으로 문헌을 분석하는 시스템으로 유사 사례를 분석하는데 강점이 있어 의사의 진단을 보조하는 시스템으로 효과가 있다. 우리 나라 몇몇 병원에서 도입된 종양진단 프로그램 (Watson for Oncology)도 미국 MSK (Memorial Sloan Kettering) 병원의 진단 프로세스에 기반하여 진료법을 추천하는 것이다. Watson도 2017년 올란도에서 열린 대표적인 의료 정보학회인 HIMSS에서 영상 분석 솔루션을 내놓았다. 앞에서 보인 기업들이 영상 자체를 판독하는데 집중한다면 Watson은 텍스트 등의 EMR 데이터를 해석하여 진단 결과에서 차이점을 찾고 잘못된 결과가 있으면 이를 수정할 수 있도록 하는, 원래 자신이 잘하던 분야에서 영역을 확장해 가고 있다. 또 하나 주목할 것은 의료 영상 데이터를 얻기 위한 협력구도이다. 전세계적으로 24개의 기관이 참여하는 의료영상협의체를 운영하는데[7] 의료 영상 데이터 확보에 목적을 두고 2015년에 1조원이 넘는 돈을 주고 인수한 Merge Healthcare도 포함된다.
엑스레이, CT, MRI 같은 의료영상과는 조금 다른 영상 활용 시도도 살펴보자.
AiCure
위 사례들보다는 상대적으로 단순하고 일반화된 인식기술을 활용한다. 영상인식을 환자의 얼굴인식과 약을 식별하는데 사용한다. 환자가 스마트폰 앞에서 약을 보여주고 인식이 되고 나면 입에 넣은 모습과 함께 그 다음에 삼킨것 까지 영상 촬영을 해서 약을 제대로 먹었는지 파악한다. 단순히 약을 먹는 것을 인식하는 것이 아니라 의사-환자-보험기관이 함께 쓰는 플랫폼을 제공해서 처방된 약을 잘 먹고 있는지 의료 기관에서 실시간으로 관리하고 환자에게는 복약 시간 안내도 같이 한다[8].대표적인 사용처는 임상시험에서 시험참가자들에 대한 모니터링이고, 또 만성질환자의 경우 약만 제대로 먹어도 예후가 크게 달라진다고 하니 이들에 대한 지속적인 관리는 요즘같이 의료비용이 계속 늘고 있는 상황에서 크게 관심을 받는 분야다.
Stanford AI-assisted care
이미지넷을 만든 페이페이리 (Feifei Li) 교수가 이끌고 있는 컴퓨터비전과 스탠포드 의과대학의 공동연구다. 병원감염의 해결책으로 손씻기가 중요하지만 의료 현장에서 잘 이루어지는지, 어떻게 하면 더 나아지게 할 수 있는지를 연구하기 위해 병동 전역에 카메라를 설치했다. 개인정보 보호를 위해 외형을 식별할 수는 없는 뎁스카메라를 사용하는데 주로 어떤 활동 다음에 씻지 않는지, 동선상에 문제가 없는지 등 병원의 표준 매뉴얼과 실제 활동 사이의 차이를 보고자 한다. 또한 독거노인의 움직임, 식사, 걸음걸이, 휴식 등 일상활동 패턴을 분석하고 위급한 일이나 일상에 대한 요약을 환자 가족에 알려주는 연구, 중환자실(ICU)에서 영상과 신호 데이터를 이용해 환자 건강 상태를 확인하고 간호사의 활동을 해석하여 자동으로 간호 업무 내용을 텍스트로 기록하는 등에도 딥러닝 기반의 영상 분석을 활용한다[9].
정리하며
의료영상 분야는 첫째, 이미 많이 쓰이고 있는 영상분석 알고리듬 또는 네트워크를 잘 활용할 수 있다는 점에서 접근이 쉽다. 둘째, 다른 EMR 데이터에 비해 상대적으로 잘 표준화된 데이터를 구하기 쉽다는 점에서 많은 기업들이 비슷한 기술로 뛰어들고 있다. 최근 추세로는 몇 개 사례에서 보았듯이 영상과 다른 EMR 데이터의 결합, 의사의 음성 데이터와의 결합, 유전체 분석 데이터와의 결합 등 멀티모달 분석에 대한 시도가 있다.
Relational Network 같은 기술적 발전들이 여러 데이터의 통합에 도움을 주지 않을까 기대해 본다. 영상진단이 아니라 진단 전체로 넓게 보면 의료 서비스가 쉽지 않은 곳에서 환자의 자가진단을 도와주는 챗봇 형태의 서비스인 Babylon이나 Your.MD, Ada Health 같은 기업도 주목할 만하고 영상, 검사결과, 라이프로그, 유전정보 등을 모두 모으겠다는 iCarbonX 같은 중국 회사도 6천억원대의 투자를 받고 바삐 움직이고 있다[10]. 하지만 영상진단이 단순히 영상이 많다고 진단이 되는 것이 아니라 대부분의 경우 잘 레이블된 (정답이 있는) 고품질 데이터를 의료 전문가인 의사들이 상당한 시간을 들여서 만들어야 한다는 점에서 막상 계속하기는 쉽지 않은 분야다.
그리고 각국의 보험제도와 연관되어 있는 의료산업의 특성상 의료기기에 연계해서 판매하거나 보험수가를 받지 못하면 제대로 된 수익모델을 만드는 것도 쉬운 일은 아니다. 잠재적인 환자 입장에서 어쨌든 AI 기술이 더 발달하는 것은 기대되는 일이지만 말이다.
글 | 하영식 ysha@vaiim.com
ICT 및 healthcare 영역에서 전략 컨설팅을 하는 바임컨설팅(www.vaiim.com)의 대표 파트너이다. 인간, 컴퓨터, 네트워크라는 세 키워드를 마음에 품고 사회에 나왔는데 어느덧 이게 현실이 되는 세상이 온 것 같아, 설레는 마음으로 인공지능이 바꾸어갈 세상에 대해 공부하고 세상을 한 발짝이라도 좋게 바꾸어 보려고 노력하고 있다.
참고문헌
[1] 참고 | Frost & Sullivan, ‘Transforming Healthcare through Artificial Intelligence System, 2016
[2] 참고 | https://www.cbinsights.com/blog/artificial-intelligence-healthcare-funding/
[3] 참고 | https://www. economist.com/news/special-report/21700758-will-smarter-machines-cause-mass-unemployment- automation-and-anxiety
[4] 참고 | https://www.technologyreview.com/s/532166/with-100-million- entrepreneur-sees-path-to-disrupt-medical-imaging/
[5] 참고 | http://jamanetwork.com/journals/jama/ article-abstract/2588763
[6] 참고 | https://research.googleblog.com/2017/03/assisting-pathologists-in- detecting.html
[7] 참고 | http://www.merge.com/News/Article.aspx?ItemID=677
[8] 참고 | https://aicure. com/
[9] 참고 | http://aicare.stanford.edu
[10] 참고 | http://www.nature.com/news/chinese-ai-company- plans-to-mine-health-data-faster-than-rivals-1.21258