brunch

매거진 AI

You can make anything
by writing

C.S.Lewis

[카카오AI리포트]AI 의료영상 기술 활용 사례


AI 기술의 발전이 과연 우리 삶을 변화시켜줄 수 있을까요? 이 질문에 답을 찾기 위한 노력으로 카카오 AI 리포트는 지금까지 다양한 분야, 기술, 활용 가능성 등을 소개해 왔습니다. 이번에는 ‘의학 분야에서의 AI 기술'을 소개하려고 합니다. 새로운 기술이 개발된다고 해서 바로 돈을 벌 수 있는 산업분야에 응용되기는 쉽지 않습니다. 새로운 기술이 기존에 해결하지 못했던 문제들을 해결할 수 있는 방법을 제시해 준다거나, 기존의 비효율을 개선한다면 그 기술은 산업 분야의 혁신을 가져올 수 있습니다. 


[카카오 AI 리포트] Vol. 5 (2017년 7월호) 는 다음 내용으로 구성되어 있습니다.


[1] Industry - AI와 의료

01. 민현석 : 내가 의료 AI를 선택한 이유

02. 안성민 : 데이터 기반 정밀 의료와 AI

03. 황상흠 : 딥러닝 기반 의료영상 기술의 진화

04. 김남국 : 의료와 AI 신기술의 융합 : 과제와 전망

05. 정규환 : AI 의료영상 기술 활용 사례 (이번글)

06. 양광모 : 인공지능 의료, 이제 윤리를 고민하다 


[2] Review - AI의 진화

07. 정부환 : 더욱 똑똑해진 AI 광고 알고리듬

08. 이원형 : AI는 인간과 같은 감정을 가지게 될까?


[3] Information 

09. 하반기 주요 AI 컨퍼런스 소개 


[카카오 AI 리포트] Vol. 5 전체글 다운받기


내용 중간의 [ ]는 뒷부분에 설명 및 관련 문헌의 소개 내용이 있음을 알리는 부호입니다. 예를 들어, [1]에 대한 설명은 '설명 및 참고문헌'의 첫 번째에 해당합니다. 



최근 딥러닝을 중심으로 기계학습 기술이 인공지능의 주요 방법론으로 자리 잡으면서 의료 영상분석에서도 기존의 임상적, 경험적 지식이나 규칙에 근거한 특징 추출 및 분석 방법에서 데이터 기반(data-driven)의 일관적이고 객관적인 특징 학습 및 분석 방법으로의 패러다임 이동이 가속화되고 있다. 특히, 일반 영상(natural image)에서 연구되는 다양한 기법들이 의료영상 분석에 적용되는 간격이 점차 짧아지면서 단순히 자연 영상에서 개발된 모델을 의료 영상에 그대로 적용하는 수준이 아닌, 의료 영상의 특성을 고려한 새로운 방법론들이 속속 발표되고 있다. 더 나아가 기존의 임상적 지식을 통합하거나 의료에서 반드시 필요한 해석가능성(interpretability)에 관한 연구들이 진행됨에 따라 실제 임상에서 활용 가능성이 높은 결과들이 등장하기 시작하였다. 본 글에서는 최근에 개발되고 있는 다양한 인공지능 기술들이나 연구 주제들이 의료영상 분석에 실제로 어떻게 적용되고 있는지 다양한 사례를 통해서 살펴보고 앞으로의 방향성과 남은 과제에 대해 논의해보고자 한다. 


인공지능 - 의료영상 분석의 주류로


의료영상 분석에서 기계학습 방법은 특정 병변의 검출 및 분류, 인체 기관의 세부 구조 분할, 영상 간의 정합, 유사 영상 검색 등 다양한 영역에서 활용되어 왔다[1]. 특히 딥러닝 모델 중 영상인식에 주로 사용되어온 컨볼루셔날 신경망(convolutional neural network, CNN)은 그 구조가 제안된 지 얼마 지나지 않은 1993년 무렵부터 폐결절 검출이나[2], 유방조직 미세석회화[3] 검출 등 의료영상 분석에 적용된 바 있으나 데이터의 규모나 모델의 크기 및 학습 방법, 그리고 연산 자원의 한계로 실험적인 수준에서 머물렀다. 이러한 가운데, 딥러닝이 영상인식에서 새로운 성능적 돌파구를 마련하면서 의료영상에서도 다시 딥러닝이 적극적으로 도입되기 시작하였다. 특히 ImageNet 대회에서 2012년 CNN을 사용한 팀이 큰 격차로 우승[4]한 이후 2015년에 이르러 간접적 비교에서 인간의 영상 인식 수준을 넘어서는 결과를 보인 것과 같이 의료영상에서도 2012년 ICPR(international conference on pattern recognition)의 유방 병리 영상 내 유사분열세포 검출에서 CNN기반의 모델이 우승한 이후[5], 최근 구글이 JAMA(the journal of the American medical association)에 발표한 안저영상 기반 당뇨성망막병증(diabetic retinopathy, DR) 검출[6], 스탠퍼드 대학에서 Nature에 발표한 피부암 분류[7] 등 전문의의 수준에 준하거나 이를 넘어서는 결과들이 등장하면서 큰 반향을 일으킨 바가 있다.


의료영상의 데이터적 특성과 해결방안


이렇게 딥러닝이 의료영상 분석에 본격적으로 적용되어 오면서 일반 영상에 비해 의료영상이 가지는 다양한 특성들을 고려할 필요성이 있었는데, 이 중 가장 중요한 점은 바로 의료영상의 데이터 측면의 특성이다. 특히 의료영상은 입력 영상의 수는 충분하지만 전문가의 판독이나 표식(label)을 획득하는데 많은 비용과 시간이 드는 경우가 빈번하여 이를 해결하기 위한 다양한 방법들이 제안되어 왔다. 가장 기본적으로, 비지도 학습(unsupervised learning)을 통해 병변의 중요한 영상적 특징을 추출하도록 학습하고, 이를 소수의 전문가 판독 결과를 바탕으로 지도 미세조정(supervised fine-tuning)하는 방법이 있는데, [그림 1]과 같이 유방 초음파와 흉부 CT에서 병변에 대해 양성, 악성에 대한 판단을 위해 SDAE(stacked denoising auto encoder)로 사전학습을 수행하고 수백 개 수준의 병변에 대한 판독 결과와 병변 영역의 크기 및 비율에 대한 정보를 바탕으로 추가 학습을 한 결과 기존의 컴퓨터 보조 진단(computer-aided diagnosis, CADx) 시스템 대비 높은 성능을 보임을 발표한 사례[8]가 있다.   


[그림 1] 사전 학습 및 세부 지도 학습 방법을 통한 병변 분류


딥러닝의 장점 중 하나는 이미 학습된 모델을 재사용하여 다른 영역의 데이터에 대해 추가로 학습하는 전이학습(transfer learning)이 가능하다는 점인데, 이는 처음부터 새롭게 학습하는 경우에 비해 학습의 속도가 빨라지거나 최종 모델의 성능이 높아지는 효과를 가져온다고 알려져 있다. 특히 이러한 방법은 새로운 영역의 데이터가 부족할 때 더욱 유용하며, 의료영상에서도 일반영상에 대해 이미 학습된 모델을 가져와 의료영상으로 추가 학습시키는 방법으로 모델의 성능을 개선하는 연구들이 수행되어 왔다. 미국 국립보건원(national institute of health, NIH)에는 흉복부 림프절(thoracoabdominal lymph node)를 검출하기 위한 컴퓨터 보조 검출(computer-aided detection, CADe) 시스템을 개발하기 위해 이미지넷에서 이미 학습된 잘 알려진 네트워크를 가져와 추가 학습함으로써 기존 성능을 넘어서는 결과를 얻었으며[9], 애리조나 주립대와 메이요 클리닉(Mayo clinic)의 연구팀은 대장내시경 영상에서 용종을 검출하는 CADe 시스템 개발을 위해 다양한 조건에서 전이 학습이 최종 성능을 높이는데 도움이 된다는 점을 확인[10]하였다. 앞서 언급한 구글의 당뇨성망막병증 판단 모델이나 스탠퍼드 대학의 피부암 분류 모델도 일반영상에서 이미 학습이 된 구글의 Inception v3 모델[11]을 바탕으로 의료 영상에 추가 학습하는 방법을 택하였다는 공통점이 있다. 


[그림 2] 약지도 학습 기반 흉부 X영상 분류 및 병변 탐지


한편, 의료 영상 판독 시스템 개발을 위해 병변의 위치에 대한 표시 정보가 없는 상황에서 영상의 전체에 대한 소견만을 바탕으로 병변의 위치를 검출해내야 하는 약지도 학습(weakly-supervised learning)도 주요 문제 중 하나이다. 대표적인 방법들은 분류 모델이 예측 값을 내는데 가장 큰 영향을 미치는 입력 영상 내 영역을 역추적하는 방법으로서, [그림 2]에 도식화된 NIH의 최근 연구[12]가 이에 속한다. 해당 논문에서는 10만 장 가량의 흉부 X-선 영상의 판독문에서 8개 흉부 질환에 대한 분류 결과를 추출하고 해당 영상을 기반으로 이를 예측하도록 학습시키는데, 기존 모델의 활성화(activation) 값이 공간적인 정보를 가지도록 하는 전이층(transition layer)으로 변환하고, 전이층의 여러 특징 지도들을 통합(pooling)한 이후 가중 합(weighted sum)하여 최종 예측값을 산출하도록 변경하였다. 이렇게 되면, 최종 예측값 산출에 대한 각 공간적 특징 지도 별 기여도를 알 수 있고, 해당 특징 지도의 활성화 값을 통해 입력 X-선 영상의 중요 영역을 추적하여 영상에 대한 분류뿐 아니라 병변의 위치도 검출할 수 있다. 


위에서 전문가의 판독이나 표식이 부족한 경우에 이를 해결하기 위한 방안들을 소개하였지만, 궁극적으로 딥러닝 모델은 데이터 기반의 접근 방법으로서, 대량의 학습 데이터가 주어진 경우 그 잠재력이 가장 잘 활용될 수 있다. 하지만 데이터 기반 방법론의 특성상 데이터에 품질에 따라 그 성능이 크게 좌우될 수 있다는 점에서 주의를 요하게 되는데, 특히 의료에서 판독의 일관성이나 일치도가 낮은 질환의 경우 이를 고려한 데이터 수집 방법의 수립이 반드시 필요하다. 아래 [그림 3]은 안저 영상에 대해서 미국 안과 전문의들의 판독 결과를 비교한 것인데, 특정 환자에 대해서는 의사마다 5가지 중증도 모두에 걸쳐 판독 결과가 존재할 정도로 일치도가 낮다. 따라서 앞서 설명한 구글은 논문[6]에서는 하나의 영상에 대해 다수의 의사가 판독하도록 하고, 이들의 다수결을 정답으로 학습하도록 하여 일관성을 높이는 노력을 하였다. 스탠퍼드 대학의 피부암 분류 논문[7]에서는 피부질환의 분류체계(taxonomy)를 정의하여 의사간의 세부적인 질환 분류의 불일치가 최종적인 대분류 결과에 영향이 덜 미치도록 하는 방법을 선택하는 방법을 취하기도 하였다. 


[그림 3]안저 영상에 대한 안과 전문의들의 판독 결과 비교


끝으로 의료영상의 데이터 측면에서 또 하나 고려할 점은, 의료영상에 대한 전문가의 판독이나 병변 표시를 위한 편리한 도구의 유무가 데이터 품질 및 규모에 매우 큰 영향을 미친다는 점이다. 구글이 당뇨성망막병증 연구[13]를 위해 13만 장 가량의 안저 영상을 54명의 전문의에게 판독을 의뢰할 수 있었던 것은, 편리한 인터페이스로 판독에 집중할 수 있는 도구를 제공한 덕분임에 주목해야 한다.


의료영상에서의 GAN


앞서 설명한 바와 같이 의료영상에서 딥러닝을 적용하려는 초기의 시도는 의료영상의 데이터적 특성과 한계를 극복하려는 노력에 집중되었다. 하지만 최근 들어 딥러닝 기반 영상 분석의 적용 범위가 확대되면서, 의료영상에서도 최근 딥러닝 기술들을 적극적으로 도입하거나 혹은 의료분야의 특성을 고려한 다양한 연구들이 이루어지고 있다.  


최근에 가장 주목받는 딥러닝 방법 중 하나인 생성적 적대 신경망(generative adversarial network, GAN)도 활발하게 의료에 적용되고 있는데, 인공 의료영상의 생성의 측면에서 바라보기보다는 기존 의료영상에서 연구되던 병변 분할이나 영상 변환과 같은 곳에 적용되어 좋은 결과를 보여주고 있다. 먼저, 독일 암센터 연구팀은 자기공명영상(magnetic resonance imaging, MRI)에서 진행성 전립선암(aggressive prostate cancer) 병변 검출을 위한 GAN기반 영상 분할 방법을 제안하였는데[14], [그림 4]와 같이 전문가의 병변 표식과 분할 모델이 생성한 병변 표식을 구분하는 모델을 학습하고 그 결과를 다시 분할 모델 학습에 반영하는 것을 반복하도록 하였다. 이러한 과정을 통해 분할 모델의 병변 표식 결과가 전문가의 병변 표식 수준에 가까워지도록 학습되고 결과적으로 기존의 영상 분할 방법에 비해 유의한 성능의 개선을 얻게 되었다. 


[그림 4]GAN을 이용한 진행성 전립선암 병변 분할

또한 GAN은 서로 다른 영역의 영상 간의 번역(translation) 혹은 변환에 활용될 수 있는데, 의료영상에는 촬영 장치나 목적에 따라 다양한 모달리티(modality)의 영상이 존재하므로 이들 간의 변환은 시간과 비용을 단축하거나 판독의 정확도를 향상시키는데 활용이 가능하다. 미국 노스캐롤리나 연구팀은 [그림 5]와 같이 GAN을 이용하여 MRI를 컴퓨터 단층촬영(computerized tomography, CT) 영상으로 합성하는 연구 결과를 발표하였는데[15], 이때 단순한 GAN 구조로 합성하도록 하면 일반적인 CT 영상과 다르게 흐릿한(blurry) 영상이 생성되므로 실제 CT 영상의 특정 화소와 주변 화소 간의 기울기(gradient)를 모델이 합성한 영상에서도 유지하도록 하는 손실 함수를 추가하여 학습하였다. 그 결과 [그림 5]와 같이 기존의 방법에 비해 보다 선명하고 실제 CT영상과 유사한 합성 영상을 얻을 수 있었는데, 아직까지는 실험적인 수준이지만 이러한 모달리티간 영상 변환이나 저선량 CT를 표준선량 CT로 변환하는 연구 등이 계속되면 방사선 영상 촬영으로 인한 피폭을 줄이면서도 정교한 방사선치료 계획을 수립하거나 정밀한 판독을 위한 필요한 정보를 얻는데 활용할 수 있다. 이러한 연구들이 지니는 한계는 입력과 목표 출력 영상이 쌍(pair)으로 주어져야 한다는 점으로서 의료에서는 특히 이러한 쌍으로 주어진 영상데이터 확보가 쉽지 않은데, 최근 들어 쌍으로 주어지지 않은 두 영역의 영상 간 변환에 대한 연구들이 등장하면서[16] 이러한 제약도 해소되고 있으므로 앞으로 관련된 다양한 연구 결과들이 발표될 것으로 기대된다. 


[그림 5]GAN을 이용한 MRI의 CT영상 변환 결과


의료영상 인공지능 모델의 해석가능성 및 설명력


의료영상 분석에 딥러닝을 적용할 때 또 하나 고려해야 할 점은 바로 모델의 판단에 대한 설명이 가능한지 여부, 즉 해석 가능성이다. 데이터 기반의 접근법인 딥러닝 모델의 특성상 예측 정확도가 높다고 하더라도 질환의 종류나 중증도에 따라 데이터 수집 경로가 달라 발생하는 데이터 편중(bias)이나 질환과 관련 없는 노이즈를 학습하여 판단을 내릴 가능성이 있다. 따라서 판단의 근거를 시각화하여 모델이 유의미한 특징을 학습하는지 혹은 새로운 영상적 특징을 발견하였는지를 파악해 보는 것은 학습 결과에 대한 신뢰도를 높이고 새로운 영상적 표시자(biomarker)를 발견하는데 중요한 역할을 한다. 이러한 딥러닝 모델의 판단 근거의 시각화 방법도 꾸준히 발전해 왔는데, 가장 단순한 방법은 입력 영상의 관심 영역을 폐색(occlusion)하여 예측 결과의 변화 정도를 보는 방법으로서 해당 영역의 중요도가 클수록 출력 값의 변화가 크다는 점을 가정으로 한다. 이 방법은 하버드 협력병원인 메사추세츠 종합병원(Massachusetts general hospital, MGH)이 개발한 수부 골연령(hand bone age) 판독 시스템[17]에 적용되었는데, 아래 [그림 6-a]와 같이 영상이 집중하는 곳일수록 붉은 영역으로 표시되며 실제 연령대별 주요 뼈 구조의 변화를 반영하는 것을 확인할 수 있다. 하지만 폐색 기반의 시각화는 전체 입력 영상 영역을 슬라이딩 윈도우(sliding window)방식으로 가려가며 반복적으로 모델의 출력 값을 확인하여야 하므로 계산 비용이 크고, 폐색 영역의 크기와 모델의 구조에 따라 시각화된 주요 영역이 세밀하지 못한 단점이 있다. 또 다른 시각화 방법으로서는 앞서 NIH의 흉부 X-선에 대한 약지도 학습과 같이 공간적 정보를 가지는 특징 지도의 가중합 하는 방법으로 [그림 6-b]와 같이 뷰노의 골연령 판독 시스템[18]이 이러한 방법을 적용하고 있다. 이 방법의 장점은 전방향 계산(forward pass)한번으로 시각화에 필요한 정보를 모두 얻을 수 있어 가장 빠르다는 점이며, 단점은 역시 사용되는 특징 지도의 크기에 따라 시각화의 세밀도가 낮을 수 있다는 점이다. 


[그림 6] CT영상 및 판독 시스템 시각화


또 다른 시각화 방법으로는 입력 영상의 각화소의 변화에 따른 출력 값의 민감도를 측정하는 방법으로, 역전파(back propagation)를 통해 입력 영상의 화소별 편미분(partial derivative) 값을 시각화하는 방법이다. 옥스퍼드 대학에서는 [그림 6-c]와 같이 척추 MRI에서 여러 질환을 동시에 찾아내거나 점수화하는 다중 작업 모델[19]의 판단 근거 시각화에 이 방법을 적용하였다. 이 방법은 화소 단위의 매우 세부적인 시각화가 가능하고 역전파를 한번 계산하여 시각화에 필요한 정보를 얻을 수 있어 비교적 빠르지만, 시각화의 결과가 입력영상의 넓은 영역에 분산되는 경향이 있어 직관성이 떨어지고 해석이 용이하지 않은 단점이 있다. 최근 들어서는 예측 차 분석(prediction difference analysis)을 통한 시각화 방법[20]이 제안되었는데, 이는 관심 영역의 모델 출력 값에 대한 중요도를 평가하기 위해서 원본 영상에 대한 출력 값과 관심 영역을 주변화(marginalize)한 영상의 출력 값의 차이를 관련 점수(relevance score)로 하여 시각화하는 방법이다. 기본적으로 관심 영역을 대치하면서 출력의 변화를 보는 폐색 방법과 유사하지만, 해당 영역을 모두 특정 값으로 대치해버리는 것이 아니라 관심 영역의 주변부로부터 샘플링하여 대치한다는 차이점이 있다. 결과적으로 [그림 6-d]와 같이 뇌 MRI로부터 HIV 환자와 정상환자를 분류하는 모델의 판단 근거를 시각화한 결과, 직관적이고 해석이 용이한 결과를 얻을 수 있다.


의료영상 인공지능의 남은 주제와 미래


이상으로 인공지능 기반의 의료영상 분석의 사례들과 고려해야 하는 주제들에 대해서 살펴보았다. 이러한 주제들 외에도, 인공지능 모델의 판단 결과에 대한 불확실성을 추정함으로써 판단의 불확실성이 높은 경우 의사를 개입시키는 방법도 제시되고 있으며[21], 임상적 혹은 의학적 지식을 함께 반영한 모델 학습 방법, 질환적으로 유사한 영상을 검색하는 모델 개발, 조영 증강(contrast enhanced) 영상이나 추척 관찰(follow-up)영상과 같은 3차원 이상의 고차원 영상 데이터에 대한 분석, 인공지능 모델 학습 및 활용 시의 의료영상의 보안과 관련된 연구[22], [23] 등 이제 연구가 시작되었거나 본격적인 연구가 필요한 주제들이 많이 남아 있다.


하지만 세계최초로 미국 식약청(food and drug administration, FDA) 승인을 받은 딥러닝 기반의 심장 MRI 정량화 소프트웨어 Cardio DL[24]의 사례처럼 현재까지 개발되어 널리 쓰이는 기술도 잘 정의된 문제와 고품질의 데이터와 결합된다면 인공지능 기반 의료영상 분석 기술이 실제 임상에 활용되는 시기의 도래가 가속화 될 수 있다. 국내에서도 식품의약품안전처가 빅데이터 및 인공지능 기술이 적용된 의료기기에 대한 허가심사 가이드라인을 마련하고 여러 인공지능 기업들이 인허가 절차에 돌입한 상황으로 멀지 않은 시점에 국내에서도 인공지능 기반의 의료 영상 분석 소프트웨어들이 활용되기 시작할 것이다.

인공지능 기술은 향후 영상 정보뿐 아니라 다양한 환자 건강 정보나 유전체 정보를 통합하여 분석함으로써 질병의 조기 발견, 예후 및 생존 예측 등을 통해 의료 지출을 감소시키고 환자들의 삶의 질을 향상할 수 있는 잠재력을 가지고 있다. 따라서 병원과 기업, 그리고 임상 연구자와 인공지능 연구자들의 보다 적극적인 만남과 협업을 통해 데이터 기반의 정밀 의료의 구현과 확산의 가능성이 보다 높아질 것으로 기대된다.




글 | 정규환 khwan.jung@vuno.co
포스텍 산업경영공학과에서 최적화와 기계학습으로 박사학위를 받고 SK텔레콤, SK플래닛, 삼성전자종합기술원을 거쳐 현재는 뷰노의 공동창업자이자 CTO로 일하고 있다. Shallow 아키텍처로 학위를 받았지만 지금은 그걸 까야 먹고사는 형편이 되었고, 가장 무서워하는 곳이 병원이었지만 정신을 차려보니 어느덧 가장 자주 가는 곳이 되어 있었다. 배워서 남주자는 마음으로 살고 있기 때문에 몸은 지쳐도 배우는 것이 많은 지금을 감사하게 생각하고 있으며 우리나라 의료 발전에 작은 기여라도 할 수 있기를 소망하고 있다.




[1] 논문: Litjens, G. et. al., “A Survey of Deep Learning in Medical Image Analysis”, arXiv, 2017.

[2] 논문: Lo, S-C. et. al., “Computer-assisted diagnosis of lung nodule detection using artificial convolution neural network”, SPIE Medical Imaging, 1993.

[3] 논문: Chan, H.P. et. al., “Computer-aided detection of mammographic microcalcifications : pattern recognition with an artificial neural network”, Medical Physics, 1995. .

[4] 자료: http://image-net.org/challenges/LSVRC/2012/results.html

[5] 논문: Ciresan, D.C., et. al., “Mitosis detection in breast cancer histology images using deep neural networks”, MICCAI, 2013.

[6] 논문: Gulshan, V. et. al., “Development and validation of a deep learning algorithm for detection of diabetic retinopathy in retinal fundus photographs”, JAMA, 2016.

[7] 논문: Esteva, A. et. al., “Dermatologist-level classification of skin cancer with deep neural networks”, Nature, 2017.

[8] 논문: Cheng, J-Z., et. al., “Computer-aided diagnosis with deep learning architecture: application to breast lesions in US images and pulmonary nodules in CT scans”, Scientific Reports, 2016.

[9] 논문: Shin, H-C., et. al., “Deep convolutional neural networks for computer-aided detection: CNN architectures, dataset characteristics and transfer learning”, IEEE trans. on. Medical Imaging, 2016.

[10] 논문: Tajbakhsh, N., et. al., “Convolutional neural networks for medical image analysis: fine tuning or full training?”, IEEE trans. on. Medical Imaging, 2016.

[11] 자료: https://research.googleblog.com/2016/03/train-your-own-image-classifier-with.html

[12] 논문: Wang, X., et. al., “ChestX-ray8: Hospital-scale chest X-ray database and benchmarks on weakly-supervised classification and localization of common thorax diseases”, CVPR, 2017

[13] 자료: https://www.youtube.com/watch?v=oOeZ7IgEN4o

[14] 논문: Kohl, S., et. al., “Adversarial networks for the detection of aggressive prostate cancer”, arXiv, 2017.

[15] 논문: Nie, D., et. al., “Medical image synthesis with context-aware generative adversarial networks”, arXiv, 2016.

[16] 논문: Zhu, J-Y., et. al., “Unpaired image-to-image translation using cycle-consistent adversarial networks”, arXiv, 2017.

[17] 논문: Lee, H., et. al., “Fully automated deep learning system for bone age assessment”, Journal of Digital Imaging, 2017.

[18] 논문: Kim, J. R., et. al., “Computer-assisted program using deep learning technique in determination of bone age: evaluation of the accuracy and efficiency”, American Journal of Roentgenology, 2017.

[19] 논문: Jamaludin, A., et. al., “SpineNet: automatically pinpointing classification evidence in spinal MRIs”, MICCAI, 2016.

[20] 논문: Zintgraf, L. M., et. al., “Visualizing deep neural network decisions: prediction difference analysis”, ICLR, 2017.

[21] 논문: Leibig, C., et. al., “Leveraging uncertainty information from deep neural networks for disease detection”, bioRxiv, 2016.

[22] 논문: Shokri, R., et. al., “Privacy-preserving deep learning”, ACM SIGSAC CCS, 2015.

[23] 논문: Papernot, N., et. al., “Semi-supervised knowledge transfer for deep learning from private training data”, ICLR, 2017.

 [24] 자료: https://www.forbes.com/sites/bernardmarr/2017/01/20/first-fda-approval-for-clinical-cloud-based-deep-learning-in-healthcare/#5520cc62161c





매거진의 이전글 [카카오AI리포트]의료와 AI 신기술의 융합
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari