brunch

매거진 AI

You can make anything
by writing

C.S.Lewis

[카카오AI리포트]AI 의료, 이제 윤리를 고민하다

AI 기술의 발전이 과연 우리 삶을 변화시켜줄 수 있을까요? 이 질문에 답을 찾기 위한 노력으로 카카오 AI 리포트는 지금까지 다양한 분야, 기술, 활용 가능성 등을 소개해 왔습니다. 이번에는 ‘의학 분야에서의 AI 기술'을 소개하려고 합니다. 새로운 기술이 개발된다고 해서 바로 돈을 벌 수 있는 산업분야에 응용되기는 쉽지 않습니다. 새로운 기술이 기존에 해결하지 못했던 문제들을 해결할 수 있는 방법을 제시해 준다거나, 기존의 비효율을 개선한다면 그 기술은 산업 분야의 혁신을 가져올 수 있습니다. 



[카카오 AI 리포트] Vol. 5 (2017년 7월호) 는 다음 내용으로 구성되어 있습니다.


[1] Industry - AI와 의료

01. 민현석 : 내가 의료 AI를 선택한 이유

02. 안성민 : 데이터 기반 정밀 의료와 AI

03. 황상흠 : 딥러닝 기반 의료영상 기술의 진화

04. 김남국 : 의료와 AI 신기술의 융합 : 과제와 전망

05. 정규환 : AI 의료영상 기술 활용 사례

06. 양광모 : 인공지능 의료, 이제 윤리를 고민하다 (이번글)


[2] Review - AI의 진화

07. 정부환 : 더욱 똑똑해진 AI 광고 알고리듬

08. 이원형 : AI는 인간과 같은 감정을 가지게 될까?


[3] Information 

09. 하반기 주요 AI 컨퍼런스 소개 


[카카오 AI 리포트] Vol. 5 전체글 다운받기


내용 중간의 [ ]는 뒷부분에 설명 및 관련 문헌의 소개 내용이 있음을 알리는 부호입니다. 예를 들어, [1]에 대한 설명은 '설명 및 참고문헌'의 첫 번째에 해당합니다. 



유발 하라리 작가는 최신작 <호모 데우스>를 통해 인공지능의 등장으로 인류가 멸망할 것으로 예언을 했다. 하라리는 역사학자로써 <사피엔스>란 책을 통해 세계적인 유명세를 얻은 작가이다. 그는 인간의 역사를 인지혁명, 농업혁명, 과학혁명이라는 틀로 분석한다. 



역사적으로 우리의 선조격인 호모 사피엔스는 약 20만 년 전에 등장했다. 그러다가 7만 년 전쯤 도구를 사용하기 시작했다. 이 시기를 인지혁명으로 규정했다. 인류가 똑똑해지기 시작했다는 의미다. 이후 1만 2,000년 전에 수렵생활을 중단하고 농경지에 정착해 생활하기 시작했다. 이를 농업혁명이라고 불렀다. 개인으로 보면 수렵생활보다 편하지 않지도 않고 감염병에도 취약했지만 인류 전체로 봤을 때는 매우 효율적인 시스템으로 해석했다. 과학혁명은 약 5백 년 전에 일어난 자본주의와 에너지 생산과 소비의 확대 등 산업혁명을 전반적으로 일컫는 말로 정의했다. 


역사적으로 우리의 선조격인 호모 사피엔스는 약 20만 년 전에 등장했다. 그러다가 7만 년 전쯤 도구를 사용하기 시작했다. 이 시기를 인지혁명으로 규정했다. 인류가 똑똑해지기 시작했다는 의미다. 이후 1만 2,000년 전에 수렵생활을 중단하고 농경지에 정착해 생활하기 시작했다. 이를 농업혁명이라고 불렀다. 개인으로 보면 수렵생활보다 편하지 않지도 않고 감염병에도 취약했지만 인류 전체로 봤을 때는 매우 효율적인 시스템으로 해석했다. 과학혁명은 약 5백 년 전에 일어난 자본주의와 에너지 생산과 소비의 확대 등 산업혁명을 전반적으로 일컫는 말로 정의했다. 


유발 하라리 작가는 신작 <호모 데우스>에서 ‘생명공학에 따르면 인간의 행동은 인간의 자유의지가 아닌 일종의 호르몬의 영향에 따라 움직인다’며 인간행동 자체를 일종의 알고리즘으로 봤다. 그렇기에 인간이 특정한 선택을 하기 전에 알고리즘으로 만들어진 인공지능이 그 선택을 대신하도록 할 수 있고, 이런 기술적 발달은 대규모 실직 사태와 최종적으로 인류의 종말로 인도할 가능성도 있다는 것이다. 


인공지능에 도덕과 윤리가 필요한가?

체스에 이어 인공지능이 바둑에 있어서도 인류를 앞섰다. 구글의 알파고가 이세돌 9단을 꺾으면서 인공지능에 대한 관심이 하늘을 찌르고 있다. 정부도 나서서 인공지능 등을 활용한 4차 산업을 육성하겠다고 말하고 있다.

그러나 이런 관심의 이면에는 불안감도 도사리고 있다. 가장 큰 것은 인공지능이 우리의 일자리를 대체할 가능성이다. 안타깝게도 이 부분은 현실이 될 가능성이 많다. 수많은 연구기관에서 현재의 일자리 중 단순한 업무부터 대체될 것이라고 예측하고 있으니 말이다. 그 다음의 불안감은 영화 터미네이터나 매트릭스에 나오는 인공지능처럼 인간을 괴롭히는 나쁜 역할을 하지는 않을까 하는 걱정이다. 이런 사태를 막기 위해서라도 인공지능의 윤리가 필요하다. 

올해 열린 대한의료정보학회 춘계학술대회는 인공지능의 윤리에 대한 심도 깊은 토의가 열렸다. 토의에 참여한 한국정보화진흥원의 이영주 수석은 여섯 가지 이슈를 대비해야 한다고 했다. 


첫째, 과연 안전하게 작동할 것인가

둘째, 프라이버시 문제

셋째, 사용자의 오남용 문제

넷째, 누가 어떻게 책임질 것인가

다섯째, 인간의 고유성은 어디까지인가 

여섯째, 인공지능에 대한 막연한 공포 등이었다.


그 중에서 가장 크고 당면한 문제는 안전문제다. 이미 상식이 됐듯이 자율주행 자동차는 기술적으로 만들어졌고, 법과 제도만 보완되면 언제든 실제 도로에서 볼 수 있다. 그러나 자율주행 자동차에도 큰 결함이 있는데 바로 트롤리 딜레마(trolley problem)를 해결할 수 없다는 것이다.

윤리와 철학을 연구하는 사람에게는 익숙한 주제일 것이다. 트롤리 딜레마란 윤리학의 사고 실험으로 기차가 두 선로에 있는 사람을 칠 수밖에 없다면 많은 사람을 칠 것인가, 소수의 사람을 칠 것인가 하는 철학적 문제를 다룬다. 기차 대신에 자율주행 자동차로 치환해 둘 경우 인공지능은 어떤 판단을 할 것인가. 좀 더 심한 가정도 가능하다. 앞에 갑자기 나타난 유치원생 무리를 칠 것인가, 아니면 탑승자만 다치도록 외벽에 부딪히는 것을 택할 것인가.

혹자는 이런 윤리적 이슈가 ‘철학자들만 관심 있는 사항’으로 치부하기도 한다. 그러나 가능성이 적을 뿐 언제든지 있을 수 있는 일이다. 2015년 기준으로 우리나라에서 발생한 교통사고는 23만 건이 넘는다. 이 중에 보행자 사고는 40%에 가깝다.  


IBM 왓슨은 과연 윤리적일까?


작년 12월 우리나라 최초로 인공지능 왓슨이 길병원에 도입됐다. 언론 보도에 따르면 진료를 본 대다수의 환자가 의료진의 처방과 왓슨의 처방이 다를 때 왓슨을 따르겠다고 밝히고 있다. 이렇게 왓슨을 절대적으로 신뢰해도 될까? 

토론에 참석했던 서울대병원 혈액종양내과 김범석 교수는 국내에 들어온 IBM 왓슨도 윤리적인 측면에 문제가 있다고 봤다. 환자의 사회경제적인 요건을 고려하지 않고 교과서적인 ‘최상’의 치료를 권하기 때문이다. 게다가 이런 왓슨이 최상의 처방은 현재 우리나라 의료시스템에서는 임의비급여 항목으로 ‘불법’에 해당되는 경우도 심심치 않게 있다고 한다.

알다시피 우리나라 의료시스템은 사회보험의 성격이 짙은 건강보험공단이란 단일보험 시스템이다. 최단기간에 전 국민 의료보험을 시행한 만큼 허점도 많다. 대표적으로 보험료가 싸고, 보험의 보장성도 낮고, 병원에 돌려주는 수가도 낮다. 그러다 보니 의학적으로 효과가 있다는 결론이 나온다고 바로 보험 적용을 해주지는 않는다. 게다가 이를 보험적용이 되지 않는 ‘비급여’로 처리하는 것도 애초에 불가능하다. 적발되면 ‘임의비급여’로 병원이 받은 돈 이상을 뱉어내야 하기 때문이다. 이런 속사정을 알 리가 없는 왓슨은 최선의 논문을 검색해 결과를 알려주고 있다.  


IBM의 왓슨(Watson)


왓슨을 이용했을 때 책임의 한계도 여전히 모호하다. 만약 왓슨이 잘못 진단했을 경우 누가 책임질 것인가. 도입한 병원의 책임인가, 아니면 이용하겠다고 결심한 개인의 책임인가, 그것도 아니면 제조사인 IBM의 책임인가. 법인처럼 사람이 아니더라도 책임을 물을 수 있도록 하는 방안도 검토되고는 있다지만 아직 실체화되지는 않고 있다. 

더 큰 문제는 이런 인공지능 활용이 보편화됐을 때 생기는 의료진의 ‘의존증’이다. 지금 추세로 발전해 나간다면 머잖아 모든 병원에서 왓슨과 같은 인공지능을 병원 전산처방시스템과 함께 사용하게 될 것이다. 그렇게 된다면 인공지능이 권하는 처방순위에 따라 많은 의료진들이 의식하지 않은 채 처방을 내리게 될 것이다. 이미 이와 비슷한 경험을 전산처방시스템을 도입하면서 경험한 바 있다. 인공지능이 특정 치료나 치료제를 우선적으로 추천한다면 관련된 회사의 주식은 폭등하게 될 가능성도 배제할 수 없다.      

한편 아직은 인공지능의 윤리를 논하기에는 이르다는 주장도 있다. 예방의학 전문의이자 변호사인 단국대학교 박형욱 교수는 ‘책임 문제는 재물손괴죄란 형법에 따라 소유주가 책임을 지도록 하면 된다’면서 ‘아직 (인공지능의 책임을 묻는다는 것은) 요원한 일이다. 이용하는 의사와 소속 병원의 책임을 묻도록 하면 된다’고 주장했다.

그는 만약 왓슨이 더 발전하게 되어 거의 필수적인 도구로 인정받게 될 경우에는 이를 활용하는 방법에 대해 설명하도록 의무화하는 것도 방법이라고 했다. 지금도 작은 뇌종양일 경우 감마나이프로 수술하거나 전통적인 개두술로 수술하는 방법 모두 유효한데, 이런 경우 환자에게 설명하지 않으면 의사가 법적으로 책임을 지게 되어 있다.

하지만 여전히 더 복잡해질 알고리즘에 의해 추천되는 결과물을 검증하는 문제는 여전히 요원했다. 서울아산병원 빅데이터센터의 감혜진 교수는 ‘인공지능은 매우 복잡한 함수와 같다’며 ‘겉에서 보는 것과 달리 뒤편에서는 복잡한 알고리즘과 새로 추가된 무수한 정보들이 있기 때문이다.’라고 했다. 미래에는 의사들의 새로운 직업으로 ‘알고리즘 감정사’가 생길 것이란 전망도 가능해 보인다.


인공지능에 윤리를 요구해선 안 된다


인공지능에게 윤리를 학습하도록 해서는 안 된다는 주장도 있다. 한국정보화진흥원의 이은주 수석은 ‘인간에게도 윤리적 딜레마는 풀기 어려운 문제’라며 ‘인간이 풀지 못하는 딜레마를 인공지능에게 해결해달라고 해선 안 된다’고 했다. 인간이 윤리적으로 완벽하지 않은데 어떻게 인공지능에게 윤리를 요구할 수 있겠느냐는 뜻이다.

앞서 예를 들었던 단일보험의 문제는 건강보험심사평가원의 기준을 인공지능이 학습하지 못했기 때문에 생긴 일이기 때문에, 소위 ‘심평의학(심사 기준을 뜻함)’에 대해 학습시키면 해결될 수 있다는 것이다. 하지만 정말 답을 내리기 어려운, 의학적, 윤리적 판단 상황에 있어서는 인공지능의 결론을 기대할 수 없다고 했다. 예를 들어 태아를 살릴 것인가 산모를 살릴 것인가, 부족한 인공호흡기를 50세 환자와 60세 환자 중에 누구에게 적용시킬 것인가, 에이즈 환자를 수술해야 하는데 방호복이 없을 때에는 어떻게 할 것인가 등이다.


인간에 있어서는 개인 의사의 가치판단에 의해 어떻게든 결론이 난다. 중증의 50세 남성보다 경증의 60세 남성이 회복 가능성이 더 높다고 판단해 60세 남성에게 인공호흡기를 적용시키고, 50세 남성은 의료진이 엠부백(ambu bag)을 시행하도록 할 수도 있다. 반대로 50세 남성이 중요한 사람이라서 인공호흡기를 적용시키고 60세 남성을 수동으로 산소 공급할 수도 있다. 태아와 산모 사이의 딜레마와 에이즈 환자 수술의 문제도 마찬가지다. 개인이 받아온 교육과 가치체계에 따라 판단이 내려지겠지만 어떤 판단을 하더라도 나름의 이유가 있기 마련이다. 그러나 이런 판단을 기계에게 맡길 수는 없다는 주장이다.


애초부터 인공지능 왓슨이 병원에서 이용되는 것 자체가 윤리적인지 확인을 해야 한다는 주장도 있었다. 단국대학교 박형욱 교수는 ‘의료적으로 활용하려면 식약처에서 유효성과 안정성을 인정해야 한다. 그러나 지금 도입된 왓슨은 유효성과 안정성에 대해 공식적으로 인정받지는 않은 것으로 알고 있다’고 했다. 실제로 왓슨을 도입한 길병원 등에서는 환자가 원할 경우 자문을 받을 수 있도록 하지만, 비용은 청구하지 않고 있다. 아니 못하고 있다고 표현해야 더 정확하다. 


인간이 먼저 자신을 제대로 아는 것이 선행돼야

감혜진 교수는 트롤리의 딜레마를 예를 들며 인간의 윤리를 언급했다. 그는 ‘대다수의 사람들은 최대 다수의 최대 행복이란 공리주의에 따르는 원칙을 좋아한다. 트롤리의 딜레마와 같은 상황에서 많은 사람을 살릴 수 있도록 설정하는 것을 공개적으로 지지한다. 자율주행 자동차도 공리주의적 관점에서 다수를 살리는 선택을 하도록 하라는 것이다. 이 원칙에 따르면 다수 사람들이 갑자기 도로에 튀어나왔을 때 자율주행 자동차가 자기 스스로 벽에 부딪히는 선택을 하도록 해야 한다. 그러나 조사를 해보니 이렇듯 공리주의 관점을 지지했던 사람들의 대다수가, 실제 그렇게 세팅한 자율주행 자동차를 구매하겠느냐고 물으니 구매하지 않겠다고 했다. 인간의 모순이 단적으로 드러난 것이다’고 했다. 인간이 스스로 윤리적이지 않은데 어떻게 인공지능의 윤리를 논할 수 있느냐는 지적이다.


박형욱 교수는 ‘의료에 있어서 윤리적 측면이 모호한 부분이 있다. 장기이식을 하려면 질병관리본부 장기이식관리센터에 등록을 해야 하는데, 나는 젊고 건강한 이식 대기자인데 내 앞에는 노인 이식 대기자가 있다. 노인인 경우 이식한 장기가 제대로 생착되지 않아 결과적으로 장기를 낭비하는 경우도 생길 수 있다. 하지만 현재는 먼저 신청한 사람부터 제공하고 있다’며 철학적 관점을 법률로 강제할 수도 있음을 언급했다.

어떻게 보면 인공지능이 보편화되지 않아 사회적 합의점이 도출되지 않은 상태이기 때문에 벌어지는 논란일 수도 있다. 언론 보도에서나 접한 자율주행 자동차나, 특정 병원에 있는 의료용 인공지능을 생각해보면 사실 그렇기도 하다. 모든 자동차가 자율주행으로 움직이고, 모든 병원에서 인공지능을 활용한다면 논의가 조금 더 단순해질 가능성도 있다. 


유발 하라리는 <호모 데우스>를 통해 인간이 스스로 판단하는 것을 포기하는 시점에 대해 이야기하고 있다. 나를 나보다도 더 잘 아는 인공지능이, 나를 대신해 대선 후보자를 선택해주고, 나를 대신해 배우자를 선택하는 일도 가능하다는 것이다. 이미 일부 논문에서는 페이스북의 ‘좋아요’를 분석해 사람의 성향을 상당히 높은 확률로 예측했다고 보고하고 있다.


만약 인공지능에 의존해 주요한 판단을 내리게 된다면 어떻게 될까. 분명 지금과는 다를 것이다. 유발 하라리는 지금의 자유주의 시스템은 붕괴할 것이라고 비관적으로 예측했다. 대중의 시대는 끝나고 일부 엘리트들이 나머지를 지배하는 구조로 갈 것으로 전망했다. 그렇다고 ‘유발 하라리’의 말을 너무 마음에 담아둘 필요는 없다. 꽤 신뢰할 만한 역사학자긴 하지만 미래를 예측하는 전문가라고 보기는 부족한 부분도 있기 때문이다. 

하지만 인공지능 시대를 맞이해 시사점은 분명히 있다. 인간이 적절하게 개입하지 않으면 좋지 않은 결과로 치달을 수 있다. 이를 사전에 막기 위해서는 인공지능의 윤리에 대해 더 깊은 고민이 필요하다. 




글 | 양광모 kmhi.yang@samsung.com
비뇨기과 전문의로 공중보건의 생활을 하다가 블로그에 매료되어 기자가 되기로 결심했다. 블로그 미디어인 코리아헬스로그 편집장과 종이 매체인 청년의사신문의 편집국장을 거쳤다. 그러다 언론과 병원이 바라보는 의료시스템에 대한 생각의 간극이 크다고 느껴 병원으로 돌아갔다. 현재는 삼성서울병원 건강의학센터 교수로 있으며 같은 기관 커뮤니케이션실 차장과 대한의료정보학회 홍보이사를 겸하고 있다. 





매거진의 이전글 [카카오AI리포트]AI 의료영상 기술 활용 사례
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari