brunch

매거진 번역한 것

You can make anything
by writing

C.S.Lewis

by 제이드 Aug 23. 2023

AI가 정신 질환을 치료할 수 있을까? (2)

뉴요커 매거진 2023년 2월 27일 기사

- 원문은 여기

- 오역이 있을 수 있으며, 일부 내용은 생략되었습니다. 기사 내용이 너무 길어서 포스팅을 나누었습니다. 개인의 흥미에 따라 천천히 번역합니다.

- 본문의 볼드체는 역자가 주관적으로 적용하였습니다.

- 파트1 번역은 여기



Can A.I. Treat Mental Illness?

By Dhruv Khullar



(2/cont.)




의학 데이터 분석이 전문 분야인 컴퓨터 과학자 존 페스티안(John Pestian)은 2000년대 신시내티 어린이 병원(Cincinnati Children’s Hospital Medical Center)에 들어가면서 처음으로 머신 러닝을 이용해 정신 질환을 연구했다. 대학원에서 그는 관상동맥 우회수를 받은 환자 치료를 개선하고자 통계학 모델을 만든 적이 있었다. 신시내티 어린이 병원은 미국에서 가장 큰 소아 정신 질환 병원이었는데, 존은 얼마나 많은 어린이들이 스스로 목숨을 끊으려고 시도한 뒤 병원에 온 걸 보고 놀랐다. 그는 컴퓨터를 이용해 누가 자해할 위험이 높은지 알아내고 싶었다. 


존은 미국 자살 학회(American Association of Suicidology)의 창립자이자 임상 심리학자인 에드윈 슈나이드먼(Edwin Shneidman)를 만났다. 슈나이드먼은 페스티안에게 가족들이 보여준 자살 관련 노트 수백 개를 제공했는데, 존은 그 중 젊은 여성이 쓴 노트를 보여주었다. 한편으로는 남자친구에게 화를 내면서 부모님에겐 이렇게 말하고 있었다. “아빠, 빨리 집에 오세요. 엄마, 전 너무 지쳤어요. 저를 용서해주세요.” 자살 노트를 연구하면서 존은 패턴을 발견했다. 노트에서 가장 흔한 문구는 죄책감이나 슬픔, 화를 표현한 게 아니라 지시 사항들이었다. 남동생이 내가 빌려준 돈을 갚게 할 것, 차에 기름이 거의 떨어졌다, 화장실에 청산가리가 있으니 조심할 것 등. 페스티안과 동료들은 그 노트들을 AI 시스템인 언어 모델에 넣고 돌려서 사람들이 적은 문구에서 자살 사고를 알아볼 수 있는지를 시험했다. 그 결과 알고리즘이 ‘자살 언어’를 찾아낼 수 있음이 드러났다


다음으로 페스티안은 병원 응급실을 찾은 환자들의 음성 녹음을 활용했다. 그는 동료들과 사람들이 말한 단어에서 그치지 않고 소리sound를 분석하는 소프트웨어를 개발했다. 그러자 자살 사고를 경험한 사람들은 남보다 한숨을 더 많이 쉬고 덜 웃는다는 걸 발견했다. 그런 사람들은 말할 때 멈추는 시간이 길고 모음을 짧게 말하곤 하여 단어를 알아듣기 힘들었으며, 목소리에 숨소리가 더 섞인 듯 들렸고 화를 더 표현하면서 희망은 덜 이야기했다. 페스티안 팀은 관련 실험 중 가장 큰 규모로 환자 수백 명을 모집해 그들의 발화를 녹음했고 알고리즘을 이용해 그 발화가 자살 성향을 띠는지, 정신 질환 특성이 있지만 자살 성향은 아닌지, 두 경우 모두 아닌지를 구분했다. AI 모델은 약 85%로 인간 간병인과 같은 결론을 내렸으며 AI가 경험이 부족하거나 시간이 없거나 확신이 부족한 임상의들에게 도움이 될 수도 있음을 시사했다. 


몇 년 전 페스티안과 동료들은 알고리즘을 이용해 ‘샘’이라는 앱을 만들어 학교 상담사들이 이용할 수 있는 가능성을 열었다. 팀은 신시내티 공립 학교에서 앱을 테스트했다. 최초 테스터 중에는 중고등학생을 다루는 상담사인 벤 크로트(Ben Crotte)가 있었다. 학생들의 동의를 구할 때 그는 매우 직설적으로 나갔다고 했다. “이 앱이 우리의 대화를 듣고 녹음할 거고, 네가 한 말과 다른 사람이 했던 말을 비교해서 자신을 다치게 할 위험이 있는지 알아낼 거라고 했어요.”


어느 오후 크로트는 심한 불안 증세를 앓는 고등학교 신입생을 만났다. 대화를 나누는 동안 그 학생은 자기가 계속 살고 싶은지 의문이 든다고 했다. 학생의 자살 사고가 큰 경우 크로트는 감독관에게 그 사실을 알릴 의무가 있었고, 그러면 그 감독관이 입원을 권유하는 등의 조치를 취할 수도 있었다. 더 이야기를 나눈 뒤 크로트는 학생이 당장 위험하지는 않다고 결론내렸지만 AI는 달랐다. “한편으로는 AI 성능이 괜찮다고 생각했어요. 그 아이를 만났다면 꽤 걱정스러웠을 거예요.” 크로트는 말했다. “하지만 저는 앱이 모르는 많은 걸 알고 있었죠.” 학생은 자해 이력이 없었고, 어떤 일을 특별히 계획하고 있지도 않았으며 가족이 학생을 응원하고 있었다. 


나는 학생을 잘 알지 못했거나 경험이 부족했다면 어땠을 것 같냐고 물었다. “학생을 그냥 보내는 걸 분명히 망설였을 거예요.” 그가 말했다. “법적 책임도 염려되었을 거고요. 앱이 위험을 경고했는데 그냥 보내면 어떤 일이 벌어질까요?”


알고리즘 정신 의학은 여러 복잡한 문제와 관련되어 있다. 재향군인회 소속 재향군인 보건국(Veterans Health Administration)은 그런 문제와 처음으로 맞닥뜨린 의료 기관일 것이다. 2005년 추수감사절이 오기 며칠 전, 조슈아 옴비그(Joshua Omvig)라는 22살 육군 상병이 이라크에서 11개월 간 파병을 마치고 아이오와 집으로 돌아왔다. 그는 외상후 스트레스 장애 증세를 보였고 한 달 뒤 트럭에서 자살했다. 2007년 의회는 참전군인들 사이에 자살이 유행하는 오래된 사태를 다룬 최초의 연방 제정법인 조슈아 옴비그 자살 방지법을 통과시켰다. 그로 인해 도입된 위기 상황 핫라인, 정신 질환 인식 개선 캠페인, 재항군인회 직원들의 의무 교육 등은 문제를 해결하지 못했다. 


매년 참전 군인 수천 명이 자살로 생을 마감했고 그 수는 전사자들에 맞먹었다. 재향군인회에서 자살 방지를 위한 데이터 및 감시를 감독하는 존 매카시(John McCarthy)가 합류한 팀은 재향군인회 한자들에 관한 정보를 모았고, 통계학을 동원해 만성 통증, 노숙 신세, 우울증 등 자살 위험 요인을 찾아내려 했다. 팀은 자료를 재향군인회 간병인들과 공유했는데, 의학 연구 수준이 높아지고 환자 기록이 양적으로 크게 증가하면서 “임상의들은 밀려드는 자살 신호를 감당하지 못했다”고 매카시는 말했다. 


2013년 팀은 위험한 환자들을 찾아낼 수 있길 바라며 재향군인회 환자 데이터를 자동으로 분석하는 프로그램 개발에 착수했다. 그들이 개발한 알고리즘은 다른 스크리닝에서 잡아내지 못했던 사람들을 많이 찾아냈다. 결국 알고리즘은 변수 61개에 집중하게 됐다. 몇몇은 이해하기 쉬웠다. 가령 알고리즘은 기분을 조절하는 약을 먹으면서 최근 입원하기도 했고, 심각하게 정신적 장애를 앓고 있는 상처한 참전 군인을 가리키곤 했다. 하지만 다른 건 그렇게까지 분명하지 않았다. 관절염, 루푸스, 혹은 두경부암을 앓는다거나 스타틴 혹은 졸피뎀을 복용한다거나, 혹은 서부에 사는 사람들도 위험군으로 분류될 수 있었다.


2017년 재향군인회는 ‘reach vet’이라는 프로그램을 발표했다. 시스템에 걸쳐 있는 임상 관행에 알고리즘을 도입하는 것이었다. 매달 환자 약 6천 명이 지목되었고, 임상의들은 그들을 만나보며 정신 건강 서비스를 제공하고 스트레스 요인을 물어보며 음식 및 주거에 도움을 주었다. 예상한 대로 그 절차는 이상했다. 참전 군인들은 생각해보지 못한 이야기들을 들었다. 나쁜 결과를 가져올 위험이 있는 것으로 보인다는 두루뭉술한 얘기를 하다가 더 직접적인 설명으로 바뀌었다. “당신이 자살할 위험이 있어요. 당신이 어떻게 지내는지 알고 싶습니다. 라는 식으로 이야기했죠.” 맥카시는 말했다. 


참전 군인들 중 다소는 고립되어 있었고 경제적으로 불안정했으며 그들을 위한 안전망은 너무 좁았다. 재향군인회의 정신 건강 프로그램 평가 센터를 이끄는 조디 트래프턴(Jodie Trafton)은 자살 사고를 한 적이 있었으며 ‘reach vet’ 프로그램을 통해 찾아낸 한 군인 이야기를 했다. 그는 병들고 외로웠으며 무너져 있었다. 사회복지사가 알아보니 그는 신청서 하나만 작성하면 받을 수 있는 재정적 지원을 아주 조금밖에 받지 못하고 있었다. 그 사회복지사는 그 군인이 지원금을 받고 가족들과 가까운 곳으로 이사할 수 있게 도와주었고, 이런 일은 잠재적 비극을 막았다. 


시스템 도입 후 AI가 고위험군으로 분류한 사람들의 정신과 입원은 8% 감소했고, 그 그룹에서 자살 시도라고 기록된 건은 5% 줄었다. 하지만 아직 ‘reach vet’이 자살 사망률을 줄이지는 못했다. 참전 군인들 중 자살 시도의 약 2%가 치명적인 수준을 띠는데, 사망률을 줄이려면 자살 시도 횟수를 줄여야 할지도 모른다. 


알고리즘을 디자인하고 도입하는 데엔 눈에 잘 띄지 않는 곤란함과 예상 못한 일들이 있을 수 있다. 캘리포니아대학교 버클리 캠퍼스의 머신 러닝 연구가이자 의사인 지아드 오버마이어(Ziad Obermeyer)는 자신이 연구했던 한 알고리즘을 언급했다. 그 알고리즘은 환자들 중 누구에게 건강 지원이 필요한지 알아내기 위한 것이었다. “사람들이 아플 가능성에 기반해서 알고리즘이 환자를 계층화하길 원했어요. 하지만 코드를 작성할 때 ‘아픔got sick’이라는 변수를 적을 순 없거든요.” 알고리즘 디자이너들은 질병에 관한 프록시가 필요했고 의료 비용을 정해야 했다. 하지만 알고리즘은 놀라울 만큼 흑인 환자들이 아픈 정도를 과소평가했는데, 알고리즘이 검사한 흑인 환자는 똑같이 아파도 백인 환자보다 의료비를 적게 지출했기 때문이다. 이런 알고리즘의 편견은 인종뿐 아니라 젠더, 나이, 사는 지역, 소득, 그리고 우리가 얼핏 알고 있을 뿐인 다른 요인에 의해 발생할 수 있으며 이는 알고리즘의 정확도를 떨어뜨린다. 


잘 짜인 알고리즘에도 한계는 있다. ‘reach vet’은 재향군인회 서비스를 사용하고 있는 군인들만 평가할 수 있다. 기관 측에 따르면 매일 참전 군인 20명이 자살로 사망하고 그들 중 40%도 안 되는 이들만이 재향군인회 서비스를 받았다. 조슈아 옴비그는 전문가 도움을 받으라는 가족들의 요구를 거부했다. 그 당시 ‘reach vet’ 프로그램이 있었어도 아마 그가 도움을 받지는 못했을 것이다. 


만약 재향군인회가 상담사를 더 많이 고용하면 환자를 더 볼 수 있을 것이다. 재향군인회는 이미 2만 명 이상의 정신 건강 전문가를 고용하고 있지만 그 중 한 사람에게 정기 관리를 받으려면 한 달 이상을 기다릴 수도 있다. 이런 규모 상의 문제는 정신 건강 치료 분야에서 고질적인 문제다. 상담은 면대면, 1:1 세션으로 주로 이루어지기 때문이다. 2016년, 무상 의료(universal health care) 시스템을 갖춘 부국인 영국은 상담 치료가 필요한 네 명 중 한 명 꼴로 상담을 제공하는 5개년 목표를 세웠다. 이는 실패했다. 한 영국 의사는 이 계획이 ‘지나쳤으며 자원이 부족했고 비인격적’이라고 평했다. 



매거진의 이전글 AI가 정신 질환을 치료할 수 있을까? (1)
작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari