인공지능 정신과의사
최근 어떤 연예인의 SNS를 보고 한 정신과 의사가 ‘급성 경조증’ 가능성을 제기하는 글을 SNS에 올렸다가 네티즌의 뭇매를 맞았다. 게다가 대한정신건강의학과 봉직의협회는 성명을 내고 이 정신과의사에 대한 징계를 학회에 요구하고 나섰다. 윤리적 판단은 차치하고 과연 이렇게 글을 보고 한 사람의 정신 장애를 진단하는 것이 가능할까?
- ‘글을 통해 정신 장애를 진단’하는 인공지능
IBM은 알버타 대학교와의 연구에서 인공지능과 기계학습 알고리즘을 이용하여 조현병의 증상을 예측할 수 있는 능력을 개발했다고 한다. 이 인공지능을 이용하면 사람의 글을 분석하여 약 74%의 정확도로 조현병을 진단할 수 있다고 하며, 약 300단어 정도면 사용자의 정신병 유무를 예측할 수 있다고 한다.
IBM은 ‘인공지능으로 우리의 말은 정신건강에 대한 창을 열어 줄 것이다’라며 이것이 우리 삶을 변화시킬 TOP 5 혁신기술 중에 하나라고 선언하였다. 인공지능으로 분석한 인간의 말하기와 쓰기의 패턴은 정신 상태를 더 잘 예측하고 모니터링하고 추적할 수 있기 때문에 초기 단계의 정신질환의 징후를 알려준다고 하였다.
인공지능이 글을 분석하여 우울증이나 기타 정신 질환을 탐지하는 수단으로 활용하고 있는 예는 더 있다. 미국의 CRISIS TEXT LINE(CTL)은 3300만건의 상담 문자를 인공지능으로 분석하고 자살 고위험군을 가려내어 상담하는 시스템을 만들었다고 한다.
하버드대학과 버몬트대 공동연구팀은 인스타그램의 게시물을 분석해 우울증을 임상적으로 진단하는 인공지능 알고리즘을 개발했다고 한다.
또한 플로리다 주립대 제시카 리베이로 연구 논문에 따르면, 인공지능을 이용하면 누군가 2년 내 자살을 시도할 것인지 80~90%의 정확성으로 예측할 수 있다고 밝혔고, 페이스북도 인공지능을 이용해 자살 징후가 보이는 사용자를 식별하고 쉽게 신고할 수 있도록 알고리즘을 개발했다고 한다.
- 인공지능 정신과의사가 가능할까?
IBM은 아직 이 기술을 실제로 사용하기에는 너무 초기 단계이기는 하지만, 신뢰할 수 있는 정보를 식별하는데 도움이 될 것이며 향후 글로 정신 장애를 진단하는 것이 가능할 것이라고 하였다.
그러나 문장이나 글을 통하여 정신장애를 진단 하는 것은 한계가 있다. 연구자들도 아직은 시기 상조라고 하는 사람들이 많다.
우선, 아직 인공지능이 인간의 자연어를 이해하고 유추를 통한 범주화를 자유자재로 하는 수준까지는 발달하지 못했기 때문이다. “숭고한 희생”이 들어간 글을 순식간에 수억개도 넘게 검색할 수 있어도, “숭고한 희생”을 주제로 삼은 글을 찾아내는 것은 인공지능에게는 불가능하다.
또한 비언어적인 표현(표정, 말투, 전이, 역전이 등)을 통해 얻을 수 있는 정보들도 진단에 중요한 단서를 제공하는데 이러한 정보는 글로는 알 수가 없으며, 인공지능에게는 (우리가 “3456920 × 2548901”를 암산하는 것만큼이나) 이해하기 어려운 일이다.
정신장애는 일시적인 상태가 아닌 상당기간 지속적으로 유지되는 생각이나 감정으로 진단한다. 그러나 글에 나타난 생각이나 느낌은 표현 매체, 읽는 상대, 당시 분위기에 따라 영향을 받기 때문에 누구에게 어디에서 쓰느냐에 따라 전혀 상반되게 표현하기도 한다. 흐릿한 조명에 술을 마시면서 BB킹의 블루스를 들을 때는 인생의 우울함과 덧없음에 대해 쓸 수도 있지만, 이 자가 백주대낮에 회사에서 일하면서도 지속해서 우울감을 느낄지 판단내리기 쉽지 않다.
우리의 대화가 언제나 논리와 정보를 말하는데 사용되기보다는 그것보다 더 많은 목적(친교, 도발, 전쟁, 유혹, 아부 등 대화를 나누는 자들과의 관계에서 규정되는 목적)으로 다양하게 쓰이기 때문에 배경에 깔린 감정이나 의도 그리고 문맥을 파악해야 전체적으로 이해할 수 있다는 것도 인공지능에게는 불리한 요소이다.
로봇기자 ‘워드스미스’를 개발한 스타트업 오토메이티드 인사이츠의 제임스 코테키도 “컴퓨터는 누가, 언제, 어디서, 무엇을 했는지를 전할 수 있지만, 왜, 어떻게 했는지를 분석하지 못한다”라며 “왜 와 어떻게 했는지를 설명하는 것은 앞으로도 자동화되기 쉽지 않을 것”이라며 사람이 가능한 영역에 대한 구분을 언급했다.
- 글을 통한 정신 장애 진단의 위험한 문제점들
IBM의 또 다른 인공지능 의사 왓슨의 경우는 신체 질환을 진단하는데 사용되고 있지만, 글을 이용한 정신 장애 진단 인공지능이 미치는 영향력과 사회적인 파급효과는 더 광범위하게 미칠 수 있다.
글이 생체인식 마커로 이용될 때의 윤리적인 문제
왓슨은 진료실이나 수술실 같은 제한된 공간에서 특정한 기구를 통해 얻은 개인의 생체 정보를 가지고 진단을 내린다. 그러나 글로 정신장애를 진단하는 데에는 규제나 제한의 장벽없이 취득한 글만 있으면 가능할 수 있다.
게다가 왓슨에게 생체정보를 넘겨줄 때에는 직접적이건 암묵적이건 개인의 동의를 받는 과정이 있지만, (잠재적으로 정신장애를 진단할 수 있는 근거가 되는 생체인식 마커로서의) 글은 개인의 동의 없이 쉽게 일상생활 곳곳에서 얻을 수 있다. 마치 개인의 혈액 샘플을 여기저기에 뿌리고 다니는 것과 마찬가지다. 글은 일상생활에 광범위하게 밀착되어 사용되기 때문에 통제된 방법으로 동의를 얻어 취득한 글만 한정하여 사용할 수 있도록 안전하게 보관 관리되지 않고 정신 건강 진단의 마커로 사용된다면 윤리적인 문제가 발생할 수 있다. 그러나 글을 그렇게 통제하여 관리한다는 게 말이 되지 않는다. 글은 한번 생산되면 자기의 것이기도 하고 더 이상 자기의 것이 아니기도 하다
정신장애 진단에 대한 동의와 강제 치료 개입 여부
정신 질환은 치료에 자신의 의지와 선택이 개입되어야 하는 부분이 신체 질환보다 훨씬 많다. 본인이 증상이 있어도 불편하지 않는 경우도 많고, 치료로 개선되기를 원하지 않는 경우도 많다. 증상의 병인에 과거의 트라우마, 불행한 가족관계, 감추고 싶은 성격과 콤플렉스 등이 녹아 있는 경우도 많기 때문에 정신 질환은 더욱 개인의 인격과 프라이버시와 밀접한 관계 속에서 조심스레 다루어야 한다. 개인이 원하지 않는데, 글을 통해 병적 징후가 포착되었으니 치료를 해서 고치라고 강제할 수 있는 것일까?
자살은 위험한 것이므로 당연히 치료를 받는 것이 좋지만, 누군가가 글을 분석해서 ‘당신은 2년 후에 자살할 가능성이 높으니 요주의 인물이므로 특별하게 관리 감시하겠다’라고 한다면 그 개인이 고마워할지 아니면 아직 일으키지도 않은 일 때문에 통제를 받는 것이 죽기보다 싫을지 잘 모르겠다.
지금까지는 본인이 진료실에서 입을 열고 정신과 의사와 대면진찰을 하기 전까지는 누구도 그 사람을 정신 장애로 진단내릴 수 없다. 또 정신과 의사에게 자신의 심리적 정보를 어디까지 노출할 것인지에 대한 선택권도 전적으로 개인에게 있다. 하지만 글을 통한 인공지능의 진단에서는 자발적 동의와 선택권의 문제에서 개인은 배제될 가능성이 있다.
누군가 내 글을 드래그 복사하여 정신 장애를 판별하는데 사용한다면 어떻게 될까? 그런데 만약 정신 장애가 있다고 나왔다면? 그 사실을 아는 가족, 직장 상사, 애인은 치료받으라고 하는데 나는 치료받고 싶지 않다면 어떻게 될 것인가?
적어도 진료실에서는 우리가 누구에게 나의 존재를 노출하는지를 안다. 그러나 글을 통한 진단에는 글을 통해 나를 파악하는 게 누구인지는 전혀 알지 못한다. 마치 우리가 길을 걸을 때 CCTV를 인지하지 않지만 누군가는 나의 동선을 파악하고 있는 것처럼, 글이 누군가가 나의 정신상태를 모니터링하는 정신적 CCTV가 될지도 모를 일이다.
사회 정치적으로 광범위한 영역에서의 활용 욕구
현재 페이스북은 월간 활성 이용자 수가 20억명을 돌파했다. 페이스북은 데이터를 기반으로 기술을 고도화해 사람들이 소통하는 방식을 개선하는 기술을 개발하겠다는 목표를 가지고, 대화형 인공지능 기술기반 스타트업인 오즐로를 인수했다고 한다.
정보는 많아지면 분류를 하고 싶어하고, 분류가 가능하면 분류를 통한 차별화나 관리를 만들어내기 쉬운 속성을 가지고 있다. 글을 통해 개인의 정신 상태를 구별해 낼 수 있다면, 그 정보를 이용하여 차별화나 관리를 하려는 욕구로 자연스럽게 이행될 가능성이 높다.
만약 그러한 알고리즘이 있다면 그 파급력은 결혼 전 상대파악, 직장에서의 면접, 상급학교 진학, 이혼의 법적 분쟁 등에 쓰일 수 있다. 또한 국가가 특정 성향을 가진 사람을 걸러내는 데에도 사용하고 싶은 욕구가 생길 수도 있다. 예를 들어, 충동적인 공격성이 있는 사람은 경찰관 채용시 탈락시키는 도구로 사용할 수 있는 것이다.
따라서 글로 인간의 정신 장애를 진단하고 정신 상태를 판단하는 알고리즘이 일단 만들어지면 이것의 사용을 통제하기란 매우 어려울 것이다.
글을 통하여 한 사람의 정신 상태를 판단할 수 있다는 생각은 일견 매력적으로 보이지만, 어떻게 보면 핵폭탄을 개발하겠다는 생각보다 위험할 수 있는 윤리적 문제를 가지고 있을 수 있다
-그럼에도 인공지능은 발달할 것이고, 누구도 시대적 흐름을 바꿀 수는 없다.
인공지능의 발전은 인간의 자연어를 이해하고 분석할 수 있는 방향으로 개발이 계속 진행될 것이고, 그 흐름을 막을 수 있는 수단은 우리에게 없다. 우리는 단지 인공지능 발전에 따른 상시적 감시와 지속적 문제 의식을 가지는 것 밖에는 할 수 있는 것이 없을지도 모른다.
소설 <앵무새 죽이기>에서 진정으로 그 사람을 이해하려면 그 사람 입장에 서 봐야한다고 했다. 과연 글만 읽고 한 사람의 입장을 모두 이해한다고 할 수 있을까?앞으로 미래는 어떻게 흘러갈까? 우리는 과연 어떤 선택과 결정을 내려야하는 걸까?