[잡식성 책사냥꾼] 인공지능이 인간을 죽이는 날
드라마 <불의 여신 정이>에 이런 장면이 나온다. 마을에 배앓이 병이 돌고 있는데, 정이가 가마에서 구운 도자기 그릇을 마을 사람들에게 나눠줬더니 돌림병이 멈췄다는 것이다. 나무 그릇을 도자기 그릇으로 바꾼 것뿐인데 어째서 돌림병이 멈추었냐고 묻는 왕. 광해군은 잠시 멈칫하더니, 그 이유는 잘 모르겠지만 어쨌든 그릇을 바꾼 것이 효과가 있었으니 계속 그릇을 나눠줘야 한다고 말한다.
이런 경우를 좀 그럴싸하게 말해서 블랙박스라고 한다. 어떤 원리로 그렇게 되는지는 알 수 없으나, 인풋에 대응하는 아웃풋을 체계적으로 기대할 수 있는 시스템이다. 나무 그릇과는 달리 도자기 그릇에는 곰팡이가 슬지 않아 배앓이 병이 멈춘 것이다. 당시 사람들은 그걸 알 턱이 없다. 그러나 광해군의 말대로, 효과가 있다면 일단 써먹으면 되는 것이다. 가장 과학적이라고 믿어지는 의학 분야야말로 이런 식의 블랙박스가 가장 광범위하게 쓰여 왔다.
단재 신채호는 묘청을 난을 '조선력사 일천년래 일대사건'이라 칭했다. 의학 역사에서 최근 1천년간 일대 사건은 아마도 페니실린의 발견 아니었을까. 알렉산더 플레밍은 페니실린이 세균을 죽이는 메커니즘에 대해서 알지 못했다. 배양액 접시에 떨어진 푸른곰팡이가 포도상구균을 전멸시킨 것을 우연히 발견했을 뿐이다. 페니실린이 세포벽 형성 방해를 통해 박테리아를 사멸시키는 메커니즘은 한참 뒤에나 규명되었다. 왜 그런지는 몰라도 세균을 없애는 이 신통한 물질을 활용하기로 한 플로리와 체인은 대량생산 방법을 연구했고, 1945년에 플레밍과 함께 노벨상을 받았다.
인공지능이 결국 인류사회를 먹어치울 것이라는 막연한 두려움을 가진 사람이 많다. 인공지능에 대한 인류의 이해가 언젠가 한계에 봉착하고, 인공지능의 작동원리가 블랙박스 안으로 들어가 버릴까 두려워하는 것이다. 그러나 인류 역사를 살펴보면, 원리도 모르는 기술을 우리는 잘도 사용해 왔다. 원리를 깨우칠 때까지 기다렸다면 인류 역사의 진보는 훨씬 더 느리게 진행되었을 것이다.
블랙박스라고 해서 무조건 위험한 것은 아니다. 이것이 고바야시 마사카즈의 책, <인공지능이 인간을 죽이는 날>의 한줄 요약이다.
인공지능의 세 가지 종류
퀴즈쇼에서 인간 챔피언들을 압살한 IBM 왓슨도, 이세돌에 이어 커제에게도 완승을 거둔 알파고도, 날씨를 물어봤는데 노래를 틀어주는 엉뚱한 귀염둥이 카카오미니도 모두 인공지능이다. 사실, 인공지능은 상당히 다른 세 가지 종류로 구분된다.
첫 번째 종류는 규칙 기반 인공지능이다. 가장 단순하지만 명쾌하게 설명할 수 있는 인공지능이다. 로봇 청소기가 대표적인 경우다. 탁상 다리를 만나면 돌아가고, 벽을 만나면 후진하라는 식으로 미리 프로그램된 규칙에 따라 행동하는 인공지능이다. 지능이란 개념에 가장 직관적으로 가깝다. 그래서 1960년대부터 연구되던 영역이었지만, 곧 한계에 부딪혀 소위 인공지능 개발의 제1차 빙하기를 불러왔다.
그렇다고 규칙 기반 인공지능을 과거의 유물로 생각해서는 곤란하다. 퀴즈쇼 <제퍼디!>에서 인간 챔피언들을 눌러버린 IBM 왓슨이 바로 규칙 기반 인공지능이다. 의사의 진단이란 결국 환자의 상태를 보고 어떤 병증인지를 확인하는 것이다. 두꺼운 책으로 수십 권이나 되는 의학대전을 머릿속에 그대로 간직하는 의사란 있을 수 없다. 그래서 실수를 하기도 하고, 수많은 가능성을 다 고려하지 않고 어림짐작(rules of thumb)에 의해 경우의 수를 대폭 줄이기도 하는 것이 인간이다. 그러나 IBM 왓슨은 수많은 가짓수를 전부 고려해서 확률 계산을 수행한다. 컴퓨터이기 때문에 가능한 빠른 연산능력이 규칙 기반 인공지능을 강력하게 만드는 것이다.
두 번째 인공지능은 통계확률형 인공지능이다. 이 유형은 기본적으로 조건부 확률을 이용한다. 어떤 움직이는 물체의 위치를 예측하고자 한다면, 통계확률형 인공지능은 두 단계를 거친다. 우선 물체의 동선이라든가 지형 등을 고려하여 예상 위치를 계산한다. 이것이 사전확률이다. 다음에는 여러 가지 측정값을 동원, 사전확률을 보정하여 사후확률을 구한다. 여기에 사용되는 것이 고등학교 수학 책에도 나오는 베이즈의 정리다.
요즘 통계확률형 인공지능은 대개 '은닉 마르코프 모델'이라는 것을 사용한다. 이에 관하여 더 알고 싶다면 레이 커즈와일의 <마음의 탄생>을 읽어보기를 추천한다.
세 번째 유형의 인공지능은 요즘 '핫'한 신경망 인공지능이다. 인간의 뇌를 흉내내서 인공지능을 구현하겠다는 생각은 이미 1950년대부터 나와 있었다. 기술적 한계로 공상 단계에 머물러 있던 아이디어는, 21세기 기술을 만나 폭발적으로 성장했다. 알파고가 신경망 인공지능의 사례다.
이미지 판독은 신경망 인공지능의 선도 분야다. 예컨대 고양이와 강아지를 구별하는 일은 규칙 기반 인공지능에게 불가능에 가깝다. 하지만 신경망 인공지능은 이미 인간을 뛰어넘었다. 마찬가지로, 영상의학과 이미지 판독에서도 인공지능은 인간 의사보다 작은 오차율을 보인다고, 최윤섭은 <의료 인공지능>에서 증언한다.
세 가지 인공지능 중 블랙박스에 가장 가까운 것은 신경망 인공지능이다. 그 이유는 첫째, 우리가 우리의 뇌에 대해 이해하는 부분이 너무 작기 때문이고, 둘째, 현재 인공지능을 대표하는 '딥러닝' 기술의 은닉층이 너무 두껍기 때문이다.
인공지능이 인간을 죽이는 날
2016년 5월, 테슬라 S 탑승자가 오토파일럿 상태로 주행하다가 대형 트레일러를 들이받고 사망했다. 언론은 자율주행 기술이 아직 이 모양이라고 대서특필했다.
사람들은 테슬라 자동차가 자율주행 차량이라고 오해하고는 한다. 테슬라의 자율주행 기술은 3단계 정도로, 오토파일럿 기술을 탑재한 차량이라고 설명하는 것이 맞다. 고속도로에서 일정한 속도로 직선 주행을 하게 해주는 '크루즈 컨트롤'은 내가 2000년에 타던 차량에도 달려 있던 기능인데, 오토파일럿의 일종이다. 저자 고바야시에 따르면 테슬라에 장착되는 라이더(LIDAR)는 가장 저렴하고 기능도 미약한 종류다.
테슬라 운전자가 오토파일럿 상태로 차량을 달리게 하면서 차 안에서 자는 영상이 최근에 유튜브에 뜬 적이 있다. 도로교통법 위반이다. 음주운전보다 더 위험한 범죄행위다.
크루즈 컨트롤 상태로 차를 방치했는데 급회전 도로에서 사고가 났다면 운전자 책임이다. 테슬라 S 사고 역시 운전자 책임이다. 테슬라 매뉴얼은 운전자가 운전대를 언제나 잡고 있어야 하며, 사고에 대한 최종책임이 운전자에게 있음을 명시하고 있다.
테슬라 S 사고의 본질은 운전자 부주의다. 트레일러 차량의 거대한 흰 벽면을 인공지능이 하늘과 혼동했다고 하는 기사를 쓰는 기자들은 사건의 맥락을 무시하고 있다. 사람이 죽은 사고는 분명 호소력이 있다. 그래서 인공지능 반대론을 펼치는 데 유용할 것이다. 하지만 이 사건은 인공지능의 오판에 책임을 지울 수 없는 사건이다. 이 시점에서 인공지능에 책임을 지우려고 한다면, 나중에 더 위험한 국면에서 인공지능에 책임을 물을 수 없을지도 모른다.
인공지능 위협론의 본질은 '제어시스템에 인간을 포함시키지 않는 것'에 있다고, 고바야시는 말한다. 자율주행 자동차는 곧 인간의 통제가 전혀 없는 수준에 이르게 될 것이다. 이 때야말로 인공지능에게, 내지는 인공지능을 설계한 제조회사에 그 책임을 물어야 한다. 자율주행 차량의 앞으로 갑자기 아이들 다섯 명이 뛰어들었다면, 다섯 명의 목숨을 구하기 위해 운전자 한 명을 죽이는 결정을 해야 하나? 그것이 인공지능 내지는 그 설계자들이 대답할 문제다. 오토파일럿 차량을 자율주행 차량처럼 방치한 운전자가 사망했다고 해서 지금 이 시점에 인공지능에 책임을 지운다면, 나중에는 인공지능에 대해 제대로 된 책임을 물을 수 없는 상황이 올 수도 있다.
자율주행 차량도 사람을 죽일 수 있지만, 아마도 가장 많은 사람을 죽이는 인공지능은 의료 분야에서 나올 것이다. 지금도 수많은 사람들이 병원에서 죽는다. 환자들의 사망에 대한 책임을 의사들에게 묻는다면, 현대 의료체계는 무너질 것이다. 마찬가지 일이 의료 인공지능에 있어서도 일어날 것이다.
인공지능의 블랙박스는 특히 의료 분야에서 문제된다. 인공지능이 당신에게 암에 걸렸다는 사실을 통보한다면 어떨까? 그래서, 특정 절제술을 권하면서 73%의 확률로 5년 생존이 가능하지만 5% 확률로 수술 중 사망할 수 있다고 말한다면? IBM 왓슨은 규칙 기반 인공지능이다. 그래서 왜 암이라고 판단하게 되었는지, 그 판단 경로를 따라가 볼 수 있다.
그러나 딥러닝 기반의 이미지 판독은 그런 이유를 대지 못한다. 인공지능이 당신에게 암 선고를 한다. 그러나 그 이유를 대지는 못한다. 당신은 그 진단을 받아들일 수 있을까? 그 진단에 기반해서 사망 위험이 0이 아닌 수술을 권한다면? 게다가 그 수술을 권하는 이유도 말하지 못한다면?
'제어시스템에 인간을 포함시키는 것'이 중요하다는 고바야시의 말은 바로 그런 부분을 짚고 있다. 인공지능이 핵미사일을 발사해야 하는 상황이라고 판단하는 것까지는 허용할 수도 있을 것이다. 발사 버튼을 누를지 말지는 인간이 결정한다면 말이다. 그러나 인공지능이 자체 판단으로 핵미사일을 발사할 권한까지 가진다면 인류의 앞날은 암울할 것이다.
인류는 블랙박스를 어떻게든 유용하게 사용해 왔다. 그러나 블랙박스의 판단을 실행으로 옮길지는 언제나 인간이 결정해 왔다. 인공지능도 결국 도구에 불과하다면, 그 결정권을 인공지능에게 넘기는 것은 거듭 심사숙고해야 할 일이다.