정재욱 서강대 심리학과 박사과정
우리가 인식하는 기계의 마음은 사람의 것과 종류가 다르다. 다른 마음을 지각하기에, 대상에 대한 신뢰나 관련된 도덕판단까지도 달라지게 된다.
자율주행 자동차가 왜 못 미더울까
인공지능 자율주행 자동차와 관련된 도덕판단 문제는 아직도 결론을 내지 못한 문제이다. 자율주행차의 누적 주행거리가 계속 늘어남에 따라 자율주행차는 기술적으로 더 정교해질 것이며 안전도 역시 상승할 것이다. 자율주행차는 일반적인 사람 운전자들보다 사고율도 월등히 낮을 것이며, 거동이 불편한 사람들을 돕는 훌륭한 수단이 될 것이다. 이처럼 자율주행차로 인해 기대할 수 있는 이득이 큰 것처럼 보이지만, 여전히 상당수의 사람들은 자율주행차를 전적으로 신뢰하지 못하고 있다.
지금으로부터 3년 전의 조사 결과지만, 미국인 응답자의 56%는 자율주행차에 탑승하지 않겠다고 응답했다(Pew Research Center, 2017). 같은 조사에서 사람들이 자율주행차를 꺼리는 가장 큰 이유로 생사가 달린 문제를 기계에 전적으로 맡기기 어려워한다는 것을 꼽았다. 그러나 사람들은 택시나 대리기사가 내는 차량사고를 빈번하게 접하면서도 그것을 꾸준히 이용해 오고 있다. 사고위험이 정말 문제라면 이 현상은 이해가 잘 가지 않는다. 그렇다면 단순히 운전의 행위자가 사람인지 기계(인공지능)인지에 따른 신뢰의 차이가 나타나는 것은 아닐지 의심해볼 수 있다. 그럼 대체 어떤 것이 사람들로 하여금 기계와 인간에 대해 신뢰나 도덕 판단을 다르게 내리게 만드는 것일까?
사람의 마음, 기계의 마음
과거 연구들을 살펴보면 사람들은 행위자의 마음에 대한 정보를 근거로 도덕판단을 한다. 행위자의 의도나 욕구, 신념 같은 것이 그 정보에 해당한다. 그러면 사람과 기계의 마음에 대한 사람들의 지각이 다른지 살펴볼 필요가 있다.
사람들은 인공지능이 의사결정은 내릴 수 있지만 가치나 감정을 소유하지 않은 기초적인 수준의 마음을 가진 것으로 여기는 반면, 사람에 대해선 계획도 세울 수 있고 정교한 감정 경험도 가능한 더 복잡한 마음을 가진 것으로 판단했다(Gray, Gray & Wegner, 2007). 또 사람들은 타인의 감정을 이해하고 평가하는 사회-감정 능력을 ‘마음’으로 추론한다. 그렇기 때문에 인공지능이 ‘마음’이 없거나 부족한 것으로 지각한다면, 그에 대한 도덕판단 역시 어렵다고 여길 수 있다.
사람들은 행위자가 어떤 마음으로 결정을 내렸는지를 참고로 도덕판단을 내리는 것으로 나타났다. 사람들은 1명 또는 5명 중 누구를 살리거나/죽게 두거나 결정해야 하는 딜레마 상황에서 다른 누군가 어떤 결정을 내렸는지를 보고 그 사람에 대한 평가를 하였다. 그 사람에 대한 평가는 그 사람이 어떤 결정을 내렸는지도 중요했지만, 그 결정에 얼마나 어렵게 도달했는지도 중요했다. 큰 어려움 없이 결정을 내렸거나 단순한 비용편익 계산에 근거해 결정을 내린 사람들에 대해서 도덕적이지 않고 신뢰가 떨어진다고 판단하였다(Everett, Pizarro, and Crockett, 2016).
선행 연구를 종합하면 사람과 기계에 대한 다른 마음 지각이 사람 운전자와 자율주행차 사이 발생하는 신뢰와 도덕판단의 차이를 설명할 수 있을지 모른다.
기계에게 인간미를 느끼지 못할 때
Young과 Monroe는 이 가능성을 확인해보고자 하였다(Young & Monroe, 2019). 이들의 실험에서 참여자들은 자동차가 사고를 피할 수 없는 상황에 대한 가상의 딜레마 시나리오를 읽었다. 시나리오는 자동차 주행 중 정면의 인부 5명을 살리기 위해 1명의 소녀가 있는 쪽으로 방향을 변경할 것인가 고민해야 하는 상황에서 운전자의 선택에 대한 내용이었다. 참여자들은 같은 선택에 대해서 자동차 운전자가 사람일 때보다 인공지능(자율주행차)이었을 때 더 크게 비난하고, 더 분노했으며, 더 신뢰할 수 없다고 판단하였다. 또 참여자들은 5명을 살리는 판단을 덜 비난했고, 덜 분노했고, 더 신뢰할 수 있다고 판단하였으나, 운전자가 사람인지 인공지능인지에 따른 상호작용은 없었다.
두 번째 실험에서는 앞선 시나리오에 두 종류의 자율주행 인공지능이 있는 것으로 가정하였다. 한 인공지능 [ROBBI] 는 그의 의사결정 과정에서 마치 사람의 감정을 이해하는 것처럼 느껴지도록 묘사하였고, 다른 인공지능 [NESTOR] 는 의사결정 과정이 계산을 통해 기계적으로 이루어지는 것처럼 묘사하였다. 이전과 같은 피할 수 없는 차량사고 시나리오에 대해 사람들은 운전자가 기계적인(mechanistic) 인공지능 [NESTOR] 일 때 가장 크게 비난하였다.
그에 비해 사람에 조금은 가깝게 느껴지는(mentalistic) 인공지능 [ROBBI]가 운전자일 때 비난의 정도가 줄어들었고, 사람운전자에서 가장 비난이 작았다. 행위자를 어느 정도로 신뢰할 수 있는지와 행위자의 도덕성에 대한 질문에서도 정확히 반대되는 순서로 평가하였다(사람 > [ROBBI] > [NESTOR]).
마지막 실험에서는 앞의 발견을 반복검증 하면서, 해당 인공지능 자율주행차에 탑승할 의향과 구매할 의향을 추가로 질문하였다. 자동차에 탑승할 의향은 사람이 운전자일 때 가장 높았지만, 그 다음은 [ROBBI], 마지막은 [NESTOR] 였고, 이런 결과 패턴은 구매 의향에서도 같았다.
정리하면 사람들은 기계나 인공지능은 사람과 다른 마음을 가졌다고 지각하기 때문에, 그들에 대한 신뢰나 도덕판단이 다른 결과를 가져오게 되는 것이다. 그러므로 사람들은 인공지능이 사람과 비슷한 마음(의사결정 과정)을 가졌다고 생각했을 때, 인공지능의 행동을 조금은 더 도덕적이고 신뢰할 수 있다고 판단하게 되는 것이다. 영화 속 우리가 좋아하는 기계들이 대부분 사람처럼 감정을 갖고 이해하는 능력을 가진 것(‘트랜스포머’의 옵티머스 프라임이 보여주는 리더십과 정의감)으로 그려지는 것도 같은 이유였을 것이다. mind
<참고문헌>
Everett, J. A. C., Pizarro, D. A., & Crockett, M. J. (2016). Inference of trustworthiness from intuitive moral judgments. Journal of Experimental Psychology: General, 145, 772–787. https://doi.org/10.1037/xge0000165.
Gray, H. M., Gray, K., & Wegner, D. M. (2007). Dimensions of mind perception. Science, 315, 619. https://doi.org/10.1126/science.1134475.
Pew Research Center (2017). Automation in everyday life. (Washington, D.C).
Young, A. D., & Monroe, A. E. (2019). Autonomous morals: Inferences of mind predict acceptance of AI behavior in sacrificial moral dilemmas. Journal of Experimental Social Psychology, 85
정재욱 서강대 심리학과 박사과정
>> 한국인을 위한 심리학 잡지, <내 삶의 심리학 mind> 온라인 사이트가 2019년 7월 8일 오픈하였습니다. 내 삶의 비밀을 밝혀줄 '심리학의 세계'가 열립니다. 한국을 대표하는 100명의 심리학자와 함께 합니다.
카카오톡에서 '심리학mind' 친구 추가하고, 내 마음의 비밀을 풀어 보세요.