기술에는 사회적인 관념과 시대상이 녹아있다.
미국 뉴욕주 롱아일랜드의 고속도로를 달리다 보면 버스나 트럭이 간신히 지나갈 만한 낮은 다리가 심심치 않게 보인다. 이런 낮은 다리는 롱아일랜드 전역에 약 200개 정도가 있다. 언뜻 보기에도 알 수 있듯이 벽돌로 지은 매우 낡은 다리여서 1900년도 초반의 고즈넉한 정취와 현재가 만나는 듯한 오묘한 느낌을 주기도 한다.
하지만 미관상 좋은 것은 둘째 치더라도, 높이가 높은 트럭이나 버스가 다리 아래를 지나가다가 윗면이 다리의 가장자리에 긁히는 사고가 종종 일어나기도 한다. 그리고, 낮은 다리가 만들어지게 된 배경을 알고 나면, 조금은 씁쓸한 기분이 들지도 모르겠다.
위와 같은 낮은 다리들은 사실 굉장히 명확하고 특수한 사회적 목적을 가지고 만들어졌다.
로버트 모제스(Robert Moses)는 1900년도 초반부터 중반에 걸쳐서 뉴욕주의 구조와 경관 및 도로를 디자인한 건축가이다. 그는 도심의 구조물뿐만이 아니라 도시 외곽지역에 있는 공원 및 휴양지도 함께 디자인했는데, 특이하게도 이러한 공원의 진입로를 매우 낮게 설계했다.
미국의 저널리스트 Robert Caro는 그가 집필한 모제스의 전기, The Power Broker에서 모제스를 인종차별 주의자라고 강도 높게 비판한다.
모제스는 휴양지의 도로들은 소박하고 자연적인 것을 선호했다.
"운전이라는 행위는 가야 하는 곳으로 가는 방법인 것과 동시에, 여가를 즐길 수 있는 수단이기도 했습니다. 따라서 자연스럽게 보이는 경치를 보며 여유롭게 운전할 수 있는 환경을 조성하는 것도 조경의 한 부분이었습니다." - Geri Solomon, Hofstra 대학의 역사학자 (Costello, 2019)
그는 의도적으로 공원에 진입하는 다리를 낮게 설계함으로써 높이가 높은 버스 또는 상업용 차량의 진입을 제한했다. 차를 소유하지 않고 버스를 이용하는 사람들은 대부분 경제적으로 부유하지 못한 사람들이었으며, 여기에는 당연히 사회적으로 지위가 낮았던 흑인들도 포함된다.
20세기 초, 대부분의 백인 남성이 그러했듯 시대적으로 인종차별 주의가 만연했었고, 모제스가 인종차별로 유명한 것도 사실이다. 모제스가 꼭 '흑인'들만의 공원 입장을 제한한 것인지에 대해서는 다양한 의견이 있다. 하지만 한 가지 분명한 것은, 엘리트주의자였던 모제스는 사회적 하층민의 휴양지 입장을 구조적으로 일부분 제한하려는 명확한 의도를 가지고 롱아일랜드 전역에 낮은 다리들을 건설했다는 점이다 (Campanella, 2017; Hendrix, Kober, & Barron, 2019).
미국의 기술철학자 랭던 위너 (Langdon Winner)는 기술에 정치적인 의도와 목적이 담겨있다고 주장한다 (Winner, 1980). 사람이 개발하는 거의 대부분의 기술은 필연적으로 개발자의 의도와 철학이 녹아들어 간다. 그리고 이러한 기술은 알게 모르게 우리 사회에 큰 영향을 미친다. 위너는 기술이 정치적인 의도를 포함하는 두 가지 방법을 설명한다.
첫째는 롱아일랜드의 낮은 다리처럼 디자인이나 설계를 통해 특정 커뮤니티를 형성하는 것이다. 어떤 기술을 적용할 것인지, 그리고 기술의 세부적인 사항이 어떻게 결정되는지에 따라서 사회에 끼치는 영향력이 달라진다.
굳이 정치적으로 해석을 하지 않더라도 이를 현재의 상황에 비춰보면, 특정한 유저 그룹 또는 어떠한 제품의 사용자들을 대상으로 하는 기술 또는 서비스가 사용자의 경험, 그리고 더 나아가 유저들의 커뮤니티를 형성하는 것에 영향력을 행사할 수 있다. 예를 들어서, 최근에 큰 화제가 되었던 클럽하우스 앱이 있다. 음성을 기반으로 한 소셜 네트워크 서비스를 제공하는 클럽하우스 어플은 iOS에서만 구동이 가능하고, 유저 한 명당 두 개의 초대권을 제공한다. 그리고 필수적으로 다른 유저에게 초대를 받아야 가입이 가능하다.
클럽하우스 개발진의 입장으로는, 아직 베타 테스트인 관계로 제한적으로 운영한다는 설명이다. 하지만 서비스가 많은 유명세를 얻고 그 안에서 사람들의 활발한 교류와 다양한 커뮤니티가 생겨나고 있는 트렌드에서 배제되는 그룹이 생겼고, 이는 개발진의 결정으로 인한 것이다. 이것은 많은 사람들이 사용하게 될 기술을 개발하는 과정에서 내려지는 결정으로 인해 사용자 커뮤니티가 형성되는 과정에 큰 영향을 끼친다는 단편적인 예시이다.
두 번째 방법은 기술이 기존의 사회적인 구조와 패턴을 기반으로 설계되거나, 권력을 기반으로 한 새로운 사회적 시스템을 형성하려는 의도를 가진 경우이다. 대표적으로 중국의 감시 시스템 천망(天網)을 예로 들 수 있다. 대외적으로는 범죄자를 감시하겠다는 목적을 띄고 있지만, 소수민족을 억압하거나 정치적으로 다른 견해를 가지고 있는 사람들을 강력하게 탄압하고 있다는 비판을 받고 있는 중국 정부에서 어떤 식으로 기술을 운영하게 될지는 아무도 알 수 없다.
테크 그룹의 리더들을 중심으로 '기술이 세상을 바꾸고 사회적인 문제를 해결할 수 있다'는 믿음이 있었다. 하지만 기술에 대한 지속적인 성찰을 통해 밝혀진, 기술이 필연적으로 사회의 불공정함, 특히 억압적인 권력관계를 반영한다는 비판은 쉽게 벗어나기 어렵다 (Noble & Tynes, 2016. p. 4). 기술이 우리들의 삶에 더욱 깊숙이 스며들면서, 우리에게 표현되고 제공되는 정보는 사람들의 경험 및 신념을 더욱 세밀하게 형성한다.
제3차 페미니즘, 퀴어 이론, 비판적 인종 이론(Critical Race Theory)등 교차성(Intersectionality)[1]을 품는 젠더와 문화 연구는 사회 전반에 걸친 다양한 시각을 조명한다. 이러한 관점의 차이는 개인적인 경험과 문화적 배경, 그리고 인종을 기반으로 한다. 문화적으로 다양하고, 사회적인 선진국으로 평가받고 있는 국가들에서도 인종차별적인 기술과 불공정한 정보의 분배가 존재한다. 구글의 검색엔진이 유색인종과 여성을 차별한다는 비판이 있었는가 하면 (Cohn, 2020), 북미의 헬스케어 알고리즘이 흑인을 차별하는 편견을 가지고 있다는 네이처의 기사도 있었다 (Ledford, 2019).
정보의 불균형은 사용자뿐만이 아니라 그것을 만들고 분배하는 주체에 무거운 책임이 있으며, 결국 "소외된 사람들에게 더욱 큰 영향을 끼칠 것이다" (Noble & Tynes, 2016).
기술은 본질적으로 "인간의 자아 확장"으로 정의된다고 주장하는 학자도 있다 (Coleman, 2009). 도구는 사람을 만들고, 기술은 도구의 연장선이다. 따라서 인간은 기술에서 분리될 수 없다. 이것은 기술을 사용하는 사람들로 하여금 기술의 윤리적인 영향력에 대해 생각하게 만들며, 결국 인종과 기술은 서로에게 필연적으로 끊임없이 영향을 미친다 (Benjamin, 2019). 따라서, 인종과 기술이 서로의 논리와 발전에 영향을 미친다는 주장에 힘을 실어준다 (Chun, 2009).
그렇다면, 인종(Race)이란 무엇일까?
우리는 인종을 통해 우리가 살고 있는 세상을 이해하게 된다 (Chun, 2009). 일반적으로 인종이란, 신체적 또는 사회적 특성을 기반으로 인간을 분류하는 방법을 지칭한다 (Barnshaw, 2008). 가장 뚜렷하게는 "피부적으로" 나타나는 특징이지만, 사실, 인종은 심리적, 문화적, 그리고 존재론적 측면과 같이 "보이지 않는" 내부적인 특성이 더 큰 비중을 차지한다 (Chun, 2009). 같은 나라 안에서도 소수민족끼리 문화적인 차이로 인해 마찰이 생기기도 하고, 인종이 다양하더라도 한 국가 안에서 조화를 이루는 경우도 있으며, 국제결혼으로 인해 눈에 보이는 특성이 모호해진다면 인종을 어떻게 구분할 것인가 하는 어려움도 생긴다. 그러므로 인문학, 사회학 등 일부 학계에서는 구분하는 기준에 따라 인종의 범위가 크게 달라지기 때문에 인종은 "사회적으로 구성"되어 있다는 개념을 적용하기도 한다 (Benjamin, 2019).
개인적으로, 대학교 수업 그리고 인턴기간 동안 직장생활을 하는 환경에 문화적으로 다양한 사람들이 섞여있었지만, 놀랍게도 인종문제와 문화적인 다양성을 어떻게 기술에 반영할 것인가 하는 실용성 있는 논의는 거의 없었다. 가끔, 회사의 대표 또는 학과장이 '우리 회사(학교)는 다양한 인종과 문화를 존중합니다'라는 전체 메일을 받기는 했지만 사실 크게 와 닿지는 않았다. 대학을 졸업하기 전 마지막 인턴쉽을 하고 있던 회사의 워크샵에서 기술의 포용성(inclusiveness) 및 윤리적인 관점에 대한 대화를 깊게 접하면서 살펴보니, 다양한 계층에서 그리고 회사 내부에서도 사회적 약자와 소외된 그룹에게 관심을 가져야 한다는 목소리가 지속적으로 있어왔다는 것을 알게 되었다. 하지만 대부분의 일상적인 업무에서 내가 작업하는 프로젝트가 이러한 관점을 제대로 포함하는지에 대해서는 여전히 회의적이었다.
프린스턴 대학의 사회학자 Benjamin 교수가 지적하듯, (Benjamin 교수 본인을 포함해서) 사람들은 이미 "다른 누군가의 상상 속에서 사는 것"에 익숙해져 있었다 (Benjamin, 2019). 기술은 의심할 여지없이 소수의 사람들의 상상력이 주도하고 있었고, 그 상상들이 하나씩 실현되면서 사회를 변화시키고 있었다.
최근에 실리콘 밸리에 있는 IT기업의 디자인 팀을 리드하는 팀장님과 대화를 나눌 수 있는 기회가 있었다. 여러 가지 질문과 대답이 오갔고, 디자인의 다양성과 포용성을 언급하셨기에, "디자인의 다양성과 포용성을 실제로 프로젝트에 어떻게 적용하고 있나요? 그리고 이런 관점을 받아들이는 업계에서의 문화는 어떻습니까?"라고 질문을 하였다. 그분께서는 크게 두 가지의 어려움이 있다고 말했다.
첫째로, 인종적, 문화적으로 다양한 팀이라고 할지라도, 다양성을 존중하는 아이디어가 나오는 것과는 별개라는 것을 지적하셨다. 신입 사원을 채용할 때, 매우 높은 수준의 교육을 받고 뛰어난 성적으로 대학을 졸업하는 학생들은 문화적으로 다양해 보일 수는 있지만 아이디어는 서로 매우 비슷하다고 말하셨다. 포용력 있고 다양한 아이디어를 내는 것은 좀 더 개인적인 관점과 사려 깊은 통찰력에 관련이 있고, 이는 하나의 재능일 수 있다고 하셨다.
또한, 두 번째로, 회사의 특성상 시간과 예산이 제한되어 있다는 점을 언급하셨다. 다양성을 존중하는 토론을 충분히 거친 후에 나오는 결과물은 어떤 면에서는 더 낫다고 평가받을 수 있지만, 의견의 차이로 인해 시간이 더 걸리므로 추가적인 비용이 발생한다. 따라서 안타깝게도 업계의 대부분은 결정을 내릴 때 의견이 비슷한 팀원을 뽑아 팀을 구성하는 것을 선호한다고 말씀하셨다.
이것은 최신 기술을 주도적으로 개발하는 업계의 단편적인 예시이지만, 이익을 위한 집단의 본질을 정확히 설명한다. "기술의 정수(essence)는 기술적인 것이 아니며" (Chun, 2009), 현실적인 한계와 사회적인 관념이 담겨있다. 더 많은 사용자를 유치하기 위한 기술은 개발하는 과정에서 교차성을 중요시하는 철학과의 충돌이 일어난다. 물론, 이익을 위한 기업의 목적과 사회적 약자의 요구 및 목소리가 반영될 수 있는 합의 지점을 찾는 것이 가장 이상적이겠지만, 중대한 결정을 내리는 힘은 분명히 한쪽에 치우쳐져 있다. 의도적이든 의도적이지 않든, 특정 그룹 또는 개인이 기술에 의해서 피해, 차별 또는 억압을 받는 상황을 보면서 침묵하는 것은, 기술의 발전에 기여할 수 있는 목소리를 묵살시킨다는 관점에서 매우 바람직하지 못하다 (Noble & Tynes, 2016).
지난달, "HCI에서의 비판적 인종 이론" ("Critical race theory for HCI". Ogbonnaya-Ogburu et al., 2020)이라는 논문을 쓴 저자들이 진행한 세미나에 참가했다. 참석자 중 한 사람이, 전 세계적으로 차별을 멈추자는 사회적인 운동이 많아지고 있는 가운데, 이러한 높은 관심에도 불구하고 우리들이 현실적으로 무엇을 어떻게 해야 할지에 대해 혼란스러워지는 것 같다는 의견을 내놓자, 저자들이 답했다.
우리가 제시할 수 있는 가장 좋은 조언이자 대답은 대화를 시작하는 것입니다.
개인적인 경험을 공유하고, 다양성과 포용성에 대한 대화를 하고, 우리 주변에서 일어나는 차별은 무엇이 있는지 이야기하며 관심을 가지고 대화를 이어나가야 한다는 것이다.
위너가 주장했고, 실리콘 밸리의 디자이너 팀장님께서 지적하셨듯, 여러 가지 이유로 인해 기술은 때때로 차별적인 결과를 초래하기도 한다. 따라서 우리가 차별에 대해 맞설 수 있는 가장 좋은 방법은 끊임없이 대화하고, 목소리를 내는 것이다. 다양한 관점을 이해하고, 차별을 받은 타인에 대해서 이야기를 하며, 인종차별적인 결정을 비판해야 한다. 그래야 비로소 우리가 미처 알지 못했던 차별이 드러날 것이며, 결과적으로는 다양한 인종과 관점이 모여서 만들어낼 새로운 가능성이 열릴 것이다 (Chun, 2009).
각주:
[1] 교차성이란, 인종, 계급, 성별과 같은 사회적 분류가 서로 긴밀하게 연결되어 있다는 특성이다. 큰 틀에서 보면, 여러 가지 이해관계가 충돌할 수 있는 가능성이 있기 때문에 차별이나 불이익을 야기하는 시스템을 생성하는 것으로 평가되기도 한다. (출처: https://www.oed.com/view/Entry/429843)
참고문헌:
Barnshaw, John (2008). "Race". In Schaefer, Richard T. (ed.). Encyclopedia of Race, Ethnicity, and Society, Volume 1. SAGE Publications. pp. 1091–3.
Benjamin, R. (2019). Are Robots Racists? Lecture.
Campanella, T. J. (2017, July 9). Bloomberg.com. Retrieved March 28, 2021, from https://www.bloomberg.com/news/articles/2017-07-09/robert-moses-and-his-racist-parkway-explained
Chun, W. H. K. (2009). Introduction: Race and/as technology; or, how to do things to race. Camera obscura: feminism, culture, and media studies, 24(1 (70)), 7-34.
Cohn, J. (2020, August 10). Google's algorithms discriminate against women and people of colour. Retrieved February 12, 2021, from https://theconversation.com/googles-algorithms-discriminate-against-women-and-people-of-colour-112516
Coleman, B. (2009). Race as technology. Camera obscura: feminism, culture, and media studies, 24(1 (70)), 177-207.
Costello, A. (2019, June 27). A bridge too Low: What is being done for Long ISLAND OVERPASSES? Retrieved March 28, 2021, from https://patch.com/new-york/gardencity/bridge-too-low-what-being-done-long-island-overpasses
Hendrix, M., Kober, E., & Barron, S. (2019, October 23). Robert Moses, race, and reality. Retrieved March 28, 2021, from https://www.manhattan-institute.org/the-truth-about-robert-moses-and-race
Ledford, H. (2019, October 24). Millions of black people affected by racial bias in Healthcare algorithms. Retrieved February 12, 2021, from https://www.nature.com/articles/d41586-019-03228-6
Noble, S. U., & Tynes, B. M. (2015). The intersectional internet: Race, sex, class and culture online. New York: Peter Lang Publishing.
Ogbonnaya-Ogburu, I. F., Smith, A. D., To, A., & Toyama, K. (2020, April). Critical race theory for HCI. In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (pp. 1-16).
Winner, L. (1980). Do artifacts have politics?. Daedalus, 121-136.