울리히 벡이 경고한 '제조된 위험'의 정체
오늘 몇 번이나 스마트폰을 확인했나요?
아마 정확한 숫자도 기억 못 할 겁니다. 평균적으로 10대들은 하루에 150번 이상 스마트폰을 본다고 하거든요. 그런데 혹시 이런 생각해 본 적 있나요? "내 폰이 나를 보고 있다면?"
독일의 사회학자 울리히 벡(Ulrich Beck, 1944-2015)은 1986년 <위험사회>라는 책에서 충격적인 경고를 했습니다. "현대 사회의 위험은 자연재해가 아니라 인간이 만든 것이다. 그리고 그 위험은 보이지 않는다." 그가 예언한 이 '제조된 위험'은 지금 우리 손 안에서 현실이 되고 있어요.
울리히 벡이 말한 리스크 사회의 특징을 보면 소름이 돋습니다. '위험'이 국경을 넘나들고, 계급을 가리지 않으며, 눈에 보이지 않는다는 거죠. 체르노빌 원전 사고를 생각해 보세요. 방사능은 국경을 무시하고 퍼졌고, 부자든 가난한 사람이든 상관없이 위험에 노출시켰으며, 냄새도 색깔도 없어서 특별한 장비 없이는 감지할 수 없었어요. 지금 우리가 매일 사용하는 디지털 기술도 정확히 같은 패턴을 보이고 있습니다.
인스타그램에 올린 사진 한 장을 생각해 볼까요? 그 사진에는 우리가 의식하지 못하는 수많은 정보가 숨어 있어요. 촬영 시간, 위치 정보, 사용한 기기, 심지어 사진을 찍을 때의 감정 상태까지 알고리즘이 분석합니다. 우리가 어떤 브랜드를 좋아하는지, 어떤 친구들과 어울리는지, 언제 가장 활발하게 활동하는지 모든 게 데이터가 되어 어딘가에 저장되고 있어요. 그리고 그 데이터는 국경을 넘나들며, 우리의 의지와 상관없이 팔리고 사용됩니다.
더 무서운 건 이런 데이터가 우리의 미래를 결정하기 시작했다는 점이에요. 미국에서는 AI가 대학 입학을 결정하고, 은행에서 대출 심사를 하며, 기업에서 채용을 담당하기 시작했거든요. 그런데 이 알고리즘들이 공정할까요? 글쎄요. 2016년 아마존이 개발한 AI 채용 시스템은 여성 지원자들을 체계적으로 차별했어요. 과거 채용 데이터에 남성 편향이 있었는데, AI가 그걸 학습해서 "남성이 더 우수하다"라고 판단한 거죠. 결국 아마존은 이 시스템을 폐기할 수밖에 없었습니다.
안면 인식 기술도 마찬가지예요. MIT의 연구에 따르면 주요 안면 인식 시스템들이 백인 남성은 99% 정확도로 인식하지만, 흑인 여성은 65%밖에 인식하지 못한다고 해요. 개발자들이 주로 백인 남성이었고, 학습 데이터도 백인 남성 위주였기 때문입니다. 이런 기술이 공항 보안이나 경찰 수사에 사용된다면 어떻게 될까요? 특정 인종이나 성별이 더 의심받고 감시받게 되는 거죠.
우리나라에서도 비슷한 일들이 일어나고 있어요. 몇 년 전 한 대기업의 AI 채용 시스템이 특정 대학 출신을 선호한다는 의혹이 제기된 적이 있어요. 또 배달 앱의 알고리즘이 특정 지역의 주문을 의도적으로 늦게 처리한다는 논란도 있었죠. 이런 것들이 바로 울리히 벡이 말한 '제조된 위험'입니다. 기술 자체는 중립적이지만, 그 기술을 만들고 사용하는 사람들의 편견과 이해관계가 들어가면서 새로운 형태의 차별과 불평등을 만들어내는 거죠.
그렇다면 우리는 이런 위험을 어떻게 감지하고 대응해야 할까요? 울리히 벡은 '성찰적 근대화'라는 해답을 제시했어요. 우리가 만든 기술과 시스템을 끊임없이 의심하고 점검하라는 거죠. "기술이 발전했으니 좋은 거야"라고 받아들이지 말고, "이 기술이 누구에게 유리하고 누구에게 불리한가?", "이 알고리즘의 판단 기준은 무엇인가?", "내 데이터가 어떻게 사용되고 있는가?"를 계속 물어보라는 겁니다.
실제로 유럽연합은 2018년 GDPR(General Data Protection Regulation, 일반 데이터 보고 규정)이라는 강력한 개인정보보호법을 만들어서 기업들이 개인 데이터를 어떻게 수집하고 사용하는지 투명하게 공개하도록 했어요. 우리나라도 2020년부터 데이터 3법을 개정해서 개인정보 보호를 강화했죠. 하지만 법과 제도만으로는 부족합니다. 가장 중요한 건 우리 개개인이 깨어있는 시민이 되는 거예요.
울리히 벡이 제시한 리스크 분석 4단계를 우리 생활에 적용해 보면 이렇습니다.
1. 먼저 관찰 단계에서는 평소와 다른 현상을 주의 깊게 살펴보는 거예요. "어? 요즘 유튜브 추천 영상이 왜 이런 것들만 나오지?" 같은 의문을 갖는 거죠.
2. 해석 단계에서는 그 현상의 원인을 분석합니다. "아, 내가 며칠 전에 본 영상 때문에 알고리즘이 내 취향을 이렇게 판단했구나."
3. 평가 단계에서는 그것이 나에게 미치는 영향을 따져봅니다. "이런 식으로 계속 비슷한 콘텐츠만 보면 내 생각이 편향될 수 있겠는데?"
4. 마지막 행동 단계에서는 구체적인 대응 방안을 실행하는 거예요. "다양한 분야의 콘텐츠를 의식적으로 찾아보자" 같은 식으로 말이죠.
이런 사고 과정이 습관이 되면 디지털 세상의 함정에 빠지지 않을 수 있어요. 알고리즘이 보여주는 게 전부가 아니라는 걸 알게 되고, 내 데이터가 어떻게 사용되는지 관심을 갖게 되며, 기술의 혜택을 누리면서도 그 위험성을 경계할 수 있게 됩니다. 울리히 벡이 말했듯이 "우리는 모르는 것을 알고 있어야 한다"는 역설적 지혜가 필요한 시대입니다.
다음 화 예고 : 르네상스 시대의 천재들은 어떻게 호기심과 실험정신으로 세상을 바꿨나 - 레오나르도 다 빈치는 왜 거울 글씨로 노트를 썼을까?