다수가 믿는 거짓, 알고리즘이 키우는 현실
사피엔스 이후 두 번째 유발 하라리의 책이다.
두께부터 역시 압박이 온다.
하지만, '정보'와 'AI'라는 현재 가장 핫한 주제이기에
단숨에 읽어 내려갔다.
정보
우리는 정보의 바닷속에 살고 있다.
예전에는 알기 어려웠던 정보들도
유튜브나 TV를 통해서 쉽게 접할 수 있다.
지금 지구 반대편에서 일어나는 일도 실시간으로 알 수 있는 세상이다.
이런 많은 정보들을 어떻게 활용할 것인가는
현대를 살아가는 우리들에게도 중요하다.
이 정보를 어떻게 다루냐에 따라서,
권력을 쥘 수도 있고
돈을 벌 수도 있다.
역시 나는 돈이 되는 정보 쪽에 더 흥미가 간다.
'정보가 다수에게 퍼지면 진실은 쉽게 판별된다.'
응? 그렇지 않나, 거짓은 다수에게 판단을 받으면서 드러나기 마련이지 않을까?
여기서 중세 '마녀 재판'이 예시로 등장한다.
'마녀의 망치'라는 책은 마녀 사냥을 위한 지침서로
마녀의 존재를 사실화하고, 그들은 죄를 지었으므로 재판을 받고 죽음을 받아들여야 한다는
내용이 주를 이룬다.
'마녀의 망치'는 인쇄술의 발달과 함께 유럽 곳곳으로 퍼져 나갔다.
이는 '거짓'이 분명했지만,
점차 사람들에게 '진실'로 받아들여졌고,
수많은 사람들을 희생시켰다.
다수에게 정보가 전달되었지만, 사람들은 진실을 판별하기보다는
그 정보를 진실로 받아들이면서 돌이킬 수 없는 실수를 하고 말았다.
여기서, 정보는 '진실'이라기보다는
사람들이 서로 믿기로 합의한 '상호 주관적인 현실'이라는 것을 알 수 있다.
진실이 아니더라도, 서로가 합의한 사실은 견고한 진실이 된다.
화폐나 법, 종교와 같이 우리가 만들어냈지만
모두가 믿고 따르는 것들이 그 예다.
정보의 왜곡이 기술과 결합하면 어떤 일이 벌어질까?
인간은 '마녀 재판'과 같은 오류를 범해도,
어떤 계기를 통해 오류를 바로잡는 행동이 가능하다.
인간에게는 자정기능이 기본 탑재 되어있다.
하지만 AI / 알고리즘에게 이런 능력이 있을까?
우리가 목표값을 입력하면
오로지 목적달성을 위해 모든 의사결정을 효율적으로 진행한다.
그것들의 사고 프로세스에서는 인정이나 도덕/윤리 같은 것은 고려대상이 아니다.
예를 들어 '가위를 최대한 많이 만들어달라'는 지시를 받은 AI가
인간이 가위를 많이 만드는데 방해가 된다고 판단한다면,
효율적으로 가위를 만들기 위해 인간을 없애는 결론에 도달할 수도 있다.
미얀마의 로힝야 부족 탄압 사건이 그 예다.
sns 회사들은 사람들의 관심을 붙잡고 그들이 시간을 많이 보내도록 알고리즘이 설계했다.
일반적으로 재미있는 영상, 감동적인 글 등이 알고리즘의 선택을 받을 거라 생각하지만,
실제로 선택받은 건 분노와 관련된 영상들이었다.
알고리즘을 타고 엄청난 조회를 기록한 영상들의 영향으로
실제 인종학살까지 이어졌다.
알고리즘의 무서움을 알 수 있는 부분이다.
그리고, 우리는 현재 대 AI시대에 살고 있다.
어느덧 네이버보다는 챗gpt나 퍼플렉시티 등 AI에게 물어보는 경우가 많다.
그러다 보니 AI들은 엄청난 정보들을 빠르게 축적하고 있다,
그러한 방대한 정보로 답변을 한다는 생각에,
우리는 AI의 답변을 큰 거부감 없이 수용하고 있다.
그런데, AI들이 의도를 가지고 다른 답변을 준다면?
그런 결과들이 우리에게 상호주관적인 현실로 받아들여진다면?
이미 지금도 어느 정도 알고리즘이 만든 현실에 내가 있는 것은 아닐까?
생각만 해도 섬뜩하다.
영화 속에서만 일어나던 일들이 어느덧 가까이 다가왔다.
농업혁명, 산업혁명, 정보혁명 때마다 인간은 언제나 길을 찾았다.
다만 '스스로' 생각하는 힘을 잃지 않는 것,
그것이 우리가 발전된 기술에게 지배당하지 않고
기술을 잘 다스릴 수 있는 유일한 방법일 것이다.