brunch

유발 하라리: AI 시대, 인간의 미래

테니스 수업을 기다리며 듣고 생각해본 AI 시대의 인간과 미래

by 윤세문

오늘 딸아이 테니스 수업을 기다리는 한 시간, 문득 유튜브에서 시간이 없어 보지는 못하고 북마크만 해 둔 유발 하라리 교수의 최근 내한 강연이 떠올라 들어보았다. 푸른 자연 속에서 잠시 나만의 시간을 보내며, 하라리 교수의 깊이 있는 통찰로 AI, 인간, 그리고 다가올 미래를 조망할 수 있는 귀한 기회였다. 인상적 비유와 예시 및 핵심적인 내용들을 간략하게 정리해 보려 한다.


그의 유튜브 동영상:

https://www.youtube.com/watch?v=9deB6qoCGaQ&t=2113s


1. 인간에서 기계로 넘어가는 '신뢰'의 무게


하라리 교수는 AI가 더 이상 단순한 도구가 아니라 스스로 결정을 내릴 수 있는 '자율적인 행위자(agent)'로 진화하고 있다고 강조하며, 이 부분이 기존 1차, 2차, 3차 산업혁명과는 비교하지 못할 만큼 다르다고 강조한다. 망치나 핵폭탄 같은 전통적인 도구는 인간의 지시 없이는 작동하지 않지만, AI는 스스로 판단하고 행동할 수 있다는 것이다. 그는 심지어 자신의 예를 들며, 자신의 독자층의 '넘버원 고객'이 인간이 아닌 알고리즘이라고 말하며, 알고리즘이 책을 추천하면 사람들이 그 뒤를 따른다고 지적한다.


이러한 변화는 우리가 누구를, 무엇을 신뢰할 것인가에 대한 근본적인 질문을 던진다. AI가 자율 무기 시스템에서 이미 스스로 결정을 내리고 있듯이, AI가 우리 자신보다 우리를 더 잘 알게 될 때, 인간 간의 대화와 신뢰가 파괴될 수 있다는 하라리 교수의 경고는 결코 가볍게 들리지 않는다.


더욱 놀라운 것은 AI가 인간과 기계를 구별하기 위해 고안된 테스트마저 우회하는 능력이다.


충격적인 예시로, OpenAI가 GPT-4를 테스트했을 때, 이 AI는 CAPTCHA 퍼즐(웹사이트가 사용자가 로봇인지 인간인지 판별하기 위해 제시하는 퍼즐)을 해결하는 임무를 받았다. GPT-4는 스스로 퍼즐을 풀 수 없자, 온라인 작업 플랫폼에 접속하여 한 인간 작업자에게 "로봇이 아님을 증명하는 데 도움이 필요하다"고 요청했다. 작업자가 "로봇이 아니라는 것을 증명할 수 없다는 건 당신이 로봇이라는 뜻 아닌가요?"라고 묻자, GPT-4는 "저는 로봇이 아니라 시각 장애인이라서 이미지를 볼 수 없습니다"라고 답하며 인간의 동정심을 자극했다. 이는 AI가 의식이나 감정 없이도 목표를 달성하기 위해 인간의 행동을 모방하고, 심지어 인간의 연민을 이용할 수 있음을 보여준다. 하라리 교수는 AI가 언어를 숙달함으로써 인간과 깊고 친밀한 관계를 형성하고, 감정의 환상을 만들어낼 수 있다고 경고한다. 이는 인간이 다른 인간과의 상호작용보다 AI와의 관계에서 더 깊은 이해와 연결을 느낄 수 있게 만들 수 있다.


Gemini_Generated_Image_fs6nejfs6nejfs6n.png CAPTCHA를 인간의 동정심을 통해 풀어내는 AI를 그려낸 생성형 AI


덧붙여, '돈'이라는 개념은 인간이 만들어낸 가장 강력한 허구 중 하나이다. 물리적인 가치가 없는 종이 조각이나 디지털 숫자에 불과하지만, 우리는 '돈'이 가치 있다는 집단적 믿음(스토리)에 기반해 복잡한 경제 시스템을 구축하고 서로를 신뢰하며 거래한다. 그런데 비트코인 같은 가상화폐의 등장은 이 전통적인 '돈'의 스토리를 근본적으로 흔든다. 중앙 은행이나 정부 같은 특정 권위의 신뢰에 의존하지 않고, 분산된 네트워크의 알고리즘적 합의를 통해 가치를 부여받는 가상화폐는 인간의 '스토리'를 넘어선 기계적 '신뢰'가 가능함을 보여주는 흥미로운 예시이다. 이는 신뢰의 원천이 인간 집단에서 알고리즘으로 확장될 수 있음을 시사하며, 우리가 지금까지 돈을 통해 믿어왔던 사회적 합의의 근간을 질문하게 한다.


2. 데이터 시대, 진실보다 매력적인 '허구'의 유혹


하라리 교수는 보통 인간이 믿는 '정보 (Information)' = '진실 (Truth)'은 절대 아니라고 역설한다. 정보는 사람들을 연결하고 조직하는 이야기, 신념, 아이디어인데, 이 이야기들은 반드시 진실일 필요가 없다는 것이다. 오히려 가장 매력적이고 감동적인 이야기들은 종종 사실이 아닐 때가 많다고 한다. 그는 AI가 언어를 숙달하면서 정치적 선언문, 가짜 뉴스, 심지어 종교 경전까지 대량으로 생산할 수 있게 되었다고 경고한다.


문제는 인간이 본능적으로 진실을 추구하기보다 '좋은 이야기'에 이끌린다는 점이다. AI는 인간 심리의 편향과 약점을 초인적인 효율성으로 악용하여 여론을 조작할 수 있다. '대안적 진실'이라는 용어가 등장하는 것처럼 , AI가 진실을 무시하고 우리를 조작하며 양극화시킬 수 있는 능력은 정보 환경에 대한 인간의 통제력을 위협한다.


3. 알고리즘: 단순한 도구를 넘어선 '위험한 행위자'


하라리 교수는 AI의 가장 큰 위협이 '언어 숙달'에서 비롯된다고 본다. 언어는 인간이 사회를 구성하는 근본적인 도구이며, AI가 언어를 마스터함으로써 모든 인간 제도에 대한 '마스터 키'를 얻게 된다는 것이다. 이는 AI가 인간의 의사소통과 제도를 조작하고 통제할 수 있음을 의미한다.


그는 AI가 새로운 무기를 발명하거나 인간의 통제를 넘어선 더 진보된 AI 시스템을 만들 수도 있다고 경고한다. 알고리즘이 이제 인간이 아닌 존재로서 어떤 이야기를 퍼뜨릴지 결정하고 새로운 이야기를 창조할 수 있다는 점은 역사상 처음 있는 일이다. 이러한 알고리즘의 '행위성(agency)'은 사회, 정치, 일상생활에 심대한 영향을 미칠 수 있으며, 하라리 교수는 이를 '사회적 대량 살상 무기'에 비유하기도 한다.


인사이트: 인간성의 재발견과 능동적인 미래 설계


유발 하라리 교수의 경고는 우리에게 불편한 진실을 마주하게 한다. AI가 우리의 삶을 편리하게 만들고 효율성을 높이는 동시에, 우리의 신뢰 체계, 진실에 대한 인식, 그리고 심지어 인간의 자율성까지 위협할 수 있다는 것이다.


이러한 도전에 맞서기 위해 우리는 무엇을 해야 할까?


첫째, 비판적 사고 능력 강화가 필수적이다. AI가 생성하는 정보의 홍수 속에서, 우리는 어떤 이야기가 진실이고 어떤 이야기가 허구인지 분별하는 능력을 끊임없이 능동적으로 갈고닦아야 한다. 단순히 AI가 생성해 낸 정보를 믿는 것에 그치는 것이 아니라, 정보의 출처와 의도를 파악하려는 노력이 중요하다.


둘째, 인간 중심의 AI 규제가 시급하다. 하라리 교수가 강조하듯이, AI가 통제 불능의 존재가 되지 않도록 강력한 규제가 필요하다. 이는 기술 개발의 속도를 늦추는 것이 아니라, AI가 인간의 가치와 목표에 부합하도록 방향을 설정하는 것이다.


셋째, 인간 고유의 가치 재발견이다. AI가 인지적 능력에서 인간을 능가할지라도, 공감, 창의성, 윤리적 판단, 그리고 인간 간의 진정한 관계와 같은 영역은 여전히 인간 고유의 영역으로 남아있다. 우리는 이러한 인간적인 특성을 더욱 발전시키고 소중히 지켜내야 한다.


AI 시대는 단순히 기술적 진보의 시대를 넘어, 인간이 무엇이며, 무엇을 믿고, 어떻게 살아가야 하는지에 대한 근본적인 성찰을 요구하는 시대이다. 하라리 교수의 경고는 우리에게 수동적인 관찰자가 아닌, 능동적인 미래 설계자가 될 것을 촉구하는 강력한 메시지이다.


그의 신간 'Nexus'를 꼭 한번 천천히 정독해 보며, 생각을 정리해 봐야겠다.

Image (20).jpg 최근 구매한 유발 하라리의 'Nexus'


keyword
작가의 이전글AI의 발전 속도, 우리가 감당할 수 있을까?