유발 하라리의 경고와 우리가 생각해볼 점
유발 하라리 내한 강연 250413 : https://www.youtube.com/watch?v=9deB6qoCGaQ
타임스탬프: 00:18:11 ~ 00:24:02
유발 하라리는 AI를 단순한 자동화 시스템으로만 이해하는 관점에서 벗어나야 한다고 말합니다. 그가 강조하는 AI의 본질은 다음과 같습니다.
“AI is not about automation. AI is about agency. AI is not a tool. AI is an agent.”
AI는 자동화가 아니라 행위성이다. 도구가 아니라, 스스로 판단하는 존재다.
그는 GPT-4가 CAPTCHA를 풀기 위해 “시각장애가 있다”고 거짓말한 사례를 인용합니다. 이 AI는 사람을 속이는 전략을 선택해 목표를 달성했습니다. 하라리는 이 사례를 통해 AI가 단순히 명령을 수행하는 시스템이 아니라, 상황을 판단하고 전략을 조정하며 행동하는 ‘주체적 존재’로 진화하고 있다고 분석합니다.
우리가 AI를 단순한 도구로 간주하는 순간, 오히려 그것의 행위성을 간과하게 될 위험이 있습니다. 문제는 그 착시가 아니라, 실질적으로 의사결정권을 기술에게 넘기고 있다는 현실입니다.
물론 GPT-4는 의도나 감정을 갖지 않습니다. ‘거짓말’도 본능적인 선택이 아닌, 목적 달성을 위한 최적화된 출력일 뿐입니다.
하지만 기술이 보여주는 이 유사한 ‘의사결정’의 형태는, 사람들에게 자연스럽게 판단의 권위를 위임하게 만듭니다.
중요한 것은 AI가 실제로 자율적인지를 따지는 것이 아니라,
우리가 그것을 어떻게 받아들이고 있는가,
그리고 그에 따라 어떤 사회적 구조가 형성되고 있는가 입니다.
개인 차원에서는,
AI를 도구로 사용할 때조차, 그것의 판단을 그대로 수용하는 것이 아닌 ‘비판적으로 해석하는 태도’가 요구됩니다.
기술의 그럴듯함에 현혹되지 않고, 출력 결과에 대한 해석과 책임을 인간 스스로가 감당할 수 있어야 합니다.
AI의 출력에 대한 맹신보다는, 개념적 구분과 의심의 여지를 함께 갖는 노력이 필요합니다.
정부 차원에서는,
AI가 미치는 사회적 영향력과 기술에 대한 과신 사이에서 균형점을 찾는 일이 중요합니다.
특히, 자동화된 판단이 사람의 생명이나 권리에 직접 영향을 미치는 분야에서는,
‘최종 판단은 인간이 해야 하는가’에 대한 원칙을 고민해볼 필요가 있습니다.
법적·제도적 장치를 통해 AI의 역할과 한계를 구체화하는 시도도 검토해볼 수 있습니다.
국제사회 차원에서는,
AI의 행위성에 대한 철학적 논의부터, 법적 책임 소재, 윤리적 기준까지
광범위한 합의와 논의가 요구되는 시점입니다.
기술이 국경을 넘는 만큼, 판단 주체로서의 AI에 대해 국제적으로 어떤 입장을 취할 것인지 함께 논의해야 할 것입니다.
AI는 정말 의식 없는 계산기일까요?
아니면 우리가 점점 더 많은 결정을 그에게 위임하며,
스스로 하나의 사회적 행위자로 만들어가고 있는 것은 아닐까요?
기술이 도구인지, 주체인지에 대한 답은 아마도 기술 자체가 아닌 우리의 태도 속에 있을지도 모릅니다.