이전에 살펴보았듯, AI의 고도화로 이제 사진(또는 영상)은 사실 증명의 효력을 상실했다. 제미엘니악 교수는 로봇공학 4원칙을 통해 이 같은 현실적인 문제에 대한 해결책을 제시한다. 한편, ‘인간인 채 하는 기계’에 대한 두려움은 꽤 오래전부터 우리가 가지고 있던 본연의 ‘불쾌한 감정’이다. 본 글에서는 여러 사례를 통해 이를 집중 조명했다.
독일 표현주의 영화사조를 대표하는 프릿츠 랑(Fritz Lang)의 1927년작 매트로폴리스(Metropolis)에는 로트방 박사(Rudolf Klein-Rogge)가 창조한 기계인간이 등장한다. 기계인간은 극 중 등장인물인 마리아(Brigitte helm)의 모습을 한 채로 지하도시의 노동자들을 선동하는 역할을 한다. 이미 콘라드 추제(Konrad Zuse)에 의해 최초의 상용화된 컴퓨터가 등장하기 이전부터 대중은 ‘인간인 채 하는 기계’에 대한 두려움을 품고 있었다. 컴퓨터의 이론적 토대를 마련한 수학자 앨런 튜링(Alan Turing) 또한 훗날 고도로 발전할 기계지능과 인간을 구별하기 위해 ‘튜링 테스트(Turing Test)’를 고안했다.
이제 이 두려움은 막연한 판타지가 아닌 현실의 문제가 되었다. 제미엘니악 교수는 신뢰 가능한 AI기술 발전을 위해 기존 아시모프의 원칙에 다음과 같은 4번째 법칙을 추가한다.
▲4원칙 : 로봇이나 AI는 인간을 사칭하여 인간를 기만하는 행위를 하여서는 안된다(A robot or AI must not deceive a human by impersonating a human being).
해당 법칙에 대해 제미엘니악 교수는 “인간과 AI 협업 방식은 효율적인 업무를 가능케 하지만, AI가 인간을 속이는 순간 신뢰성 저하, 시간 및 자원 낭비, 정서적 고통의 문제로 이어진다”며, “AI는 인간과 보다 투명하고 생산적인 상호작용을 위해 스스로를 식별해야 하며, AI가 생성한 콘텐츠 역시 명확한 표기가 이뤄져야 한다”라고 설명했다.
또한, 그는 이 네번째 원칙이 이뤄지기 위해서는 ▲인간과 직접적인 상호작용 시 필수 AI 공개 ▲AI가 생성한 콘텐츠의 명확한 라벨링 ▲AI 식별을 위한 기술 표준화 ▲관련 법적 제도 마련 ▲AI 이해력 향상을 위한 교육 제도 마련이 선행되어야 한다고 전했다.
언캐니 밸리, 기계와 인간 사이의 불확실성
인간을 사칭하는 기계에 대한 공포. 우리는 이 두려움을 두 가지 큰 틀에서 살펴볼 수 있다.
첫번쨰는 ‘자연을 모방하려는 기계에 대한 인간 본연의 심리적 불쾌함’이다. 꽤 오래전 미국의 로봇 기업 ‘보스턴 다이내믹스(Boston Dynamics)’에서 공개한 영상이 이슈가 됐던 적이 있다. 크리스마스 이브 전날 공개된 영상에서, 동사의 사족보행로보 ‘빅독(Big Dog)’이 루돌프의 모습을 하고 썰매를 끈다.
▲보스턴 다이내믹스 로봇 영상 : https://www.youtube.com/watch?v=RDZu04v7_hc
수준급의 유압식 보행 기술을 보유하고 있던 보스턴 다이내믹스는 이전에도 유튜브를 활용해 다양한 로봇의 보행 영상을 올리며 대중의 이목을 끌어왔다. 하지만 해당 영상을 본 일부 대중은 루돌프의 모습을 한 빅독이 무섭다는 반응을 보였다. 이 같은 현상은 종종 애니메이션을 보는 관람객에서도 관찰된다. 가상의 캐릭터가 과도하게 인간과 유사하다면, 경우에 따라 시청자에게 불쾌감을 준다.
일본의 로봇 공학자 모리 마사히로(Mori Masahiro, 1927~2025)는 1970년에 ‘불쾌한 골짜기(Uncanny Valley)’라는 현상을 논문으로 발표했다. 그의 주장에 따르면, 인간의 모습과 유사하게 디자인된 로봇은 우리에게 친근함을 주지만, 그 유사성이 도를 넘을 경우, 특정 지점부터는 불쾌감을 준다. 언캐니(Uncanny), ‘낯섦’이라는 이 감정은 20세기 초 독일의 심리학자 에른스트 옌치(Ernst Jentsch)가 최초로 인용한 개념으로 알려져 있다. 옌치는 해당 감정을 생물과 무생물 사이에서 오는 불확실성으로 규정했다. 이후 프로이트(Sigmund Freud)는 이를 더욱 발전시켜 ‘거세공포’와 연계하여 설명한다.
물론, 모리 마사히로의 주장에 대한 여러 반론 또한 제기되었다. 무엇보다 그의 주장 자체가 정량적 실험이 아닌 주관적 사레에 의존해 설명되었다는 점과 이후 불교 신자였던 마사히로 자신이 ‘로봇에 있어 최고의 디자인은 불성(佛性)을 구현하는 데 있다’라는 수정이론을 제시했다는 점에서 진위여부에 대해 비판을 받았다.
그럼에도 불구하고 납득할 만한 사실은, 우리 중 상당수가 ‘자연을 모방하는 기계’에 대해 본연의 낯섦을 느낀다는 사실이다. 이와 같은 설정은 문학, 영화 등 다양한 매체에서 설정으로 소비되어 왔으며, 로봇 엔지니어들 역시 돌봄로봇을 비롯한 서비스로봇과 최근 이슈가 되고 있는 휴머노이드 로봇 제작에 있어 이 같은 디자인적 리스크를 극복하기 위해 노력한다.
디지털 시대의 문맹자
두번째는 ‘인간인 채 하는 기계의 정치적 활용 가능성’이다.
이미 전편에서 언급된 트럼프의 AI이미지 사레와 같이, AI는 충분히 특정 집단의 헤게모니 위해 활용될 수 있다. AI의 이데올로기적 활용이 특히 위험한 이유는, 상당수의 대중이 AI를 비롯한 기계가 객관적이며 중립적인 데이터만을 산출한다 생각하기 때문이다.
지난 12월 자 르몽드 디플로마티크(Le Monde diplomatique)에는 이에 대한 흥미로운 칼럼이 실렸다. ‘AI는 왜 버락 오바마를 백인으로 보는가?(Victor Chaix et al, 김민역 역, 2024.12, Le Monde diplomatique, p. 37~43.) 라는 제목의 기사에는 지난 2020년 미국 듀크 대학교 연구진이 개발한 이미지 복원 AI ‘Pluse’가 지속적으로 이미지속 사람들을 탈픽셀화 하는 과정에서 유색 인종을 백인으로 표현한 사건이 소개된다. 해당 글은 이 같은 사례를 바탕으로 AI의 정치적 활용 가능성을 경고한다.
사실 이는 어떻게 보면 필연적인 현상이다. 인간 사회의 데이터를 기저로 두고 결과를 산출하는 AI 특성상, ‘가공된 것(Factum)’것이 아닌 ‘자연 본연의 것(Datum)’을 수집하기란 불가능한 일이다.
미디어 이론가 빌렘 플루서(Vilem Flusser)는 마르크스의 자본가-무산계급의 계급도식을 비틀어 디지털 시대에는 프로그래머와 프로그래밍 당하는 자들이 존재할 것이라고 언급했다. 현재 글로벌 트렌드가 되고 있는 ‘기술 가속주의(인류가 직면한 문제 해결을 위해 무한정의 기술 개발을 추구)’가 보편화될수록 이러한 계급도식은 더욱 명확해질 것이다. 이에 AI개발을 주도하는 빅테크 기업과 주요국 정부는 제미엘니악 교수가 언급한 ‘로봇공학 4원칙’을 토대로 새로운 기술의 윤리적 활용 방안을 마련해야 할 것이다. 발터 벤야민(Walter Benjamin)이 <사진의 작은 역사>에서 인용한 모홀리 나기(Moholy Nagy)의 말로 본 글을 마치겠다.
“미래 문맹자는 글자를 못 읽는 사람이 아닌 이미지를 읽지 못하는 사람이다.”