가장 인간적인 것은 무엇인가. 인간처럼 생각하는 인공지능과 로봇이 출현하고 있는 시대에 인간은 스스로의 정체성을 묻고 있다. 때론 인공지능과 경쟁하는 방식으로 그 답을 찾기도 한다. 인공지능이 가져다 줄 미래는 정말 우리의 상상대로일까. 어떤 미래가 오든 인간은 답을 찾을 것이다. 언제나 그랬듯이.
#1 블랙 미러 속 '사냥개'
그건 현대자동차의 자회사 보스턴다이내믹스 '스팟'을 닮은 개 로봇이었다. 우리집 강아지 미남이처럼 코가 촉촉하고 살결이 부드러운 귀여운 강아지가 아니었다. 오라고 아무리 "미남아!!"이름을 불러도 기분이 내키지 않으면 오지 않고, 혼자 두고 외출하면 삐져서 여기저기 실례를 해 놓는, 엄마가 나가기라도 하면 하염없이 현관 앞에서 엄마를 기다리는 그런 강아지가 아니었다. 키워본 사람은 강아지와 언어가 아닌 몸짓과 짖는 소리로 교감해봤으니 알 것이다. 얼마나 강아지가 인간다운 동물인지. 어쨌든 그건 태양광으로 충전이 되는 고철 덩어리였다. 사람의 '피' 냄새와 자신이 심어놓은 위치 추적기로 사람을 쫓아 무자비하게 죽이는 괴물에 가까웠다. 영국 드라마 <블랙 미러>에 나오는 '사냥개' 이야기다. 인간이 만든 살상로봇에 인간이 당하는 모습을 보고 있자니 '스팟'과 닮은 모습에 소름이 끼칠 정도였다. 특히 부러진 손에 칼을 끼우고 드릴처럼 활용하는 모습에서는 채널을 잠시 돌릴 수 밖에 없었다.
#2 인간의 '생각'은 뉴런들의 전기 신호일 뿐이다(?)
영화 속 로봇과 현실의 높은 싱크로율에 인공지능과 로봇의 미래에 대한 두려움에 종종 사로잡히는 요즘이다. 어느 로봇은 인류를 지배하는 게 당연하다는 대답을 내놓았다는 얘기도 들린다. 로봇 그리고 인공지능은 인간 일자리를 빼앗을거란 얘기 속에 인간과 대결구도를 만들기도 한다. 갑자기 찾아온 변화 같아 놀라울 수도 있지만 인공지능과 로봇은 어느날 갑자기 찾아온 불청객 아니다. 사실 인공지능과 로봇에 대한 인간의 상상은 몇 백 년을 이어 내려온 것이었다.
로봇이 사람의 '몸'이라면 인공지능은 사람의 '영혼'같은 것이었다. 사람의 생각은 '영혼'이라는 존재 그 자체일까. 아니면 정말 뉴런들이 주고 받는 전기 신호일 뿐일까. 영혼이란 있을까. 전기 신호에 불과하다면 인간은 정말 그렇게 특별한 존재일까. 아직까지 모든 사람이 다 만족할 정의를 내리지 못하고 있는 이 주제를 논하기 시작한 건 이미 1300년 대였다. 1308년 스페인의 신학자 '라몬 유이'는 '궁극의 비법'이라는 책을 통해 개념들의 조합을 통해 기계적으로 조합되는 지식의 가능성을 논했다. 300년이 지난 1600년 대 수학자 라이프니츠는 라몬 룰의 뒤를 이어 '인간의 생각은 비교적 적은 수의 단순한 개념의 조합에 불과하다'고 주장했다. 1700년 대 나온 조나단 스위프트의 '걸리버 여행기'에도 이런 개념이 등장했다. 수많은 단어와 문법, 시제, 격변화를 기계로 뒤섞어 단어의 배열을 바꾸고 이 과정을 반복하면 학문과 과학에 대한 완전한 새로운 체계가 만들어지는 걸 목표로 하는 학자가 등장한 것이다. 철학, 시, 정치학, 수학, 법, 철학까지도 만들어 낼 수 있었다. 사람의 생각이라는 것이 표현 불가능한 어떤 것이 아니라 특정한 규칙이 있는 것이라면 결국 사람이 생각하는 것도 방정식의 체계를 푸는 것과 같은 방식이라는 것이었고 곧 기계가 이걸 따라할 수 있다는 뜻이기도 했다.
과감한 시도가 이어졌다. 1943년 신경학자 워렌 맥컬로치와 논리학자 월터 피츠는 맥컬로치 피츠 모델을 제시했다. 인간의 두뇌를 '이진 원소'들의 집합으로 표현한 모델이었다. 이어 영국의 수학자였던 앨런 튜링은 '컴퓨터가 인간처럼 생각할 수 있는가'라는 질문에 골몰했다. 그는 "컴퓨터와 대화를 나눴을 때 컴퓨터의 반응인지 인간의 반응인지 구별할 수 없는 수준이라면 그건 컴퓨터가 '생각할 수 있다'는 것과 마찬가지"라고 했다. 이걸 시험하는 것이 이른바 '튜링 테스트'였고 인공지능에 대한 개념적 기반을 만들어 준 개념이었다. 뒤이어 허버트 사이먼과 앨런 뉴웰이 최초의 인공지능 프로그램을 개발했고 1957년에는 맥컬로치 피츠 모델을 적용해 만든 뉴런과 유사한 신경망을 지닌 인공신경망 '퍼셉트론'이 세상에 나왔다.
#3 아시모프의 '로봇 3원칙'
인공지능을 탑재한 로봇들은 아무리 똑똑해진들 '사냥개'가 되지 말아야 했다. 영화가 아닌 현실에서는. 1940년 러시아 SF 작가 아이작 아시모프는 로봇은 로봇의 3원칙을 만들었다.
1.인간에게 위해를 가할 수 없다. 인간이 위험할 때 방관해서도 안된다.
2.로봇은 인간을 해치라는 명령, 인간을 위험하게 하라는 명령을 제외하고는 인간이 내리는 명령에 복종해야 한다.
3.로봇은 인간을 해치지 않는 범위 내에서 자신의 존재를 보호해야 한다.
소설 속의 원칙일 뿐이었지만 의미는 분명했다. 아무리 엄격하게 프로그래밍되고 발달한 인공지능이라도 '사람'이 정한 한계를 벗어나지 말아야 했다. 상상의 소설 속에서라도 말이다. 아마 그 때는 현실에서도 창작자들이 정한 한계를 벗어난 인공지능이란 말도 안되는 일에 불과했을 지 모른다. 인간이 명령을 내리면 '인공지능'이 그저 따르기만 하던 시대가 끝난 건 기존에 수학으로만 증명되던 심층신경망이 컴퓨터로 구현된 순간이었다. 2000년 대 제프리 힌튼은 '심층신경망' 기술을 개발했다. 이제 인공지능은 입력된 정보의 관계를 분석해 스스로 판단을 내리기 시작했다. 아마 블랙미러 속에서 팔이 사라진 사냥개가 칼을 발견하고 사라진 손 대신 칼을 활용하는 데는 심층신경망이 작용했을 것이다. 여기서 질문을 다시 한 번 던질 수 밖에 없다. 그렇다면 현실에서도 통제 불능의, 원칙을 벗어나는 AI는 나타날 수 있을까. 인간에 의해 인간도 예측할 수 없는 경지에 이르는 그런 AI가 나타난다면? 이 시대에 AI를 개발하고 있는 사람들은 어떤 생각을 하고 있을까.