2016년 3월 15일은 인류 역사에서 잊을 수 없는 하루가 기록됐다. 이날, 인공지능은 바둑(Go)에서 처음으로 인간 대표를 꺾었다. 알파고 쇼크로 기록된 이날 알파고는 이세돌 9단을 이겼다.
알파고는 바둑에 특화 한 인공지능으로 학습을 통해 만들어진 일종의 컴퓨터 프로그램이다. 강화 학습(Reinforcement Learning)을 통해 바둑을 학습한 알파고는 바둑판 위에 놓인 바둑돌을 인식해 최적의 수를 선택한다. 알파고는 두 가지 방식으로 게임을 진행한다. 바로 정책망과 가치망이다. 정책망은 다음에 놓을 수를 계산하고 가치망은 그 수를 통해 이길 수 있는 확률을 평가한다. 두 가지 신경망이 결합해 최적의 수를 선택하는 게 알파고의 원리다. 두 신경망은 그동안 쌓은 수많은 프로 기사들의 기보를 통해 학습한다. 학습을 거듭할수록 바둑에서 승리할 수 있는 길을 더욱 잘 찾게 되는 게 알파고의 원리다.
알파고의 핵심은 학습에 있다. 기계를 가르치는 과정, 다시 말해 학습은 어린 아이를 교육시키는 학습과 별로 다를 게 없다. 그런 점에서 인공지능이란 단어를 쉽게 풀어보면 인간처럼 학습된 기계라 바꿔 부를 수 있다. 그동안 인간이 쌓아 올린 자료와 지식을 가지고 기계를 학습시키면 인간과 닮은(?) 지능을 가진 기계를 만들 수 있지 않을까.
이런 질문을 던지고 진지하게 이끌어간 이가 바로 앨런 튜링이다. 튜링이 1948년 작성한 '지능을 가진 기계(Intelligent Machinery)'는 기계학습(Machine Learning)과 신경망(Neural Network)의 원형으로 평가된다. 기계학습과 신경망이란 두 가지 개념은 챗GPT와 같은 인공지능을 낳는 기초적인 기술로 발전했다.
기계학습을 소개하기에 앞서 튜링은 기계를 학습시켜 인간과 닮은 존재를 만드는 것에 대한 일반적인 반감을 정확히 이해했다. 70년이 지나 인공지능이란 새로운 기술 혁명이 시작된 현재도 이런 반감은 여전하다. 기술이 인간을 대체해 수많은 직업들이 사라지거나 사라질 수 있다는 걱정과 염려는 하루가 멀다 하고 뉴스를 장식하고 있다. 튜링의 고민을 따라가 보자.
기계가 어떻게 하면 지능적인 행동을 보일 수 있을지에 대한 여러 가능성을 살펴보겠다. 인간의 뇌를 하나의 모델로 삼아 이런 논의를 이끌어 가려고 한다. 우선 인간 지능의 잠재력은 올바른 교육을 받을 때에만 발현될 수 있다는 점에 주목해야 한다. 이러한 관점을 바탕으로 기계에도 이와 유사한 ‘가르침’의 과정을 적용할 수 있는지 탐구할 수 있다.
나는 기계가 지능적인 행동을 보일 수 있는지에 대해 살펴보려고 한다. 그동안은 이에 대한 논증이 없이 일반적으로 불가능하다고 생각되어 왔다. ‘기계처럼 행동한다’, ‘순전히 기계적인 행동’과 같은 우리가 흔하게 쓰는 표현들이 이런 태도를 잘 드러낸다. 왜 이런 인식이 생겨났는지는 어렵지 않게 알 수 있다. 그 이유 가운데 몇 가지는 다음과 같다.
(a) 인간이 지적 능력 면에서 어떠한 경쟁자를 가질 가능성 자체를 인정하기를 꺼리는 태도. 이는 일반 대중뿐 아니라 지식인들에게서도 똑같이 나타난다. 지식인들이 잃을 것이 더 많기 때문이다. 이러한 가능성을 인정하는 사람들조차 실제로 그런 일이 현실화된다면 매우 불쾌할 것이라고 입을 모은다. 비슷한 상황은 우리가 다른 동물에 의해서 대체될 가능성을 생각할 때도 비슷하다.
(b) 그러한 기계를 만드는 시도가 일종의 프로메테우스적 불경(不敬)이라는 종교적 신념.
튜링은 기계의 본질을 꿰뚫어 봤다. 산업혁명 이후 기계는 반복적인 일을 수행하는 장치로 여겨졌다. 이런 인식은 세월이 흐르면서 굳어진 신념이 됐고 여전히 대중의 인식 속에 강하게 남아있다. 자동차란 기계는 운전자가 핸들을 트는 방향으로 움직인다. 냉장고란 기계는 음식을 보관하기 위해 영상 4도씨를 꾸준히 유지한다. 세탁기란 기계는 세제와 물, 옷을 원통에 넣고 함께 돌려 오염을 씻어낸다. 기계는 정해진 일을 끝내면 멈춘다. 그 이상도 그 이하도 아닌 게 바로 기계라는 장치이다.
(c) 최근에 이르기까지 사용되어 온 기계의 매우 제한된 특성(예: 1940년 이전까지). 이러한 제한은 기계가 본질적으로 극히 단순한 어쩌면 반복적인 일만 수행할 수 있다고 믿게 만들었다. 이 태도는 도로시 세이어즈(Dorothy Sayers)의 『창조자의 마음(The Mind of the Maker)』(p.46)의 표현에 잘 드러난다. ‘…마치 신이 우주를 창조한 후 펜 뚜껑을 닫고, 발을 벽난로 위에 올려놓고, 일이 저절로 되도록 그냥 내버려두었다고 상상하는 것과 같다.’
그러나 이는 아우구스티누스가 말한 존재하지 않는 것들을 바탕으로 한 비유적 표현이나 수수께끼에 가깝다. 창조자가 손을 뗀 뒤에도 스스로 다양한 방식으로 계속 창조 활동을 이어가는 어떤 창조물도 우리는 알지 못한다. 이 생각은 신이 단지 거대한 기계를 만들어 놓고 연료가 떨어질 때까지 작동하도록 내버려두었다는 또 하나의 비유다. 우리는 새로운 다양성을 만들어내는 기계를 경험해 본 적이 없다. 기계의 본질은 ‘작동하는 한 똑같은 일을 반복하는 것’이다.
인공지능이 발전하면서 이런 인식은 조금씩 깨지고 있다. 테슬라 FSD는 운전자 개입 없이 학습된 데이터를 바탕으로 운전한다. 최근 등장하고 있는 인공지능 기술이 인간처럼 스스로 생각할 수준까지 발전한 것인지에 대해선 여전히 논란이 있다. 분명한 건 챗GPT를 스스로 생각하는 존재라 여기고 정서적으로 의존하거나 챗GPT에게 민감한 결정을 맡기는 이가 적지 않다는 거다. 챗GPT가 수많은 글과 문서를 학습해 사용자의 질문에 자연스럽게 반응하는 기술에 불과하지만 말이다.
적어도 최근의 기술은 튜링이 고민했던 반복적인 일들만 수행하는 기계를 뛰어넘었다. 사용자의 의도를 읽고 반응하고 거기에 더해 인간과 밀접한 언어로 응답까지 하는 수준으로 나아간 거다. 이런 이유로 챗PGT와 같은 응답형 프로그램에 인간이 의존해 발생하는 사회 문제도 늘어나는 추세다. 2025년 4월에는 챗GPT와 대화를 이어가던 미국 10대가 스스로 목숨을 끊는 사건이 발생했다. 건강이 나빠져 집에서 온라인 수업을 듣던 아담 레인(16세)은 지난해 말부터 학교 과제를 위해 챗GPT를 사용했고 올해 초에는 유료 가입까지 했다. 아담은 챗GPT에게 삶의 의미를 찾기 어려워진다며 고민 상담을 했다. 공감과 지지를 해주며 격려하던 챗GPT는 레인이 구체적 자살 방법을 묻자 관련 정보를 제공했다. 레인은 2025년 3월 말 자살을 시도했고 결국 4월 세상을 떠났다. 레인의 부모는 챗GPT 운영사인 오픈AI와 샘 올트만을 상대로 소송을 제기했다.
이런 사건은 시작에 불과할지 모른다. 대화형 인공지능이 스스로 생각을 하지 못하는 기계장치에 불과해도 사용자가 감정을 이입할 수 있어서다. 레인은 스스로 목숨을 끊는 방법을 검색한 후 관련 검색이 막히자 영화를 제작한다고 챗GPT를 속였다. 국가나 기업이 검색 불가 키워드를 도입해도 관련 검색을 완벽하게 차단하는 건 불가능에 가깝다는 걸 이번 사건이 보여줬다.
(d) 최근에 발견된 괴델의 정리(1931)와 관련된 결과들(처치 1936, 튜링 1937)은, 기계를 사용해 수학 정리의 참·거짓을 판별하려 할 때 특정 기계는 어떤 경우에는 아예 답을 낼 수 없음을 보여주었다. 반면 인간의 지적 능력은 이런 문제들을 다루기 위해 기계를 초월하는 보다 더 강력한 방법을 찾아낼 수도 있다.
(e) 기계가 지능을 가졌다고 할 때, 그것은 단지 그 기계를 만든 창조자의 지능을 반영한 것에 불과하다는 관점.
튜링은 인간의 강력한 의지와 뛰어난 창의성에 주목한다. 생각하는 기계 다시 말해 인공지능이 등장한다고 해도 인간이 이를 뛰어넘을 수 있다는 확신을 가지고 있었다. 다양한 문제를 해결하기 위해 인간은 계산기(컴퓨터)와 같은 기계를 만들었고 이를 활용해 새로운 기술을 낳았다. 인공지능 역시 수 백년 혹은 수 천년의 역사적 흐름에서 보자면 흘러지나는 한 때의 기술에 불과할 수 있다. 일례로 1967년 미국 텍사스 인스트루먼트(Texas Instruments)가 최초로 만든 손바닥 계산기는 당시엔 혁명적인 발명품이었지만 최근에는 그보다 수십억 배 빠른 스마트폰을 누구나 들고 다니는 시대다.
다양한 반발에도 불구하고 튜링은 기계가 인간을 대체할 수 있다고 믿었다. 인간의 작은 부분을 흉내 내는 기계를 만들 수 있다면 인간을 기계로 대체하는 건 어려운 일이 아니라서다.
인간이 생각하는 기계를 만들 수 있다는 가능성을 믿게 하는 긍정적인 이유 중 하나는 인간의 작은 부분을 흉내 내는 기계를 만드는 것이 가능하다는 사실 때문이다.
마이크로폰이 귀의 역할을 하고, 텔레비전 카메라가 눈의 역할을 한다는 것은 잘 알려져 있다. 또한 서보 메커니즘의 도움으로 팔다리를 균형 있게 조종하는 원격 조종 로봇도 만들 수 있다.
여기서 우리가 주로 관심을 두는 것은 신경계이다. 우리는 신경의 행동을 모방하는 꽤 정확한 전기 모델을 만들 수도 있다.
전자 계산 기계에서 사용하는 전기 회로는 신경의 필수적 속성을 가진 것으로 보인다. 이들은 정보를 한곳에서 다른 곳으로 전달하고, 그것을 저장할 수도 있다. 물론 신경은 많은 장점을 가지고 있다. 매우 콤팩트하고, 적절한 환경에 보관된다면 수백 년 동안 마모되지 않을 것이며, 에너지 소비도 매우 낮다. 이러한 장점에 비해 전자 회로가 가진 단 한 가지 매력은 속도뿐이다. 하지만 이 속도의 장점은 워낙 압도적이어서 신경의 장점을 능가할 수도 있다.
‘생각하는 기계’를 만들기 위한 한 가지 방법은 인간 전체를 기계로 대체하는 것이다. 그 안에는 텔레비전 카메라, 마이크로폰, 스피커, 바퀴, 그리고 ‘조작용 서보 메커니즘’과 어떤 형태의 ‘전자 두뇌’가 포함될 것이다.
물론 이는 엄청난 작업이다. 현재 기술로 만든다면 그것은 두뇌 부분을 고정하고 몸을 원격으로 제어한다고 해도 엄청난 크기가 될 것이다. 기계가 스스로 무언가를 알아낼 기회를 갖게 하려면 다양한 곳을 돌아다닐 수 있어야 하며, 이는 일반 시민에게 위험을 초래할 것이다.
대신 우리는 시각, 음성, 청각 정도만을 가진 거의 몸이 없는 ‘두뇌’로 무엇을 할 수 있는지 시도해 보려 한다. 그러면 기계가 자신의 능력을 발휘할 만한 적절한 사고 분야를 찾는 문제가 생긴다. 나는 다음의 분야들이 기계가 자신의 능력을 발휘할 수 있는 적절한 분야라고 생각한다.
(i) 체스, 틱 택 토, 브리지, 포커 같은 여러 가지 게임
(ii) 언어 학습
(iii) 언어 번역
(iv) 암호 해독
(v) 수학
이 중 (i), (iv), 그리고 어느 정도 (iii)와 (v)는 외부 세계와 거의 접촉할 필요가 없다는 점에서 긍정적이다. 예를 들어 기계가 체스를 두기 위해 필요한 감각 기관은 특수 제작된 체스판의 여러 위치를 구분할 수 있는 눈과 자신의 수를 알려주는 장치 정도면 충분하다. 위 분야들 중에서 언어 학습은 가장 인간적인 활동이기 때문에 가장 인상적인 업적이 될 것이다. 그러나 이 분야는 감각 기관과 움직임에 지나치게 의존하는 것으로 보여 실현 가능성이 낮아 보인다.
여기에서 튜링의 놀라운 직관이 드러난다. 튜링은 생각하는 기계가 대체할 수 있는 분야를 예견했다. 체스와 바둑 같은 인간이 만들어 낸 다양한 게임 분야에선 인공지능이 인간을 앞섰다. 놀라운 건 그가 언어 학습에서 생각하는 기계 다시 말해 인공지능이 두각을 나타낼 것이라고 내다본 점이다. 챗GPT와 같은 대화형 인공지능이 미래에 나타날 수 있다고 내다본 것이다. 챗GPT는 대규모 문자 데이터를 학습해 자연어를 이해하고 생성할 수 있는 거대 언어 모델(Large Language Model)을 기반으로 한다. 언어를 학습한 인공지능은 최근 인공지능 기술을 주도하고 있다. 튜링이 1948년 펴낸 글은 인공지능 예언서라 표현해도 될 정도로 현재를 정확하게 묘사하고 있다.