brunch

You can make anything
by writing

C.S.Lewis

by 알바트로스 Nov 20. 2023

기계는 정말로 생각할 수 있을까?

앨런튜링과 생각하는 기계의 등장

2014년 개봉한 영화 이미테이션 게임(imitation game)으로 우리에게 익숙한 앨런 튜링(Alan Turing)은 2차 세계대전 당시 튜링 머신(Turing machine)이라는 거대한 기계를 만들어 냅니다. 이 기계는 절대 풀리지 않을 것 같던 독일군의 암호 에니그마(enigma)를 풀어내며 연합군의 승리에 큰 공을 세웠습니다. 그가 1956년 개발한 튜링 머신은 훗날 우리가 사용하는 컴퓨터의 전신이 되며 컴퓨터과학(computer science) 분야 발전의 토대가 되기도 합니다.


앨런 튜링(출처 : Better Life Design)

그러나 그가 인공지능 분야에 남긴 지대한 업적을 아는 사람은 많지 않습니다. 튜링은 그가 발표한 ‘computing machinery and intelligence(계산 기계와 지능)’이라는 논문에서 ‘기계가 사람처럼 생각할 수 있을까?’라는 질문을 던지며 인공지능의 논리적, 수학적 토대를 마련합니다. 논문 서두에서 앨런 튜링은 다음과 같이 말합니다. “생각하는 기계에 대해서 논의하고자 할 때 우리는 우선 두 가지 질문에 답해야 한다. 하나는 생각한다는 것이 무엇인가?라는 질문이며, 또 다른 하나는 기계란 무엇인가?라는 질문이다. 그러나 모두가 알다시피 이러한 질문들은 사람에 따라 정의하기 나름이며 그에 대한 답 또한 천차만별이다.” 


그의 말처럼 생각한다는 것이 구체적으로 무엇을 뜻하는지 명확히 정의 내리는 일은 불가능에 가깝습니다. 사람마다 생각에 대한 정의가 모두 다를 뿐더러 인간의 뇌가 작동하는 메커니즘 역시 완벽히 구현되지 않았기 때문입니다. 뿐만 아니라 계산기부터 최첨단 디지털기계에 이르기까지 어디서부터 어디까지를 기계로 보아야 할지를 정의내리는 일도 쉽지 않기 때문이죠 .


튜링은 수학자이자 암호학자답게 이러한 난해한 철학적 논의에 시간을 할애하는 것은 시간낭비라고 생각했던 것 같습니다. 대신에 그는 매우 단순하면서도 명확한 방법을 택합니다. 튜링 박사는 컴퓨터가 정말 사람처럼 생각할 수 있다면, 대화를 통해 사람이 자신을 인간이라고 착각하게 만들 수 있지 않겠느냐면서 재미있는 실험 하나를 제안합니다. 바로 이 책에서 자세히 다루게 될 튜링 테스트(Turing test)입니다.


뿐만 아니라 그는 한 기고문에서  “인간의 뇌는 컴퓨터일까?”라는 다소 엉뚱한 질문을 던지기도 합니다. 그는 “2000년에는 기계가 스스로 생각한다고 말해도 아무도 반박하지 않을 것”이라고 예언하면서 그리고 인간의 뇌가 똑같은 계산을 오류없이 쉼없이 반복하는 컴퓨터와 본질적으로 다를 것이 없으며, 인간의 뇌는 일종의 컴퓨터라고 볼 수 있다고 주장했습니다.


컴퓨터와는 다르게 인간은 ‘자유의지’를 가지고 있다고 반박하는 사람들에게 그는 무작위성을 가미하여 컴퓨터가 자유의지를 가지고 있는 것 처럼 보이게 만드는 것은 얼마든지 가능하다고 말합니다. 한발 나아가 스스로의 생각과 행동을 결정할 수 있다는 믿음인 자유의지를 가지고 있다는 것은 순전히 인간의 착각에 불과할지도 모른다고 말합니다.


우리가 오늘 먹은 저녁 메뉴는 정말로 우리 스스로가 정한 것일까요? 아니면 어떠한 수많은 우연적인 요소들이 겹쳐 그저 그런 선택을 하도록 우리를 이끈 것일까요? 컴퓨터 역시 수많은 무작위 변수(random variable)를 더하면 사람처럼 그럴듯해보이는 선택을 합니다. 우리뇌가 컴퓨터가 아니라고 할 수 있는 근거는 과연 어디서 찾을 수 있는걸까요? 한번쯤 생각해볼 만한 질문인 것 같습니다. 


기계가 인간의 뇌처럼 사고할 수 있다면, 뇌도 기계처럼 작동하는지 궁금해하는 것은 당연한 일이었을 것입니다. 우리의 뇌가 컴퓨터일지 모른다는 튜링의 주장은 그 둘의 연관성에 대한 후대의 연구로 이어집니다. 우리의 뇌속을 채우고 있는 혈관과 신경세포는 컴퓨터에 들어있는 딱딱한 CPU나 GPU와 분명 외형적으로 다릅니다. 그러나 생긴 모습이 다르다고 해도 인간의 뇌와 기계 사이에 어떤 중요한 유사점이 있을지도 모릅니다.


이처럼 앨런 튜링은 우리 인류에게 수많은 이야깃거리와 생각거리가 담긴 ‘생각하는 기계’라는 선물을 주고 떠났습니다. 그가 세상을 떠난 뒤에도 ‘생각하는 기계’를 향한 인류의 오랜 염원은 계속되어 왔습니다. 그리고 그의 예언대로 인간의 뇌와 사고과정을 컴퓨터에 구현해내려는 다양한 시도는 컴퓨터 과학과 기계학습(machine learning) 그리고 막대한 양의 데이터(data)라는 강력한 무기와 만나 사람처럼 말하거나 이미지를 생성해내며 사람들을 놀라게 하고 있습니다.


2.튜링 테스트 : 기계는 생각할 수 있을까?


 튜링의 말대로 생각과 기계의 정의에 대한 난해한 철학적 질문들은 잠시 넣어두고 기계가 정말 생각할 수 있을지 직접 테스트 해봅시다. 앨런 튜링은 컴퓨터가 정말 사람처럼 생각할 수 있다면, 대화를 통해 사람이 자신을 인간이라고 착각하게 만들 수 있지 않겠느냐면서 재미있는 실험 하나를 제안합니다. 바로 튜링 테스트(Turing test)라는 실험인데, 챗GPT를 비롯해 사람처럼 말하는 초거대언어모델(LLM)이 많이 보급된 요즘 주목받고 있는 실험이기도 합니다.


튜링 테스트는 간단합니다. 컴퓨터가 얼마나 사람의 말을 잘 알아듣고 사람처럼 자연스럽게 말할 수 있는지를 기준으로 컴퓨터에 지능이 있는지를 판단하기 때문입니다. 튜링 테스트는 1950년대 그가 발표한 논문 ‘컴퓨터 기계와 지능(computing machinery and intelligence)’에 처음으로 등장하는데, 그는 우선 컴퓨터가 질문자로 하여금 자신이 인간이라고 믿게 할 수 있는지 살펴보자고 합니다. 한발 나아가 그는 컴퓨터가 사람의 성별까지 흉내낼 수 있는지 알아보려고 하는데, 자세한 실험 내용은 다음과 같습니다.


C가 질문자, A가 테스트를 받는 기계, B가 실제 인간이다. (출처 : wikipedia)


우선 인간과 기계를 분리된 공간에 배치한 다음, 질문자(판별자)가 각각 그들과 텍스트로 대화를 나눕니다. (성별 등 판별에 영향을 줄 수 있는 요소를 최대한 배제하기 위해 음성이 아닌 텍스트를 사용합니다.) 질문자는 어떤 공간에 컴퓨터가 있는지, 혹은 사람이 있는지 알 수 없습니다. 질문자가 몇 번의 질문과 응답을 반복하면서 기계와 인간을 명확하게 구분하지 못한다면, 기계가 지능을 가진 것으로 판단합니다.


튜링은 인간을 모방하는 것에서 한발 더 나아가 컴퓨터가 성별까지 모방할 수 있는지 알아보는 실험 역시 제안했습니다. 이번에도 최종 결론을 내릴 질문자가 있어야 합니다. 첫 번째 실험과 동일한 공간의 한 켠에는 남자를, 다른 한 켠에는 여자를 배치합니다. 질문자는 마찬가지로 둘의 존재를 알 수 없는 상황에서 필기한 질문을 둘에게 전달하고 답변을 받습니다. 질문자는 둘 중 누가 남자고 누가 여자인지를 가려야 합니다. 단, 남자는 질문자를 속이기 위해 여자인 척을 해야 합니다. 두 번째 실험에 와서야 남자 대신 기계가 배치되는데, 이번에는 컴퓨터가가 자신이 여자인 것처럼 대화를 하며 질문자를 속여야 하고, 이번에도 질문자를 속이는데에 성공하면 기계는 튜링 테스트를 최종적으로 통과하게 됩니다. 


한마디로 컴퓨터는 주어진 조건속에서 연속적으로 인간을 속이는 데에 성공하기만 하면 튜링 테스트를 통과할 수 있는 것입니다. 너무 간단한 것 같지만 이것이 튜링 테스트의 묘미입니다. 튜링은 생각이나 기계의 정의와 같은 어려운 철학적 질문을 피하면서 본질적으로 기계가 사람의 말을 잘 알아듣고 얼마나 그럴듯하게 말할 수 있는지를 판별하고자 한 것입니다. 즉 컴퓨터가 사람을 감쪽같이 속일 수 있다면 그 컴퓨터는 명백히 생각할 수 있다는 것이 튜링의 생각입니다.


물론 인간을 속이기 위해서 기계는 매우 정교하고 교묘해질 필요가 있습니다. 자신이 남자인지 혹은 여자인지 스스로 페르소나를 정할 수 있다는 사실 또한 놀라운 일입니다. 얼마전 챗GPT에 탑재된 초거대언어모델(LLM) GPT-4가 튜링 테스트를 통과했다는 뉴스로 세상이 떠들썩했습니다. 스탠포드 대학교 로스쿨과 법률 테크 회사 Casetext에 따르면 GPT-4는 미국 변호사 시험에서 상위 10%라는 성적을 거두었으며 상당한 수준의 추론(inference)이 가능하다고 합니다. 인공지능의 지능 총량이 인간의 그것을 넘어서는 특이점(singularity)이 도래했다고 주장하는 사람들 역시 인공지능이 튜링 테스트를 통과할 정도로 발전했다는 사실을 근거로 삼기도 합니다.


튜링 테스트의 한계점 


그러나 많은 자연어처리 엔지니어들과 연구자들은 특이점이 도래했다는 주장에 쉽게 동의하지 못합니다. 2장 ‘언어모델 해부하기’에서 자세히 다루겠지만, 초거대언어모델(LLM)은 사전학습 된 방대한 텍스트 데이터셋을 바탕으로 통계학 이론과 딥러닝에 기반하여 단어와 문장을 예측하는 방식으로 작동하는 언어모델일 뿐이기 때문입니다. 초거대언어모델(LLM)이 아무리 튜링 테스트를 통과하고 자연스러운 언어 구사능력 뿐만 아니라 추론능력까지 보여준다고 하더라도 현재로서 그것은 학습 데이터를 바탕으로 한 모방에 가깝다는 것이 많은 업계 종사자들의 의견입니다.


튜링 테스트를 통과한 것은 GPT-4.0뿐만이 아닙니다. 튜링 테스트는 러시아의 연구진이 개발한 인공지능 모델 유진 구스트만(Eugene Goostman)의 일화로도 유명합니다. 2001년 러시아 태생의 프로그래머들이 상트페테부르크에 모여 우크라이나 출신의 13세 소년을 상정하고 만든 유진 구스트만은 실제로 영어를 모국어로 하지 않는 외국 출신의 소년이 말할법한 영어 문장들을 완벽히 재현해내 심사위원들을 완벽히 속이고 튜링 테스트를 통과한 것으로 알려져 있습니다. 


그러나 유진 구스트만에게도 한계점은 있었습니다. 자신을 우크라이나 출신 소년이라고 소개한 그는 테스트가 끝난 뒤 '우크라이나에 가본 적이 있니?'라는 질문에 '아니요'라는 황당한 대답을 내놓았습니다. 이를 두고 게리 마커스 뉴욕대 인지과학과 교수는 “튜링 테스트를 통과했다는 건 거짓말을 주고받는 데 성공했다는 의미”라고 비난하기도 했지요.


GPT-4.0보다 먼저 튜링 테스트를 통과한 유진 구스트만(출처 : Wall Street Journal)


마찬가지로 챗GPT를 사용해 본적이 있는 독자분들은 GPT가 잘 모르는 질문이 들어왔을 때 아무 말이나 대충 짜깁기하여 마치 사실인양 말하는 환각현상(hallucination)을 꽤나 자주 목격하였을 것입니다. 문제는 이것이 아주 그럴듯하다는 것이죠. 우리는 꽤나 자주 챗GPT에게 속아왔습니다. GPT역시 그럴듯한 문장으로 인간을 아주 능숙하게 속일 수 있습니다.


튜링 테스트의 한계점은 명확해 보입니다. 유진 구스트만과 챗GPT의 환각현상을 보면 알 수 있듯이 기계가 얼마나 사람의 말을 잘 알아듣고 그럴듯하게 말하는지를 판단하는 튜링 테스트만으로는 기계가 정말로 인간처럼 생각하는지 알 수 없습니다. 인공지능이 단순히 스스로를 인간처럼 보이도록 우리를 속이고 있는 것인지 아니면 실제로 인간과 비슷한 사고 프로세스를 거쳐 말을 하는지는 도무지 알 수가 없기 때문입니다. 여기 튜링 테스트의 한계를 비판하고 진짜로 컴퓨터의 머릿속에 들어가서 무엇이 들었는지 들여자보자고 제안했던 사람이 있습니다. 바로 언어철학자이자 심리학자인 존 설 박사입니다.

이전 02화 문돌이는 어쩌다 AI 엔지니어가 되었을까?
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari