brunch

You can make anything
by writing

C.S.Lewis

by 알바트로스 Nov 25. 2023

인공지능의 머릿속으로 직접 들어가보자

중국어방 실험 : 구문(syntax)과 의미(semantic)의 딜레마

지난시간에 우리는 튜링테스트를 통해 기계가 생각할 수 있는지 알아보고자 했습니다. 그런데 인공지능이 단순히 스스로를 인간처럼 보이도록 우리를 속이고 있는 것인지, 아니면 실제로 인간과 비슷한 사고 프로세스를 거쳐 말을 하는지는 도무지 알 수가 없습니다. 그래서 튜링 테스트의 한계를 비판하고 진짜로 컴퓨터의 머릿속에 들어가서 무엇이 들었는지 들여자보자고 제안했던 사람이 있습니다. 바로 언어철학자이자 심리학자인 존 설 박사입니다.


중국어 방 실험, 구문(syntax)과 의미(semantic)의 딜레마


언어철학자 존 설(John Searle) 박사는 튜링 테스트만으로는 기계가 생각하는지 알 수 없다는 자신의 주장을 입증하고자 중국어 방 실험(the chinese test) 이라는 것을 제안합니다. 중국어 방 실험은 아무리 그럴듯하게 말하는 기계도 실제로 지능을 가지고 있는지는 알 수 없다는 그의 주장을 논증하기 위해 고안한 사고실험입니다. 그럼 직접 실험 장소로 떠나보시지요.


중국어 방 테스트(출처 : 위키피디아)


중국어 방 사고실험


실험에 앞서 오늘의 중국어 방 실험을 도와줄 참가자들을 소개하겠습니다. 우선 심사관이자 중국어 네이티브인 페이(fei)입니다. 페이(fei)는 중국어 방이 실제로 중국어를 할 수 있는지 판별하는 중요한 역할을 맡았습니다. 다음으로는 오늘의 실험 참가자 존(John)입니다. 존은 중국에 가본적도 없고 중국어를 한마디도 하지 못합니다. 존은 중국어 방이라는 아주 특수한 방에 들어가 실험에 참가합니다. 중국어를 한마디도 못하는 사람도 누구나 중국어를 할 수 있게되는 마법의 방이죠.


실험 도우미들은 중국어는 커녕 알파벳 이외의 문자는 난생 처음보는 존이 중국어로 된 질문이 들어왔을 때 답할 수 있도록 질문과 그에 맞는 답변 목록 그리고 변환을 위한 규칙들이 매우 상세하게 적혀 있는 영어와 기호로 가득찬 지침서와 함께 필기도구를 방 안에 넣어줍니다. 이 상태에서 중국인 심사관 페이(Fei)가 중국어로 질문을 써서 방 안으로 넣어주면, 존은 받은 답변 목록과 지침서를 토대로 알맞은 대답을 찾아내어 적절한 답변을 작성한 뒤 방 밖에서 기다리고 있는 페이에게 다시 건네주어야 합니다.


예를 들면 존은 “ni(你)라는 기호가 들어오면 답변의 서두에 wo(我)라는 기호를 넣는다”와 같은 지침에 따라 답변을 작성해야 합니다. 한자를 단 한글자도 읽을 수 없는 존은 좁은 창문을 통해 들어오는 중국어의 의미를 전혀 이해하지 못하겠지만, 문답 목록과 지침서 덕분에 어쨌든 매우 자연스러운 중국어로 페이와 대화를 나눌 수 있을 것입니다. 페이도 방안에 들어가 있는 존이 중국어를 매우 유창하게 구사할 줄 안다고 생각하겠죠. 그러나 존은 질문도 답변도 모르는 상태에서 기계적으로 대조해 보고 답안을 제출할 뿐이지 정말로 중국어로 된 질문을 이해하고 대답하는 것은 아닙니다.


구문(syntax)와 의미(semantic)의 딜레마


인공지능 언어모델이 사람을 그럴듯하게 속이고 튜링 테스트에 통과했다고 해서 그 인공지능이 반드시 지능을 가지고 있음을 의미하지는 않는다는 것을 논증하고자 하는 것이 중국어 방 사고실험의 핵심입니다. 챗GPT에게 ‘오늘 저녁에 뭐 먹을까?’라는 질문을 했을 때, 챗GPT는 마치 사람처럼 자연스러운 어투로 여러가지 메뉴 선택지를 제안하고 유익한 조언까지 해줍니다. 그런데 사람처럼 미각과 소화기관을 가지고 있지 않은 챗GPT가 정말로 저녁식사가 무엇을 뜻하는지, 맛있는 음식을 먹으면 어떤 느낌이 드는지 정말로 이해하고 있을까요? 아마도 아닐겁니다.


챗GPT에게 저녁 메뉴를 물어보았다


우리는 챗GPT에 내장되어 있는 초거대언어모델(LLM)을 실험 참가자 존에 비유하여 생각해볼 수 있습니다. 초거대언어모델은 사전에 정해진 알고리즘에 따라 질문과 학습 데이터를 대조하는 작업을 통해 믿을 수 없을 만큼 자연스럽고 훌륭한 답변을 출력합니다. 2장 ‘언어모델 해부하기’에서 자연어처리의 기초 개념과 초거대언어모델의 작동원리를 배우면 챗GPT속에 숨어있는 초거대언어모델을 보다 자세하게 이해할 수 있게 될 것입니다.


컴퓨터가 매우 그럴듯 한 문장으로 인간과 대화를 할 수 있지만, 실제로는 아무것도 이해하지 못하고 있음을 다루는 문제를 우리는 구문(syntax)과 의미(semantic)의 딜레마라고 칭하겠습니다. 컴퓨터과학에서 구문은 문장이 구성되는 방식에 대한 것입니다. 반면에 의미는 문장이 나타내는 실제 의미에 대한 것이죠. 챗GPT와 같은 초거대언어모델(LLM)은 구문론에 따라 문장을 처리합니다. 따라서 사용자의 의도는 어느정도 파악할 수 있어도, 실제로 사용자의 말이 의미하는바가 무엇인지는 알 수 없겠지요.


예를 들어, "나는 배가 고프다"라는 문장에서 "나는", "배가", "고프다"라는 단어와 그 단어들 사이의 관계, 문법과 문장의 구조 등을 구문(syntax)라고 합니다. 컴퓨터는 철저히 구문론의 관점에서만 이 단어를 해석합니다. 반면에 컴퓨터는 배가 고프다는 감정이 어떤 것을 의미하는지는 알지 못할 것입니다. 따라서 아직까지 인공지능 언어모델은 인간 언어가 실제로 의미하는바를 깊이 있게 이해하거나 그 의미에 기반하여 스스로 판단하거나 생각하는 일은 할 수 없는 것입니다.


어쨌든 중국어 방 실험에서 존은 훌륭한 매뉴얼과 시스템 덕분에 주어진 태스크를 훌륭하게 수행해낼 수 있었습니다. 존은 중국어방이라는 거대한 시스템의 일부였고, 그 시스템은 나름의 방법을 통해 영어를 중국어로 번역한다는 소정의 목적을 달성한 것입니다. 중국어 방 실험에서의 존과 같이, 인공지능은 주어진 규칙과 알고리즘에 따라 응답을 생성하는 것이지, 그 내용을 진정으로 이해하거나 느끼는 것은 아닙니다.


진정한 의미의 특이점이 도래하고 인공일반지능이 보편화 되기 위해서는 구문과 의미의 딜레마가 극복되어야 합니다. 그리고 그 첫걸음은 우리 인간에 대한 이해로부터 시작됩니다. 우리 인간은 어떻게 세상을 인지하며, 인간의 뇌는 어떻게 정보를 받아들이고 처리하는지 우리는 지금보다 더 깊게 이해하고 그 메커니즘을 컴퓨터에 구현해 낼 필요가 있습니다. 인공지능이 단순히 컴퓨터과학만의 영역이 아닌 이유입니다. 인공지능 연구가 단순히 컴퓨터 과학의 한 분야가 아닌 뇌과학과 인지심리학 등 다방면의 지식이 융합된 분야가 되어야 하는 이유입니다.

이전 03화 기계는 정말로 생각할 수 있을까?
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari