사람같은 인공지능의 등장
코로나 시기에 학교가 전면 비대면으로 전환되면서 아이들을 직접 만날 수 없게 되었다. 유튜브 '오늘의 도덕'을 시작한 것도 그때의 일이다. 난생 처음 카메라를 켜고, PPT 화면을 띄우며 아이들에게 도덕 수업을 전했다. 귀여운 조잘거리는 목소리는 들을 수 없었지만 나름대로 리플 등을 통해 아이들과 소통하면서 비대면이지만 마음은 가까이 하려고 부던히 노력을 했다. 다행히(?) 도덕 수업이라 그런지 좋은 리플도 많았지만, 악플도 없지 않았다. '지루하니까 영상 길이 줄여줘' 라는 짧은 댓글 하나가 두고두고 마음을 상하게 했다. 10분짜리 영상을 만들기 위해 얼마나 많이 공부하고, 시간을 투자했는데 저런 리플을 달다니! "모니터 뒤에 사람 있어요" 라는 흔한 문구가 어떤 느낌인지 와닿는 순간이었다.
그런데 인공지능이 빠르게 발달하면서 불과 몇 년 만에 모니터 뒤에 내가 만나는 상대가 사람이 아닐 수도 있는 세상이 되었다. 수많은 사람들이 챗GPT와 대화를 하고 상담을 하는 시대가 아닌가? 이제는 우리가 대화하고 나에게 리플을 남겨주는 상대가 사람이 아니라 인공지능일 수도 있게 되었다.
기계도 생각할 수 있을까?
1950년, 영국의 수학자 앨런 튜링(Alan Mathison Tuning)은 흥미로운 논문 하나를 발표한다. 논문의 제목은 '기계가 생각할 수 있는가?'(Can machines think?)라는 질문으로 시작한다. 당시에는 기계는 생각할 수 없다고 보았다. 최초의 프로그래머 에이다 러브레이스(Augusta Ada King)는 "기계는 시키는 일만 할 수 있다"고 주장했다. 하지만 튜링은 자신의 논문에서 러브레이스의 주장을 반박한다. 그리고 튜링은 컴퓨터가 인간과 구별되지 않는 방식으로 행동한다면, 기계도 인간처럼 생각할 수 있다는 것을 보여준다고 주장했다. 이러한 개념을 검증하기 위해 제안된 것이 바로 '튜링 테스트'이다.
튜링 테스트에는 A라는 인간이 등장한다. A는 두 명과 대화하는데, 한 명은 진짜 인간이고 다른 한 명은 컴퓨터이다. A가 자기가 대화한 인간 중에 누가 인간이고, 누가 컴퓨터인지 맞추지 못하면 컴퓨터가 "사람처럼 말한다"는 것을 증명하게 되는 셈이다. 다시 말해 컴퓨터가 지능을 가졌다고 볼 수 있다는 것이다. 튜링은 미래에는 기계가 튜링 테스트를 통과할 것이라고 예측했다. 지금으로 따지면 모니터 뒤에 사람이 있는지, 인공지능이 있는지 알 수 없게 된다는 것이다.
실제로 최근에 관련된 연구가 발표되었다. 2025년 미국의 UC Sandiego 연구팀은 챗 GPT, 라마(LLaMA), 엘리자(ELIZA) 같은 인공지능을 활용해 튜링 테스트를 진행했다. 284명의 대학생과 온라인 참가자들이 대화를 통해 인간과 인공지능을 구분해내는 것이다. 5분의 대화시간 동안 자유로운 질문이 오고갔다. 챗 GPT 4.5는 73%의 확률로 "인간인 것 같다"는 평가를 받았고, 진짜 인간은 그보다 낮은 67%의 확률로 "인간인 것 같다"는 평가를 받았다. 이제 우리는 모니터 너머의 존재가 인간인지 인공지능인지 구별할 수 없는 세상으로 진입하는 것이다. 하지만 이렇게 인간처럼 대화한다고 해서 이 기계가 정말 생각한다고 볼 수 있을까?
여전히 의문은 남는다. 인공지능이 "사람처럼 말할 수 있다"고 해서, 인공지능이 스스로 생각했다고 볼 수 있을까? 사실 인공지능은 사람처럼 대화를 주고받은 것 뿐이지, 실제로 생각해서 답해낸 것이라 보기는 어렵다. 인공지능은 그저 사람과 유사하게 말하는 패턴을 모방하는 능력을 갖추게 되었다고 볼 수는 있다. 물론 에이다 러브레이스의 주장처럼 '시키는 일만 할 수 있다'의 범위는 이미 벗어나긴 했지만 말이다.
철학자 존 설(John Rogers Searle)은 인공지능이 언어를 이해한 것이 아니라고 주장한다. 인공지능은 기호를 조작하는 것이며, 진정한 의미에서 '이해' 능력을 갖고 있지는 않다는 것이다. 이것에 대한 내용이 바로 중국어 방 사고 실험이다.
여기 방이 하나 있다. 여기에는 영어만 할 줄 아는 사람이 한 명 들어간다. 이 방 안에는 글로 대화를 나눌 수 있는 종이와 연필이 있고, 미리 만들어진 질문들이 있다. 그런데 이 질문들은 모두 중국어라서 이 사람은 이 문제를 읽을 수 수 없다. 하지만 여기에는 미리 만들어진 질문에 대한 답도 있다. 중국어 방에 중국인 심사관이 들어가서 '중국어로 쓴 질문지'를 주면, 이 사람은 '미리 준비된 대답'을 읽고 중국어로 베껴써서 심사관에게 준다. 이 방안의 사람은 그저 준비된 질문을 똑같이 쓰기만 했을 뿐이다. 한 마디로, 중국어를 몰라도 문제를 푼 것이다. 이것처럼 인공지능이 우리에게 답변은 하지만 이것이 지능을 가진 것이라고 볼 수는 없다는 것이 중국어 방의 주장이다.
좀 더 쉽게 말하면 이렇다. 학생들에게 숙제를 내주었더니 학생들이 성실하게 숙제를 해결해왔다. 채점해보니 모두 맞긴 했는데 문제 풀이를 시켜보니 하나도 할 줄 아는 것이 없는 것이다. 답지를 보고 베껴서 숙제를 해온 것이다. 그러니까 답은 썼지만 이해는 1도 못하고 있는 것이다. 이것처럼 인공지능이 우리에게 답변은 하지만 이것이 지능을 가진 것이라고 볼 수는 없다는 것이다.
하지만 이에 대한 반론도 있다. 특이점이 온다는 책으로 유명해진 레이 커즈와일(Ray Kurzweil)는 인공지능이 인간 수준의 지능을 가질 수 있다고 주장한 대표적인 인물이다. 그는 저서 <특이점이 온다(The Singularity Is Near)>에서 2029년까지 인공진으이 인간 수준의 지능에 도달할 것이라고 예측했다. 그리고 이 시점을 특이점이라고 명명했다.
커즈와일은 뇌의 작동 방식을 이해하고 이것을 디지털로 구현하여 인공지능이 인간의 지능을 초월할 수 있다고 본다. 그리고 이러한 과정들을 통하여 뇌의 알고리즘을 디지털에 접목시키면 의식을 가진 기계가 출현할 수 있다고 본다.
우리가 무언가를 안다는 건 어떤 것일까? 그저 숙제의 답을 베껴오는 것은 진짜 해답을 안다고 볼 수 없다. 마찬가지로 진짜 무언가를 안다는 건 '스스로 생각한다'는 것을 의미하는 것일지 모른다. 그래서 우리는 끊임없이 묻게 된다. 난 누구인가? 난 어떤 사람인가? 나는 어떻게 살아야 하는가? 에 대해 말이다.
코로나 시기에 나는 비대면 환경에서 아이들을 마주하지 못하고 수업을 했다. 그런데 이제 아이들은 모니터 너머의 선생님이 아닌, 인공지능과 대화를 하며 배우는 시대가 열렸다. 태블릿 교과서가 도입되고, 이제는 인공지능 보조교사들이 도입되어 아이들을 가르친다는 이야기가 나온다. 그렇다면 우리는 더더욱 물어야 할 것이다. 모니터 뒤의 인공지능과 달리 실제 살아 움직이는 사람은 무엇이 다른걸까? 나는 어떤 사람이 되어야 하는 것일까?
이것을 고민하지 않고 그저 하루하루를 살아간다면 언어를 모방하는 인공지능과 다를 바가 없어지게 된다. 인간이 인간다워지기 위해서는 끊임없이 우리는 물어야 한다. 나는 누구이며, 어떻게 살아야 하는지에 대해서 말이다.