튜링 테스트와 중국어 방 사고실험은 두 가지 다른 관점에서 생각하는 기계의 본질에 대해 중요한 사실들을 알려줍니다. 앨런 튜링은 “기계가 정말로 생각할 수 있을까?”라는 질문에 대해 튜링 테스트를 통해 기계가 정말로 생각할 수 있다면, 우리를 그렇게 믿게 만들 수 있을 것이라는 명쾌한 답을 줍니다. 그에게 있어서 생각이 무엇인지 혹은 기계의 정의가 무엇인지 철학적으로 논하는 것은 크게 중요하지 않았던것 같습니다.
튜링은 기계가 우리 인간과 완전히 똑같은 프로세스로 생각하지 않더라도 어쨌든 기계가 우리 인간으로 하여금 그렇게 믿게 만든다면 충분한 사고능력을 갖춘 것이라고 보는 것이 합당하다고 생각했던 것 같습니다. 정말 수학자이자 암호학자다운 깔끔하고 군더더기 없는 접근방식입니다. 그는 2000년대가 되면 사람들은 더이상 생각하는 기계라는 말에 거부감을 느끼지 않을 것이라고 예언하기도 했는데 그의 말대로 사람들은 인공지능이라는 단어를 꽤나 친숙하게 느끼는 것 같습니다.
출처 : shutterstock
반면에 언어철학자 존 설 박사는 완전히 다른 관점에서 기계를 바라봤습니다. 기계가 겉으로 아무리 그럴듯한 문장을 뱉어낸다고 하더라도 기계는 절대로 사람이 하는 것 처럼 감정을 느끼거나 스스로가 무슨말을 하는지 이해할 수 없다는 것이죠. 이 역시 매우 타당한 주장입니다. 중국어방 사고실험을 통해 살펴본 것 처럼 현재 기술로 만들어진 초거대언어모델(LLM)은 구문론과 의미론의 딜레마를 가지고 있습니다. 현재의 초거대언어모델(LLM)이 인간처럼 자아를 가지거나 생각할 수 없다는 것은 많은 자연어처리 엔지니어들이 동의하는 바이기도 합니다.
하지만 초거대언어모델(LLM)이 자아를 가지고 있지 않으며 그들의 언어가 그저 모방의 결과물이라는 사실을 인정하더라도 크게 달라지는 것은 없을지 모릅니다. 우리는 이미 챗GPT가 써준 보고서를 업무에 활용하고, 사람처럼 말하는 챗봇에 고민을 털어놓으며 마치 인격을 가진 존재처럼 대하기도 하기 때문입니다. 인공지능으로 인해 초래될 진짜 위기는 이처럼 기계에 의한 직접적인 위협이 아닌 기계와 상호작용하는 과정에서 인간이 느끼게 될 인간의 감정과 깊게 연관되어 있는지도 모릅니다.
이것은 SF영화 작가들이 그려내는 것 처럼 똑똑해진 로봇이 사람을 공격하는 종류의 위협과는 본질적으로 다른 것입니다. 인간은 점점 더 그럴 듯해지는 인공지능이 만들어내는 결과물을 무분별하게 받아들이고 사용하게 될 것이고, 그로 인해 인류 사회는 점점 더 인공지능이 만들어낸 결과물에 의존하게될지 모릅니다. 인공지능에 지나치게 의존하는 사회는 우리 인간에게 축복일까요? 아니면 저주일까요?
이 브런치북의 후반부에 자세히 살펴보겠지만 튜링 테스트와 중국어방 사고 실험은 ‘인간의 지시 없이 스스로 인간이 할 수 있는 모든 지적활동을 하는 사람같은 인공지능’에 대한 연구로 이어집니다. 이러한 미래의 인공지능을 강인공지능(strong AI) 혹은 인공일반지능(AGI)이라고 합니다.그리고일반 인공지능에 대한 인류의 지대한 관심은 책임감 있는 인공지능 개발(responsible AI)와 새로운 시대의 윤리와 기계의 권리라는 주제에 대한 논의로 자연스럽게 이어질 것입니다.