사람처럼 보이는 AI vs 사람과 함께하는 AI

튜링 테스트를 재정의하다

by 알바트로스

1950년, 한 과학자가 세상을 향해 던진 질문은 컴퓨터 과학 분야의 새로운 지적탐구를 향한 여정의 시작이었습니다.


“기계는 생각할 수 있는가?(Can machine think?)”

이 질문은 단순한 철학적 호기심에서 시작된 질문도, 컴퓨터의 작동원리에 대한 무지에서 비롯된 터무니없는 착각도 아니었습니다. 그것은 충분히 생각해 볼 만한 가치가 있는 질문이었을 뿐만 아니라, 이후 70년이 넘는 세월 동안 인공지능 연구의 방향을 결정짓는, 하나의 기준점이 되는 질문이었기 때문입니다.


1. 튜링 테스트(Turing Test)


컴퓨터 과학 분야의 선구자이자 2차 세계대전 당시 독일군의 암호 에니그마를 풀어낸 것으로 잘 알려진 앨런 튜링(Alan Turing) 역시 이 흥미로운 질문이 충분히 생각해 볼 만한 가치가 있다고 여겼습니다. 그런데 앨런 튜링은 그와 동시에 이 질문 자체가 너무 모호하다고 보았습니다.


‘생각한다’는 것이 무엇인지 정의하려고 드는 순간, 논쟁은 끝없이 이어질 것을 알고 있었기 때문입니다. 우리 인간을 비롯한 지구상의 모든 생명체는 일정 수준의 지적 능력이나 스스로를 인식하는 능력을 가지고 있습니다. 그런데 생각한다는 것은 정확히 어떻게 정의 내릴 수 있을까요? 의식(consciousness)을 가지고 있다는 뜻일까요? 생각을 하려면 이 세상을 나름의 방식으로 구축하는 표상(representation)이 꼭 필요할까요? 그럼 본능에 따라 충실히 움직이는 곤충들에게는 지능이 있다고 할 수 있을까요?


그래서 그는 질문을 살짝 바꾸어보기로 합니다.


“기계가 인간과 구별되지 않을 정도로 대화할 수 있다면, 우리는 그것을 지능적이라고 부를 수 있는가?”

이것이 오늘날 우리가 알고 있는 튜링 테스트입니다.



2. 튜링 테스트의 함정


튜링테스트는 이처럼 모호한 우리의 질문에 대해 일종의 바로미터 역할을 훌륭하게 해내며 '인간 수준의 지능을 가진 컴퓨터'를 판별해 왔습니다. 그런데, 튜링이 살았던 시대와 우리가 살고 있는 현대는 시대적, 사회적, 기술적으로 달라도 너무 다릅니다.


2020년대의 우리는, 튜링이 상상하지 못했던 시대에 살고 있습니다. 우선 기술적인 면에서 살펴봅시다. AI는 더 이상 단순히 질문에 답하는 존재가 아닙니다. 우리는 여러 개의 LLM으로 구성된 AI 에이전트와 함께 글을 쓰고, 코드를 짜고, 의사결정을 내립니다. 심지어 어떤 경우에는, 팀의 한 구성원처럼 함께 일을 하기도 합니다. 튜링이 살고 있던 1950년대에는 상상도 할 수 없던 일이죠.



시대적으로도 많이 다릅니다. 1950년대 당시 일반적인 사람들은 인터넷은커녕 컴퓨터라는 것을 평생 보지도 못하는 경우가 태반이었습니다. 즉, 컴퓨터는 수학자나 과학자들의 사치스럽고 고상한 취미 정도로 여겨졌죠. 하지만 2026년 현재 우리는 모두 랩탑과 스마트폰을 가지고 지구상 어디에서나 자유롭게 인터넷을 사용할 수 있습니다. 즉, 이제 우리는 (그리고 AI 역시도) 지구상에 존재하는 수억 개의 컴퓨터로 연결된 거대한 네트워크 안으로 들어오게 된 것입니다.


3. 튜링 테스트를 재정의하다


그렇다면 이제 우리는 다시 질문해야 할 것입니다.

“오늘날, 튜링이라면 어떤 질문을 던졌을까?”


이 질문에 대해 하버드의 컴퓨터과학자 Barbara Grosz는 흥미로운 제안을 하나 합니다. 그녀는 ‘기계가 단순히 인간처럼 보이느냐’가 아니라, ‘기계가 인간과 함께 일할 수 있느냐’를 기준으로 삼아야 한다고 말합니다.


그리고 그 질문은 이렇게 바뀝니다.


“AI가 인간 팀원들 사이에서, 충분히 오랜 기간 동안 인간이 아니라는 사실이 눈에 띄지 않을 수 있을까?”


이 질문은 기존의 튜링 테스트와 닮아 있으면서도, 본질적으로는 완전히 다릅니다. 튜링 테스트는 ‘짧은 대화’ 속에서 인간을 얼마나 잘 흉내 내는지를 묻습니다. 하지만 이 새로운 질문은 ‘긴 시간에 걸친 협력’ 속에서, AI가 얼마나 자연스럽게 함께 생각하고, 함께 행동할 수 있는지를 묻습니다.


이 차이는 단순한 형식의 변화가 아닙니다. 지능을 바라보는 관점 자체의 전환입니다. 우리는 오랫동안 지능을 ‘정답을 맞히는 능력’, 혹은 ‘인간처럼 말하는 능력’으로 이해해 왔습니다. 그래서 AI 역시 더 똑똑한 답변, 더 자연스러운 문장을 만들어내는 방향으로 발전해 왔습니다.


하지만 현실의 인간은, 혼자서 생각하지 않습니다. 우리는 팀 안에서 역할을 나누고, 서로의 의도를 추측하며,
필요한 순간에 정보를 공유하고, 때로는 실수를 수정해 가며 문제를 해결합니다. 즉, 인간의 지능은 본질적으로 사회적이고 협력적인 과정입니다.



AI의 지능 역시, 단순히 ‘잘 말하는 것’이 아니라 ‘잘 함께 일하는 것’으로 평가되어야 하지 않을까요? 이 관점에서 보면, 오늘날의 AI는 아직 튜링 테스트를 완전히 통과했다고 보기는 어렵습니다. 우리는 ChatGPT나 다양한 AI 시스템과 대화를 나누며 종종 감탄하지만, 조금만 복잡한 협업 상황에 들어가면 여전히 어색함을 느끼곤 합니다.


맥락을 놓치거나, 의도를 오해하거나, 불필요한 정보를 제공하거나, 혹은 ‘왜 이런 판단을 했는지’ 이해할 수 없는 순간들이 발생하기 때문입니다. 이러한 순간들은 우리로 하여금 이렇게 묻게 만듭니다.


“이 AI는 정말 생각하고 있는 걸까, 아니면 그럴듯하게 흉내 내고 있는 걸까?”


결국, 중요한 것은 더 이상 AI가 인간처럼 ‘보이느냐’가 아닙니다. AI가 인간과 함께 있을 때, 그 존재가 어색하지 않은가, 그리고 우리가 그것을 동료로 받아들일 수 있는가입니다. 튜링이 던졌던 질문은 여전히 유효합니다. 다만 그 질문의 무대가, 이제는 대화창이 아니라 협업의 현장으로 옮겨졌을 뿐입니다.









이전 07화AI가 전쟁의 ‘운영체제’가 되는 순간