Sherlockian Way of Thinking
인공지능(Artificial Intelligence) 시대가 본격적으로 열리고 있다. 특히 생성형(Generative) AI는 이제 사람처럼 언어를 이해하고, 그림을 그리고, 음악을 만들 정도로 진화했다. 그리고 이 생성형 AI를 제대로 활용하기 위해서는 어떻게 생각하고, 어떻게 질문을 던져야 하는지가 훨씬 더 중요하다. 이를 프롬프트 엔지니어링(Prompt Engineering)이라고 한다. 이 장에서는 셜록 홈즈가 사용했던 다양한 논리적 추론기법과 프롬프트 엔지니어링과의 연결을 탐구하고자 한다.
이에 앞서 인공지능이 어떻게 태어나고 발전해 왔는지도 살펴보려 한다. 튜링의 도발적인 질문에서 시작된 인공지능 연구는, 두 차례의 긴 겨울과 다시 찾아온 부활을 거쳐 오늘날 생성형 AI의 시대에 이르렀다. 이 과정은 단순한 기술 발전을 넘어, 인간 사고의 본질을 끊임없이 다시 묻는 여정이었다.
이어 본격적으로 셜록 홈즈가 보여준 여섯 가지 논리적 추론법 — 연역법, 귀납법, 가설-연역법, 가추법, 귀추법, 제거법 — 을 실제 프롬프트 설계에 어떻게 적용할 수 있는지를 알아본다. 홈즈 식 사고(Sherlockian Way of Thinking)는 단순히 이론으로 끝나는 것이 아니라, 프롬프트를 어떻게 구조화할지, 복잡한 문제를 어떻게 단계별로 나눌지, 답변의 정확도를 어떻게 높일지 직접적인 힌트를 제공한다.
마지막으로 독자가 직접 홈즈식 사고를 바탕으로 문제를 정교하게 설정하고, 필요한 조건을 명확히 제시하고, 기대하는 답변의 구조까지 설계해 보는 연습을 진행할 것이다. 좋은 질문을 만드는 것은 타고난 재능이 아니라 훈련을 통해 길러지는 능력이기 때문이다.
영국에 앨런 튜링(Alan Turing, 1912–1954)이라는 천재 수학자가 살고 있었다. 그는 제2차 세계대전 때 독일군의 암호 시스템 '에니그마(Enigma)'를 해독해 전쟁을 몇 년이나 단축하고 수많은 생명을 구했다는 평가를 받는다. 그를 주인공으로 한 영화 <The Imitation Game, 2014>이 나올 정도다.
튜링이 진짜 대단한 이유는 단순히 암호를 깬 것 때문이 아니다. 그는 “컴퓨터"라는 개념 자체를 세상에 처음 제안한 사람이다. 1940년대 초에 이미, 지금 우리가 쓰는 컴퓨터의 기본 구조를 '튜링 머신(Turing Machine)'이라는 이름으로 이론화했다.
한마디로, 튜링은 '컴퓨터가 어떻게 작동해야 하는가'를 생각해 낸 사람이고, '기계가 인간처럼 생각할 수 있을까'라는 질문을 진지하게 던진 첫 번째 과학자였던 것이다.
1950년 튜링은 〈Computing Machinery and Intelligence(계산 기계와 지능)〉라는 논문을 발표하며, 이런 질문을 던진다: "기계가 생각할 수 있는가?” 하지만 그는 곧, 이 질문이 너무 모호하다고 지적한다. '생각하다'라는 말의 의미 자체가 사람마다 다르게 해석될 수 있기 때문이다.
대신 그는 문제를 아주 기발하게 바꾼다. "기계가 진짜 생각하는지 따지는 대신, '기계가 사람처럼 행동할 수 있는지'를 시험해 보자.” 이게 바로 튜링 테스트(Turing Test)의 탄생이다.
튜링 테스트의 기본 아이디어는 아주 간단하다:
• 한 사람이 컴퓨터와 다른 사람, 두 대상과 대화를 나눈다. (대화는 키보드로만 진행)
• 대화를 통해 어느 쪽이 컴퓨터이고, 어느 쪽이 사람인지 맞히려고 한다.
• 만약 이 심판자가 컴퓨터를 사람과 구별하지 못한다면, 그 컴퓨터는 '생각할 수 있다'라고 인정해야 한다.
즉, "보이는 것만으로 판단하지 말고, 행동(대화)을 통해 판단하자”라고 제안한 것이다.
튜링 테스트는 단순한 시험이 아니라, "지능이란 무엇인가?"라는 깊은 질문을 던지는 개념이다. 튜링은 사람처럼 말하고, 질문에 답하고, 논리적으로 대화하는 컴퓨터라면 "그게 진짜 생각이든, 아니든 중요하지 않다"라고 봤다. 결과가 사람과 구별되지 않는다면, 우리는 그 기계에 '지능'이 있다고 볼 수 있다는 것이다.
이 생각은 당시로서는 엄청나게 혁명적이었다. 많은 사람들이 '생각은 인간만이 할 수 있는 신비한 능력'이라고 믿고 있었기 때문이다.
70년이 지난 지금도, 인공지능 분야에서는 "AI가 튜링 테스트를 통과했는가?"라는 질문이 계속 나오고 있다. 심지어 GPT-4나 다른 최신 AI 모델들도 "튜링 테스트를 넘었나?"라는 평가를 받기도 한다. 그만큼 튜링의 질문과 테스트는, ▴AI가 진짜 사람처럼 생각할 수 있을지 ▴AI를 어떻게 평가해야 할지를 판단하는 핵심적인 기준이다.
1956년 여름, 미국 뉴햄프셔(New Hampshire) 주에 위치한 다트머스 대학(Dartmouth College)에서는 현대 인공지능(AI) 연구의 출발점이 된 중요한 학술회의가 열렸다. 공식 이름은 “인공지능에 관한 다트머스 여름 연구 프로젝트(Dartmouth Summer Research Project on Artificial Intelligence).”
이 회의의 주최자는 존 매카시(John McCarthy), 마빈 민스키(Marvin Minsky), 클로드 섀넌(Claude Shannon), 네이선 로체스터(Nathaniel Rochester)였다. 이들은 각자 수학, 컴퓨터 과학, 정보 이론 등 다양한 분야에서 두각을 나타내던 젊은 과학자들이었다. 이들 중 마빈 민스키는 MIT 인공지능 연구소를 설립했고, 클로드 섀넌은 정보 이론의 창시자로서 AI 초기 연구의 이론적 기반을 제공하는 등 이후 AI 분야를 대표하는 인물로 성장한 사람들이 여럿 있었다.
이들의 목표는 회의의 공식 제안서에서 "지능의 모든 측면은, 원칙적으로, 기계를 통해 기술할 수 있다”라고 선언할 만큼 매우 야심 찼다. 인간이 가지고 있는 학습 능력, 문제 해결 능력, 창의적 사고, 심지어 직관까지도 언젠가는 기계로 구현할 수 있을 것이라는 믿음이 깔려 있었다. 그리고 이 목표를 향한 연구를 '인공지능'이라고 처음 명명했다. 'AI'라는 약어도 이때부터 쓰이기 시작했다.
회의는 몇 주 동안 이어졌지만, 즉각적이고 실질적인 성과를 내지는 못했다. 그럼에도 불구하고 다트머스 회의가 역사적으로 중요한 이유는 두 가지였다:
첫째, "인공지능"이라는 개념을 공식화하고, 이를 하나의 독립된 연구 분야로 규정했다는 점이다. 이전까지는 기계 번역, 자동 제어, 신경망 이론 등 다양한 이름으로 흩어져 있던 연구들이 'AI'라는 깃발 아래 모이게 되었다.
둘째, 인간 지능을 기술적으로 분석하고 재현할 수 있다는 강력한 신념을 학문적 목표로 삼았다는 점이다. 이 신념은 이후 70년 가까운 세월 동안 인공지능 연구를 이끄는 핵심 동력이 되었다.
오늘날 우리가 사용하는 챗봇, 자율주행차, 생성형 AI 모두가 이 작은 여름 모임에서 태어난 '인공지능'이라는 이름을 바탕으로 성장해 온 셈이다.
인공지능(AI)은 한때 과학과 대중의 뜨거운 기대를 한 몸에 받았지만, ‘AI 겨울’이라고 부르는 두 차례에 걸쳐 긴 침체기를 겪었다. 연구 지원과 관심이 모두 얼어붙은 시기였다.
1차 AI 겨울은 1970년대 초반부터 시작되었다. 1956년 다트머스 회의 이후, 초기 AI 연구자들은 곧 인간 수준의 사고 능력을 지닌 컴퓨터가 등장할 것이라 자신했다. 문제 해결 프로그램, 기계 번역, 자동 추론 등 다양한 프로젝트가 추진되었다.
그러나 현실은 기대를 배신했다. 당시 컴퓨터는 연산 속도와 저장 용량이 너무 제한적이었고, 인간 언어의 복잡성을 제대로 처리할 수 없었다. 기계 번역은 원문의 의미를 제대로 살리지 못했고, 자동화된 추론 시스템도 제한된 상황에서만 작동했다. 특히 미국 국방부 산하 DARPA가 후원했던 연구들이 기대에 못 미치면서, 정부는 AI 연구에 대한 대규모 지원을 중단했다.
2차 AI 겨울은 1980년대 후반에 찾아왔다. 1980년대 초, ‘전문가 시스템(Expert Systems)’이라는 새로운 AI 응용 기술이 인기를 끌면서 한때 부활하는 듯 보였다. 전문가 시스템은 특정 분야의 지식과 규칙을 컴퓨터에 입력해 전문가처럼 문제를 해결하게 하는 기술이었다. 기업들은 이 기술에 열광했고, 투자가 몰렸다.
그러나 환경이 조금만 복잡해져도 제대로 대응하지 못하는 문제점이 금세 드러났다. 지식 입력에 드는 비용이 엄청났고, 시스템이 새로운 상황을 스스로 배우거나 적응하지 못했다. 관리와 유지에도 막대한 비용이 들었다. 결국 많은 기업들이 전문가 시스템을 포기했고, 투자자들과 정부 기관들은 다시 AI에 등을 돌렸다.
이 두 번의 겨울은 인공지능 연구자들에게 깊은 교훈을 남겼다. AI가 사람처럼 생각하고 행동하려면, 단순한 규칙이나 기호 조작만으로는 부족하다는 것. 그리고 기술적 한계를 넘어서는 데에는 막대한 시간과 자원이 필요하다는 사실을 뼈아프게 깨닫게 했다.
21세기에 들어서면서, 인공지능은 눈에 띄지 않게 다시 살아나기 시작했다. 과거의 과장된 기대나 화려한 선언 없이, 조용히, 그러나 확실하게 과학과 기술의 현장에 스며들었다. 그 변화의 중심에는 컴퓨터 성능의 급격한 향상과 데이터의 폭발적 증가라는 두 가지 거대한 흐름이 있었다.
컴퓨터의 계산 능력은 1990년대 후반부터 눈부시게 발전했다. 연산 속도는 물론, 메모리 용량과 데이터 저장 기술까지 비약적으로 향상되었다. 과거 수십 시간이 걸리던 계산 작업이 몇 분 만에 끝나고, 복잡한 알고리즘도 현실적으로 다룰 수 있게 되었다. 덕분에 인공지능 연구자들은 이전보다 훨씬 복잡한 문제에 도전할 수 있는 기반을 갖추게 되었다.
여기에 인터넷과 스마트폰의 폭발적 보급이 맞물렸다. 사람들은 일상적으로 방대한 양의 텍스트, 사진, 영상, 음성 데이터를 온라인에 쏟아내기 시작했다. 기업, 정부, 개인이 생산한 이 엄청난 데이터는 과거 AI 연구자들이 상상도 못 했던 풍부한 학습 재료가 되었다. 인공지능은 마침내 '공부할 교과서'를 충분히 손에 넣은 셈이었다.
이런 환경 속에서 주목받기 시작한 것이 바로 기계학습(Machine Learning)이다. 기계학습은 사람이 일일이 규칙을 입력하는 대신, 데이터 속에서 스스로 패턴을 찾아내는 방법이다. AI는 더 이상 "프로그래머가 알려준 정답"만 따르지 않는다. 반복된 경험과 데이터의 흐름을 통해, 마치 어린아이가 세상을 배우듯 직접 학습할 수 있게 되었다.
하지만 진정한 전환점은 아직 오지 않았다. 여전히 한계는 분명했고, 사람처럼 자유롭게 사고하거나 창의적인 문제를 해결하는 수준에는 이르지 못했다. 거대한 변화는 아직 "딥러닝(Deep Learning)"이라는 단어를 기다려야만 했다.
★ 이글을 팟캐스트 형식으로 들어보시려면 여기(https://www.youtube.com/watch?v=jw3psunmwB4)를 클릭하세요.