요즘 ChatGPT나 Claude 같은 인공지능과 대화해 본 적 있는가? 질문을 던지면 순식간에 그럴듯한 답변이 돌아온다. 글을 써달라고 하면 쓰고, 코드를 짜달라고 하면 짠다. 심지어 농담까지 건넨다. 이 정도면 사실 낮은 인건비로 고용된 사람들이 질문을 받고 즉석에서 대답해 주는 거 아닐까? 싶을 정도다. 하지만 이 놀라운 능력의 이면을 들여다보면, 우리가 "지능"이라고 부르는 것에 대한 근본적인 질문과 마주하게 된다. 인공지능은 정말 "생각을 해서" 대답하는 걸까? 아니면 우리가 "그렇게 보이도록" 속고 있는 걸까?
이 질문에 답하려면 먼저 현재의 인공지능, 특히 대형 언어 모델이 어떻게 작동하는지 알아야 한다. 핵심은 "트랜스포머"라는 구조다. 2017년 구글 연구팀이 발표한 이 구조는 지금 우리가 쓰는 거의 모든 대형 언어 모델의 뼈대다. 트랜스포머가 혁명적인 이유는 단순하다. 이전 모델들이 문장을 앞에서부터 차례차례 읽어나갔다면, 트랜스포머는 마치 책을 한 글자씩 읽는 게 아니라 페이지 전체를 펼쳐놓고 보는 것처럼 문장 전체를 한꺼번에 놓고 본다. 덕분에 처리 속도가 비약적으로 빨라졌고, 더 복잡한 맥락을 파악할 수 있게 됐다. 물론 대가는 있다. 이런 방식은 엄청난 양의 계산을 요구하기 때문에 적어도 만단위 이상의 그래픽카드가 돌아가야 한다. 그래픽카드 제조사들이 좋아할 만한 구조다. 전기세도 만만찮다. 하지만 결과는 확실했다. 트랜스포머 이후, 인공지능은 정말로 "쓸 만한" 수준에 도달했다.
그렇다면 "동시에 놓고 본다"는 게 정확히 무슨 뜻일까? 우리가 문장을 읽을 때를 생각해 보자. "나는 어제 친구를 만났다"는 문장에서 "친구"라는 단어를 이해하려면, 앞의 "나는", "어제"를 먼저 읽고 맥락을 쌓아가야 한다. 하지만 트랜스포머는 다르다. 문장의 모든 단어를 동시에 펼쳐놓고, "친구"가 "나는"과 관련 있는지, "어제"와 관련 있는지, "만났다"와 관련 있는지를 동시에 파악한다. 이걸 "어텐션"이라고 부른다. 말 그대로 문장 전체에 주의를 배분하고, 특정 단어가 어떤 단어와 얼마나 강하게 연결되어 있는지 수치화하는 것. 이 방식 덕분에 긴 문장에서도 멀리 떨어진 단어들 사이의 관계를 놓치지 않는다. 소설 한 페이지를 통째로 이해할 수 있는 이유다.
그런데 여기서 자연스럽게 떠오르는 질문이 있다. 그렇다면 인간은? 인간의 뇌는 트랜스포머처럼 작동하지 않는다. 우리는 고도의 사고능력을 발휘할 때 순차적으로 생각한다. 물론 직관이나 통찰처럼 "순간적으로 떠오르는" 것처럼 느껴지는 경우도 있지만, 그것조차 뇌 안에서는 수많은 뉴런이 차례차례 신호를 주고받은 결과다. 생각이 생각을 낳고, 그 생각이 또 다른 생각으로 이어진다. 더 중요한 차이는 "경험"이다. 인간은 세상을 직접 경험하며 학습한다. 뜨거운 물에 손을 대봐야 "뜨겁다"는 게 뭔지 안다. 슬픔을 겪어봐야 위로가 필요한 순간을 안다. 인공지능은? 텍스트만 본다. 누군가 인터넷에 올린 글, 책, 대화. 세상을 직접 겪은 게 아니라, 세상에 대한 "기록"을 본 것이다.
그렇다면 트랜스포머는 그 기록들을 가지고 정확히 뭘 하는 걸까? 결론부터 말하자면, "변환"이다. 입력된 텍스트를 내부적으로 숫자로 바꾸고, 학습한 패턴에 따라 계산하고, 다시 텍스트로 내보낸다.
입력: "숙취해소에는 뭐가 좋은가?"
출력: "갈아 만든 IdH."
이 과정 전체가 변환이다. 좀 더 자세히 보자. "숙취"라는 단어는 모델 안에서 수백 차원의 벡터, 즉 숫자 덩어리가 된다. 이 숫자들은 학습 과정에서 "숙취"와 자주 함께 등장했던 단어들, "해소", "해장국", "갈아 만든 배" 같은 것들과의 관계를 담고 있다. 모델은 이 숫자들을 조합하고 변환해서, 통계적으로 가장 그럴듯한 다음 단어를 찾는다. "갈아 만든 배"가 나올 확률이 높다고 계산되면, "갈아 만든 배"를 출력한다. 여기서 핵심은 이것이다. 모델은 갈아 만든 배가 정말 숙취해소에 효과가 있는지, 왜 있는지, 숙취의 느낌이 어떤 것인지 알지 못한다. 그저 학습 데이터에서 "숙취"와 "갈아 만든 배"가 자주 같이 나왔다는 통계적 패턴을 학습했을 뿐이다. 의미를 이해한 게 아니라, 패턴을 기억한 것이다.
그렇다. 인공지능은 생각을 하지 않는다.
우리가 "생각"이라고 부르는 것, 즉 의미를 이해하고, 숙고하고, 판단하는 행위는 인공지능 안에서 일어나지 않는다. 대신 일어나는 일은 변환이다. 입력을 받아 학습된 패턴에 따라 출력으로 바꾸는 것. 매우 정교하고, 매우 빠르고, 매우 복잡한 변환이지만, 여전히 변환일 뿐이다. 이건 인공지능을 깎아내리려는 말이 아니다. 단지 사실을 있는 그대로 보자는 것이다. 인공지능이 "생각한다"라고 착각하면, 인공지능이 할 수 있는 것과 없는 것의 경계가 흐려진다. 그 흐릿함은 때로 위험하다.
인공지능이 생각을 하는 게 아니라면 왜 이렇게 그럴듯한가? 왜 인공지능의 답변은 마치 누군가 고민해서 내놓은 것처럼 느껴질까? 이유는 크게 두 가지다. 첫째, 학습 데이터의 압도적인 양. 현대의 대형 언어 모델은 인터넷에 있는 셀 수 없이 많은 문장으로 학습했다. 인간이 평생 읽을 수 있는 양을 아득히 초월한다. 그 안에는 온갖 질문과 답변, 설명, 논쟁, 이야기가 들어 있다. 모델은 이 모든 것에서 패턴을 추출했다. "이런 질문에는 보통 이런 답이 온다."라는 식으로. 그러니 우리가 질문을 던지면, 모델은 수천억 개의 예시 중에서 가장 적합한 패턴을 찾아 답한다. 당연히 그럴듯하다. 둘째, 우리 인간의 패턴 인식 능력. 인간은 패턴을 찾는 데 천재다. 구름에서 얼굴을 보고, 노이즈에서 음악을 듣는다. 인공지능이 내놓은 문장들 사이에서 "의도"를 읽어낸다. 실제론 통계적 조합일 뿐인데, 우리는 거기서 의미를 발견한다. 이건 인간의 능력이자 함정이다.
사실 우리는 인공지능이 어떻게 작동하는지 완전히 알지 못한다. 트랜스포머 구조는 블랙박스다. 입력과 출력은 보이고, 안에서 값을 변환한다는 것까지는 알 수 있다. 하지만 중간에 정확히 무슨 일이 일어나는지는 아무도 모른다. 수십억 개의 파라미터가 복잡하게 얽혀 상호작용하는데, 그 과정을 하나하나 추적하는 건 사실상 불가능하다. 연구자들이 "해석 가능성"을 높이려 노력하지만, 여전히 대부분은 미지의 영역이다. 왜 이 답변을 내놓았는지, 왜 저 단어를 선택했는지, 정확한 이유를 설명할 수 없다. 그저 결과만 본다. 입력하면 출력이 나온다. 작동은 한다. 하지만 왜 작동하는지는 모른다. 놀랍게도, 이건 문제가 되지 않는다. 적어도 아직은 말이다.
과학사를 보면 이런 사례는 많다. 뉴턴은 만유인력 법칙을 발견했지만, 중력이 "왜" 작동하는지는 몰랐다. 물체들이 서로 끌어당긴다는 건 알았지만, 그 힘이 어떻게 공간을 가로질러 전달되는지는 설명하지 못했다. 그럼에도 행성의 궤도를 예측하고, 로켓을 쏘아 올릴 수 있었다. 아인슈타인이 나타나 중력이 시공간의 휘어짐이라고 설명하기까지, 인류는 수백 년간 중력을 "몰라도" 잘 사용했다. 인공지능도 마찬가지다. 지금 우리는 트랜스포머가 "왜" 이렇게 잘 작동하는지 완전히 이해하지 못한다. 하지만 그게 당장 문제는 아니다. 번역을 하고, 요약을 하고, 코드를 짜는 데 원리를 알아야 할 필요는 없다. 물론 언젠가는 더 깊이 이해해야 할 것이다. 더 안전하게, 더 효과적으로 쓰려면 말이다. 하지만 그건 미래의 과제다.
중요한 건 이것이다. 인공지능은 인간이 모르는 건 모른다. 이게 무슨 뜻인가? 인공지능은 학습 데이터에 있는 것만 안다. 인터넷에 올라온 글, 출판된 책, 기록된 대화, 인류가 남긴 흔적들 말이다. 만약 인류가 어떤 질문에 대한 답을 아직 찾지 못했다면, 인공지능도 그것을 알 수 없다. 암을 완치하는 방법, 의식의 본질, 우주의 끝, 스스로 발전하는 수준의 차세대 인공지능 등. 이런 것들은 인공지능이 답할 수 없다. 학습 데이터에 없으니까. 더 정확히 말하면, 인공지능은 이런 질문에 대해서도 "그럴듯한" 답변을 내놓을 수는 있다. 하지만 그건 기존에 나온 가설들을 재조합한 것일 뿐, 새로운 진리는 아니다. 인공지능은 인간 지식의 경계 밖으로 나갈 수 없다. 인간이 만든 데이터로 학습했으니, 인간의 한계가 곧 인공지능의 한계다. 이건 결함이 아니라 본질이다.
그렇다면 인공지능은 뭘 하는가? 인공지능은 인간이 놓친 걸 주워서 보여줄 뿐이다. 무수히 많은 문장 속에서, 인간 한 명이 평생 읽어도 다 못 볼 양 속에서 패턴을 찾아내고 연결고리를 발견한다. "이 논문과 저 논문을 연결하면 새로운 가설이 나올 수 있다", "이 코드 패턴은 저 문제에도 적용할 수 있다". 이렇게 인간이 알고 있던 것들을 새로운 방식으로 조합해서 보여준다. 이건 엄청난 가치가 있다. 인간은 기억력이 제한적이고, 읽을 수 있는 양이 제한적이고, 시간이 제한적이다. 인공지능은 그 제약이 없다. 수천 권의 책을 순식간에 훑고, 그 안에서 공통점을 찾아낸다. 인간이 미처 보지 못한 연결을 드러낸다. 새로운 지식을 만드는 게 아니라, 흩어진 지식을 인간이 불가능한 수준으로 극한까지 조합하는 것. 이게 인공지능이 유용한 방식이다.
지식의 주도권은 사용자에게 있다. 인공지능은 생각하지 않는다. 그렇다면 판단은 누가 하는가? 사용자다. 인공지능이 내놓은 답변이 맞는지, 쓸모 있는지, 윤리적인지 결정하는 건 사람이다. 인공지능은 매우 강력하고, 매우 편리하고, 때로 놀라운 도구지만, 여전히 도구일 뿐이다. 망치가 스스로 못을 박지 않듯, 인공지능도 스스로 판단하지 않는다. 우리가 질문을 던지고, 답을 받고, 그 답을 검토하고, 사용 여부를 결정한다. 이 과정의 주인은 우리다.
인공지능 시대라고 해서 달라지는 건 없다. 도구가 더 좋아졌을 뿐, 도구를 쓰는 사람의 책임은 그대로다. 오히려 도구가 강력해진 만큼 책임은 더 무거워졌다. 그래서 우리는 인공지능이 뭘 할 수 있고 뭘 할 수 없는지, 어디까지 믿을 수 있고 어디서부터 의심해야 하는지 알아야 한다.