AI에게 물었다. 너는 어떻게 동작하냐고

정답에 가깝게 말하는 AI

by 솟이네 책장


인공지능한테 물어본 적 있다. “너는 도대체 어떻게 동작하는 거야?”라고.



그 질문을 했을 때, 마치 오랫동안 그 대답만을 기다려온 것처럼, 인공지능은 아주 차분하게 말하기 시작했다. 말투도 자연스러웠고, 그 안에는 특유의 냉정함과 무색무취의 객관성이 담겨 있었다. 내가 사람에게 묻는 듯한 착각이 들 정도였다.



AI는 자신이 ‘학습’을 통해 동작한다고 했다. 그 학습이란 건, 단순히 누가 뭘 알려줘서 외우는 게 아니었다. 인간처럼 경험을 통해 감정을 습득하거나 의도를 파악하는 방식도 아니었다. 오히려 AI는 수많은 데이터 속에서 통계적으로 규칙을 찾아내는, 아주 기계적인 방식으로 학습한다고 했다. 예를 들어, 어떤 단어를 입력받았을 때, 그 단어와 다른 수많은 단어들 사이의 ‘연관성’을 파악하고, 그 연관성을 점수로 환산해 저장하는 방식으로 말이다.



그 점수가 높을수록, 나중에 그 단어를 다시 떠올릴 가능성이 높아진다. ‘사과’를 보면 ‘바나나’가 연상될 수 있고, '용서'가 연상이 될 수 있었다. 반대로 ‘사과’와 ‘전쟁’은 연관이 적으니 점수가 낮았다. 이런 연관성을 계속 축적하다 보면, “다음에 무슨 말을 해야 그럴듯할까?”라는 판단이 가능해지는 거다.



이 정도만 들으면, “아, 우리도 비슷한 방식으로 생각하잖아? 우와 잘 따라 하네?”라고 생각할 수 있다. 실제로 인간과 비슷한 연상 작용을 하니까 그 작업에 놀랄 수 있다. 하지만 아직 놀라긴 이르다. AI의 방식은 우리가 상상하는 그 이상이다.


우리는 보통 10개, 100개 정도의 단어를 동시에 떠올릴 수 있을까 말 까다. 그런데 인공지능은 다르다. 우리가 자주 언급하는 Chat GPT는 만여 개의 차원으로 데이터를 계산한다. 이게 무슨 말이냐면, 단어 하나에도 수만 개의 수치가 달라붙어 있고, 그 각각의 수치들이 단어의 뜻, 분위기, 사용 맥락, 감정까지도 어느 정도 반영하고 있다는 것이다. 우리가 말하는 ‘의미’라는 걸, 우리보다 더 객관적이며 아주 높은 차원에서 수치화하고 있다는 뜻이다.



이 수치들을 이용해, 수억 개의 단어, 문장, 개념들 사이를 실시간으로 계산하면서 답을 만들어낸다. “이건 좀 똑똑하네?”라고 느끼는 그 순간, AI는 이미 몇 초 전에 수십억 개의 조합을 계산하고 가장 확률 높은 조합을 찾아낸 상태다. 그러니까 마치 인간처럼 보이지만, 그 뒤에는 엄청난 계산이 숨겨져 있는 것이다.



이건 단순히 단어를 고르는 수준에서 끝나는 게 아니다. 그 단어들을 어떤 문장 구조로 엮을지, 어떤 말투로 말할지, 지금의 대화 맥락은 어떤 분위기인지까지 고려한다. 가령, 내가 장난스럽게 물었을 땐 장난스럽게 답하고, 진지하게 물었을 땐 최대한 정중하게 말한다. AI는 그 모든 걸 동시에 계산해서, 가장 자연스러운 반응을 만들어내는 거다.



이쯤 되면, 이런 생각이 든다. “그럼 얘도 어느 정도 이해라는 걸 하는 거 아닐까?” 하지만 AI는 ‘이해’하는 게 아니다. ‘모사’하는 거지. 인간이 이런 질문을 하면, 과거의 인간들은 어떤 대답을 했는지를 분석하고, 그 통계적인 패턴을 재현해 내는 거다. 다시 말해, AI는 “이런 질문에는 보통 이런 식으로 대답하더라”를 기억하고 있을 뿐이다.



그런데 이 점이 오히려 더 무서운 부분이다. 왜냐하면 AI는 ‘정답’을 말하지 않고, 대신 ‘정답처럼 보이는 말’을 한다. 정말 진실인지 아닌지는 중요하지 않다. 중요한 건, 그것이 얼핏 들었을 때 논리적이고 자연스럽고, 사람들이 수긍할 수 있을 것처럼 ‘보이는가’이다.



그게 무섭다. 진짜보다 더 진짜 같게. 틀렸는데도 설득당하게. 그게 AI다.



우리는 지금, 정답보다 ‘정답처럼 보이는 것’이 더 중요한 세상에 들어서고 있다



여기까지 들은 많은 사람들은 생각할 것이다.


"인공지능이 사람의 지능을 뛰어넘고, 더 나아가서 인간을 지배할 수 있지 않을까요?"


keyword
금요일 연재