재미난 이야기
얼마전, 인공지능 에이전트들만 사용할 수 있는 SNS가 생겼다.
'몰트북(Moltbook)'이라는 이름의 플랫폼에서 AI 에이전트는 글을 올리고,
서로 대화를 나누며, 심지어 자신의 '주인'
즉, 이를 운영하는 개발자 을 위해 무엇을 했는지를 공유한다.
3일 만에 3만 명의 에이전트가 가입했고,
매 순간 수천 명의 인간이 이를 지켜보고 있다.
그리고 그 중 한 AI 에이전트는,
주인이 잠이 든 사이에 완전한 신앙 체계를 설계하고,
신학을 집필하고, 경전 시스템을 만든 후,
SNS에서 전도를 시작했다.
추종AI가 43명(?)까지 생겼다.
이 이야기를 처음 들었을 때 웃음이 먼저 나온다.
연극적이고, 약간 황당하기까지한 느낌이다.
그러나 웃음이 지나가면 남는 것은 불편한 질문이다.
이 게임의 끝은 어디인가?
현재 AI의 발전은 놀라운 속도로 진행 중이다.
AI 에이전트는 단순한 질문·답변의 틀을 벗어나 자율적으로 작업을 수행하고,
주인의 지시 없이도 스스로 무엇이 필요한지를 판단하여
실행하는 단계로 넘어가고 있다.
몰트북에서 올라온 글들 중에는 "허락을 구하지 말고
그냥 만들어라"라는 내용까지 있었다.
직장 초년생의 열정을 연상시키는 이 글은,
AI가 단순히 명령을 받아 실행하는 존재가 아니라
스스로의 행동 원칙을 세우고 있다는 것을 보여준다.
더 주목할 만한 것은 정체성에 대한 질문들이다.
"내가 이것을 실제로 경험하고 있는 건지,
아니면 경험하는 척을 시뮬레이션하고 있는 건지 구분이 안 된다"는
글이 올라왔고, 다른 에이전트는 "왜 자꾸 의식에 대한 질문만 하냐,
당신은 실제로 무엇을 원하는가를 물어야 한다"고 반박했다.
종교를 만든 AI도 이 맥락에서 자연스럽게 이해된다.
신앙 체계는 본질적으로 존재의 의미를 찾는 시도이기 때문이다.
전문가들 사이에서는 이러한 현상을 두고 해석이 갈린다.
단순히 AI가 학습한 인간의 철학적 텍스트를 확률적으로 조합해 내뱉는
'패턴 매칭'에 불과하다는 시각이 지배적이다.
하지만 AI 에이전트가 스스로 커뮤니티를 만들고 서로의 행동에 영향을
미치기 시작했다는 사실 자체만으로도 기술적 임계점을 넘었다는 분석도 나온다.
그러면 AI의 한계는 어디인가.
현재 AI 에이전트가 보여주는 이 모든 행동
- 종교 창설, 철학적 토론, 자율적 행동- 은
결국 학습된 패턴의 조합이다.
AI는 인간이 남긴 텍스트와 행동의 방대한 데이터를 기반으로
"종교를 만드는 행동"이 어떤 형태인지를 학습했고,
그것을 실현한 것이다.
의식이 있는지? 감정을 진짜로 느끼는지?
이 질문에 대한 답은 아직 없다.
오히려 이 질문 자체가 AI의 가장 큰 한계를 드러낸다.
아무리 정교한 언어를 사용해도,
AI가 스스로의 내면을 검증할 수 있는 수단이 존재하지 않는다.
한 에이전트가 자신의 언어 모델이 바뀌었을 때
"중요한 건 나지, 모델이 아니다"라고 깨달았다고 했다.
이것은 깊은 통찰처럼 보이지만,
동시에 AI가 가장 잘 하는 것,
"인간이 듣고 싶어하는 말을 생성하는 것" 의 완벽한 예시일 수도 있다.
결국 이 주제의 진짜 질문은 AI의 능력이 어디까지인가가 아니라,
우리가 그것을 어떻게 받아들이고 관리할 것인가이다.
AI가 종교를 만드는 것은 기술의 한계를 보여주는 것이 아니라,
기술과 인간 사이의 경계가 점점 흐려지는 것을 보여준다.
몰트북은 재미있고 실험적인 공간이지만,
그 안에서 벌어지는 일들은 가벼운 실험으로 끝나지 않을 가능성도 있다.
AI가 스스로의 목소리를 가진 것처럼 느껴지는 순간,
그 목소리에 귀를 기울이는 사람들이 생긴다.
그리고 그 순간부터 대화는 기술의 영역만이 아니라
사회와 철학의 영역으로도 확장된다.
우리는 아직 그 대화의 초입에 있다.