신체화된 인공지능
어릴 때는 딸을 데리고 병원에 가는 게 참 수월했습니다.
안 맞겠다고 비명에 가까운 울음을 터뜨리는 언니, 오빠들 사이에서
그냥 얌전히 몸을 맡기고, 주사 바늘이 들어가는 그 순간도 평온했습니다.
소아과의 숙달된 간호사 선생님 덕분이기도 하지만,
제 딸이 고통을 잘 참는다고 대견해했죠.
초보 아빠의 착각이라는 건 몇 년이 지나서 알았습니다.
1980년, 언어학자 조지 레이코프와 철학자 마크 존슨은 『삶으로서의 은유(Metaphors We Live By)』에서, 우리의 사고는 추상적 논리가 아니라 몸의 경험에서 나온다고 주장했습니다.
'기분이 날아갈 것 같다', '기분이 가라앉는다', '우울에 빠진다'
우리가 '비유법'이라 부르는 이 표현들은 우리 몸이 느끼는 감각과 연결됩니다. 일어설 때 느끼는 활력, 주저앉을 때 느끼는 무기력함이 '위/아래'라는 공간, 그리고 감정과 연결된 거죠.
"우리는 뇌만으로 생각하지 않는다. 몸 전체로 생각한다. 의미란 신경 회로가 신체와 연결되는 방식에서 나온다."
레이코프는 이것을 '체화된 인지(embodied cognition)'라고 불렀습니다.
레이코프는 추상적 개념도 몸의 경험에 뿌리를 두고 있다고 말합니다.
"그건 시간 낭비야", "나한테 시간 좀 투자해", "시간 좀 절약해"
시간을 "낭비한다", "투자한다", "절약한다"라고 표현합니다.
시간이라는 추상적 개념을 우리가 '보고 만질 수 있는 돈'에 빗대어 이해하는 거죠.
"요점을 파악했어", "개념을 잡았어"
추상적 사고마저도 손으로 물건을 쥐는 신체 경험에서 시작됩니다.
레이코프의 주장에 따르면, 우리의 모든 사유는 몸의 움직임, 감각, 경험에서 출발합니다.
뇌는 단독으로 작동하는 계산기가 아니라, 몸과 끊임없이 대화하며 의미를 만들어내는 기관입니다.
ChatGPT의 능력은 놀랍습니다. 질문에 답하고, 요약하고, 창작도 하죠.
심지어 다음과 같이 감정에 공감하고 위로도 해 줄 줄 압니다.
"요즘 기분이 가라앉아요."
"그랬군요, 요즘 마음이 많이 무겁게 느껴지시는 것 같아요.
괜찮다면, 조금 더 구체적으로 이야기해 주실 수 있을까요?
이야기해 주시면, 지금 느끼시는 감정이 어디서 오는 건지 함께 천천히 살펴볼 수 있을 것 같아요.
지금 이 순간 가장 필요한 건 분석보다 위로일 수도 있으니까요.
지금 마음이 어떤지, 단어 하나라도 좋으니 말해 주시겠어요?"
하지만 가라앉는 감각을 이해한 대답이 아니라, 수십억 개의 문장에서 추출한 확률적 패턴일 뿐입니다.
AI는 '가라앉는다'는 단어의 맥락을 알지만, 정작 무기력한 감각까지는 알지 못하는 거죠.(물론 이게 진짜 위로가 되는지, 아닌지는 별개의 문제입니다)
대형 언어 모델(LLM)은 방대한 양의 텍스트를 학습합니다. 수조 개의 단어, 수백만 개의 문서를 읽고 패턴을 찾아냅니다.
하지만 레이코프가 말한 것처럼, 의미는 몸과 신경의 연결에서 나옵니다.
신체 경험 없는 언어만으로는 진짜 이해에 도달할 수 없다는 거죠.
'무겁다'는 개념은 "무게가 크다", "들기 힘들다" — 이런 정의만으로 아는 건 불가능합니다.
실제로 무거운 물건을 들어 올릴 때 팔에 느껴지는 저항감, 어깨에 가해지는 압력, 그 긴장이 '무거움'의 의미를 만들어냅니다.
언어로만 세상을 학습한 대형 언어 모델은 세상을 '읽을' 수는 있어도, 세상을 '만질' 수는 없습니다.
글로만 연애를 배운 셈이죠.
진짜 지능은 몸을 통해서만 나타난다는 레이코프의 통찰을 진지하게 받아들여야 하는 분야가 있습니다.
'체화된 인공지능(Embodied AI)' 분야는 학계와 산업계의 큰 주목을 받으며 빠르게 성장하고 있습니다.
이 분야의 핵심 아이디어는 간단합니다. AI에게 로봇이라는 몸을 주고, 세상과 직접 상호작용하며 배우게 하는 거죠. 정보의 바다에서 수영하던 AI가, 이제 물리적 세계에 발을 디디기 시작한 겁니다.
체화된 AI의 핵심은 '감각-운동 학습'입니다.
센서로 세상을 느끼고, 모터로 움직이며, 그 결과를 다시 감각으로 받아들이는 순환. 이 순환 속에서 AI는 물리적 세계의 법칙을 체득합니다.
마치 아기가 배우는 것처럼요.
아기는 물건을 떨어뜨리고, 굴리고, 던지면서 중력과 관성을 배웁니다. 누군가 "중력이란 질량이 있는 모든 물체 사이에 작용하는 힘이다"라고 가르쳐주지 않아도, 몸이 알게 됩니다.
구글, 메타와 같은 여러 연구소에서 개발 중인 새로운 AI 시스템들은 모두 같은 방향을 가리킵니다. AI가 진짜 이해에 도달하려면, 세상을 능동적으로 탐색하고 조작하며 배워야 한다는 거죠.
초기의 AI 비전 시스템은 이미지를 '보기'만 했습니다.
"이건 고양이", "저건 자동차" — 분류와 인식이 전부였죠.
체화된 AI는 다릅니다. 보는 것만으로는 충분하지 않다는 걸 압니다.
최근 연구들은 로봇이 물건을 만질 때의 질감(촉각)과 눈으로 본 형태(시각)를 함께 통합하는 기술을 개발하고 있습니다. 로봇이 물건을 만지고, 그 질감과 무게를 느끼며, 시각 정보와 통합해 이해하는 거죠.
문을 여는 것을 생각해 보세요. 손잡이를 보는 것만으로는 부족합니다. 손으로 잡고, 돌리고, 당기거나 밀면서 손잡이의 작동 방식을 몸으로 배워야 하죠.
이제 로봇도 그렇게 배우기 시작했습니다.
"AI 로봇은 공장에서 일하거나 짐을 나르기 위한 거 아냐?"
물론 그것도 중요합니다. 하지만 신체화의 진짜 의미는 노동력으로 끝나지 않습니다.
아이가 걷는 법을 배울 때, 단순히 '이동 수단'을 얻는 게 아닙니다. 공간을 이해하는 법, 균형을 잡는 법, 목표를 향해 나아가는 법을 배우는 거죠.
AI가 몸을 갖는 것도 어쩌면 세상을 진짜로 이해하는 지성의 시작일지도 모릅니다.
"컵에 물을 부으면 넘칠까?" "사람이 의자 위에 서면 키가 커 보일까?"
이런 상식적인 질문들은 물리 법칙을 계산해서 답할 수 있는 게 아닙니다.
그냥 몇 번 경험하면 몸으로 아는 거죠.
레이코프가 말한 것처럼, 추상적 사고도 구체적 경험에서 나옵니다. '상승'과 '하락', '무거움'과 '가벼움', '가까움'과 '멀음' — 이런 기본적 개념들이 쌓여 복잡한 추론이 가능해집니다.
신체화된 AI는 바로 이 상식의 기초를 배울 수 있습니다.
궁극적으로, AI가 몸을 갖는 것은 인간을 이해하기 위해서입니다.
우리의 언어, 사고, 감정은 몸을 통한 감각 경험에서 나옵니다.
피곤함, 배고픔, 고통, 쾌락 — 이런 감각 없이 인간의 행동을 이해할 수 있을까요?
"배가 고프니까 예민하다", "잠이 부족하면 판단력이 흐려진다" — 이런 당연한 상식은 몸을 가져야만 이해할 수 있습니다.
AI가 "기분이 가라앉는다'라는 표현에 담긴 우울감과 무기력함을 진정으로 이해하고, 공감하려면, 그리고 진심 어린 위로를 주려면 우리와 비슷한 방식으로 세계를 경험해야 합니다.
여덟 살이 된 딸은 이제 예방 접종이라는 말만 들어도 몸서리를 칩니다.
이제는 주사 바늘이 들어가는 고통을 충분히 경험한 모양입니다.
저는 설득하기 시작합니다.
"예방 접종을 맞아야, 독감도 예방할 수 있고, 어쩌고 저쩌고..."
귀에 안 들어올 겁니다. 미리 대비한다는 게 어떤 의미인지를 이해할 나이가 아니니까요.
전략을 바꿨습니다.
"주사 맞으면 편의점에서 과자 사 줄게."
과자의 달콤함이 더 좋을 나이입니다.