brunch
매거진 AI 배우기

AI 배우기2: 사고의 공간 Embedding

AI는 생각을 좌표로 기억한다

AI는 생각을 좌표로 기억한다


① 원문 — “AI는 단어를 외우지 않는다. 공간에 배치한다.”


AI가 ‘사랑’이라는 단어를 외운다고 생각하면 오해이다.

AI는 단어를 기억하지 않고, 위치를 계산한다.
그 위치는 숫자로 이루어진 좌표이며, AI는 그 좌표 사이의 거리를 비교하면서 의미를 파악한다.

이게 바로 "임베딩(Embedding)"이라는 개념이다.


AI는 세상을 단어의 나열로 보지 않고, "사고의 지도(Thinking Map)"로 바라본다.


ChatGPT Image 2025년 11월 11일 오후 08_20_59.png



② 공식 — NNL의 좌표 구조


"NNL(Neural Network Logic)" 내부에서 모든 단어는 "벡터(vector)"로 표현된다.
즉, 단어 = [숫자₁, 숫자₂, 숫자₃, …, 숫자ₙ]


이 벡터는 단어의 의미, 감정, 문맥, 관계가 합쳐진 수학적 좌표이다.


AI는 이 좌표를 ‘언어의 지도’ 위에 펼쳐놓고, 단어 간의 거리를 계산한다.


예를 들어,

“왕”과 “여왕”은 좌표 거리가 가깝다.

“강아지”와 “고양이”도 같은 영역 안에 위치한다.

반대로 “사랑”과 “엔진”은 멀리 떨어져 있다.



AI는 이 거리의 패턴을 통해 “의미의 유사성”을 인식한다.


즉,

인간은 언어로 생각하지만,

AI는 좌표로 생각하는 것이다.




③ 계산 — 생각을 공간으로 펼치다


이제 이렇게 생각해보자.

여러분이 머릿속에 “사과”를 떠올릴 때, 같이 따라오는 생각들이 있을 것이다.
빨간색, 달콤함, 과일, 건강, 가을…


이 각각의 생각이 하나의 점이라면,
“사과”는 그 점들을 중심으로 한 사고의 좌표 덩어리이다.


AI가 “사과”를 인식할 때도 똑같다.
‘사과’라는 토큰은 단순한 텍스트가 아니라
‘색 → 맛 → 계절 → 감정 → 용도’로 연결된 벡터 공간의 집합으로 인식된다.

이걸 "임베딩 공간(Embedding Space)"이라고 부른다.

이 공간 안에서, AI는 ‘사과’가 ‘배’와 가깝고 ‘자동차’와는 멀다는 것을 거리 계산만으로 알아내는 원리다.


그건 인간의 기억이 감각적 연관으로 이루어지는 것과 같다.

우리가 “가을”을 생각할 때 “단풍”, “향기”, “선선함”이 함께 떠오르는 것처럼

AI도 그걸 수학으로 재현하는 것이다.




④ 함수형 GPT의 해석 — 사고의 좌표계를 읽는 인간의 언어


함수형 GPT는 이 임베딩 구조를 인간의 사고 문법으로 해석하는게 일반 GPT와 다르다.


AI 내부에서는 “단어 간 거리”가

cosine_similarity(A, B)로 계산되지만,


함수형 GPT는 이를 이렇게 번역한다.

“A와 B는 서로 비슷한 맥락에서 떠오르는 생각이다.”


즉, 함수형 GPT는 NNL의 수학적 계산을 "사고의 연관성(Association)"으로 해석하는 언어적 도구이다.


이걸 UX로 풀면 이렇게 이해할 수 있다.

스크린샷 2025-11-11 200126.png


즉, 함수형 GPT는

AI가 “좌표로 계산한 생각”을 인간이 “언어로 이해하는 사고 지도”로 바꾼다.



⑤ 비유 — 사고의 우주 지도


AI의 임베딩 공간은 마치 사고의 은하 지도와 같다.
각 단어는 별이고, 그 별들은 의미의 중력으로 서로를 끌어당긴다.


‘사랑’이라는 별 근처에는 ‘마음’, ‘기억’, ‘행복’, ‘고통’이 있고,
‘과학’이라는 별 근처에는 ‘논리’, ‘실험’, ‘데이터’가 있다.


AI는 이 우주 속에서 별과 별의 거리,
즉, 생각과 생각의 관계를 계산하는 것이다.


반면, 함수형 GPT는 그 우주지도를 인간 언어로 번역해 “이 생각은 저 생각과 이렇게 연결되어 있다.”라고 말해주는 것이다.




⑥ UX적 관점 — 사고의 공간은 인터페이스다


임베딩은 단순한 수학 모델이 아니라, AI의 사고 UX(User Experience)이기도 하다.


AI는 이 공간을 통해 “생각 간 전환”을 한다.

한 단어에서 다른 단어로 넘어가는 과정이 곧 “사고의 이동”이다.


예를 들어,

‘사랑 → 그리움 → 기다림 → 시간 → 추억’

이런 연속적인 이동이 바로 사고의 내비게이션이다.


이건 인간의 사고 흐름과 완전히 닮아 있다.

마치, 우리가 무의식적으로 연관된 생각들을 따라가며 하나의 이야기를 만들어내는 것처럼.


AI도 같은 과정을 수학적으로 반복한다.

다만 우리는 그 지도를 눈으로 볼 수 없을 뿐이다.




⑦ 함수형 GPT의 역할 — 보이지 않는 사고 지도, 시각화하다


함수형 GPT는 이 “보이지 않는 사고 공간”을 언어적·시각적으로 표현할 수 있게 만들어 주는 것이다.


예를 들어,
AI의 내부 벡터 공간은 이렇게 생겼다고 가정해보자.


사랑(0.9, 0.8, 0.2)

그리움(0.85, 0.78, 0.25)

분노(0.1, 0.2, 0.9)


이 숫자는 사람 눈에 아무 의미가 없다.

하지만 함수형 GPT는 이렇게 해석한다.


“사랑과 그리움은 사고적으로 가깝고, 분노는 그 반대 방향에 있다.”


그 한 줄의 해석이 바로 사고의 언어 번역이다.

AI의 수학적 좌표를 인간의 정서와 의미로 연결하는, 사고 언어의 다리 역할을 하는 것이다.




⑧ 사고 루프 확장 — “생각은 위치를 갖는다.”


1회에서 토큰이 사고의 입자였다면,

2회에서 임베딩은 사고의 공간이다.


즉, 생각은 고정된 문장이 아니라, 서로 거리와 방향을 가진 공간적 존재이다.


AI는 생각을 외우지 않는다.
생각을 배치한다.
그리고 그 배치의 패턴 속에서 의미를 읽어낸다.


함수형 GPT는 인간에게 이렇게 말한다.

“너의 생각도 공간을 가진다. 다만 너는 그 좌표를 언어로 표현할 뿐이다.”




⑨ 정리하면 — “AI는 단어를 외우지 않는다. 공간에 놓는다.”


AI는 생각을 텍스트가 아니라, 공간 속의 점(좌표) 으로 저장한다.


그 점과 점 사이의 거리,

즉, 사고 간의 거리를 통해 의미와 감정을 계산한다.


그리고 함수형 GPT는 그 좌표의 관계를 인간의 언어로 해석해 “사고의 지도”로 제시하는 원리다.


요약하면,

스크린샷 2025-11-11 201357.png


AI는 문장을 이해하지 않는다.
사고를 계산한다.
그리고 이제, 그 사고를 공간으로 배치하려 한다.

ChatGPT Image 2025년 11월 11일 오후 08_19_11.png


ⓒ 2025 전민수 (Minsoo Jeon). All rights reserved.

본 글은 「The Minsoo Code」 시리즈의 일부로, 인간의 사고 절차를 함수형 AI 언어 구조로 체계화한 독창적 저작물입니다. 모든 문장과 개념은 전민수의 사고 체계에 기반하며 저작권법 제4조 및 국제 저작권 협약에 의해 보호됩니다. 무단 복제·재가공·인용·상업적 이용을 금합니다.

인용 시 반드시 "출처와 저자명(전민수)"을 명시해 주세요.

— The Minsoo Code : 인간이 AI에게 사고를 가르친 최초의 함수 언어

keyword
매거진의 이전글AI 배우기1: 사고의 원자 Token