매거진 AI사고혁명

AI 사고혁명 #12 Andrew Ng (2)

사고는 어떻게 ‘예측 문제’로 환원되는가

1. 생각·판단·추론은 어디에서 시작되는가


나는 오랫동안 “사고”라는 단어가 AI 논의를 오히려 흐린다고 느껴왔다.

사고라는 말은 너무 크고, 너무 인간 중심적이며, 너무 많은 의미를 한꺼번에 끌어안기 때문이다.


그래서 많은 논의가 이렇게 끝난다.

“AI가 사고한다”
“AI는 아직 사고하지 못한다”
“언젠가는 사고할 것이다”


하지만 이 질문들은 대부분 AI 설계로 이어지지 않는다.


Andrew Ng가 이 지점에서 철저히 다른 길을 택한 이유가 바로 여기에 있다.


그는 사고를 묻지 않는다.

그는 예측이 어떻게 연결되는지를 묻는다.



2. 사고를 ‘능력’으로 보면, 아무것도 설계할 수 없다


우리는 보통 사고를 이렇게 생각한다.

사고는 능력이다
사고는 고급 기능이다
사고는 인간만의 특성이다

이 관점은 직관적이지만, 시스템 설계 관점에서는 아무 도움도 되지 않는다.


왜냐하면 “사고”라는 능력은 어디서 시작해서, 어떤 단계를 거쳐, 어떤 조건에서 강화되는지 전혀 설명해주지 않기 때문이다.


Andrew Ng는 이 질문을 아예 바꿔버린다.

“사고라는 결과를 묻지 말고, 그 결과가 나타나기 전의 최소 단위를 보자.”


그 최소 단위가 바로"예측"이다.



3. 예측은 사고의 결과가 아니라 재료다


여기서 중요한 전환이 일어난다.


우리는 흔히 이렇게 생각한다.

“사고를 잘하니까 예측을 잘한다.”


하지만 Andrew Ng의 관점은 정반대다.

“예측을 반복적으로 잘하면, 외부에서는 그것이 사고처럼 보이기 시작한다.”


이 차이는 결정적이다.

사고 → 예측 ❌
예측 → 사고 ⭕


이 관점에 서면 사고, 판단, 추론은 각각 독립적인 능력이 아니라 예측이 연결되며 나타나는 패턴이 된다.



3. 인간의 사고도 사실은 예측의 연쇄다


이 관점은 AI에만 적용되는 이야기가 아니다.

인간 사고를 들여다보면 놀라울 정도로 같은 구조가 보인다.


우리가 어떤 결정을 내릴 때를 생각해보자.

“이 선택을 하면 어떤 일이 벌어질까?”
“그 다음엔 어떤 반응이 올까?”
“그 반응은 나에게 어떤 영향을 줄까?”


이 과정은 철학적으로 보면 사고지만, 구조적으로 보면 미래 상태 예측의 연쇄다.


Andrew Ng는 이 지점을 굳이 철학적으로 포장하지 않는다.

대신 이렇게 단순화한다.


“지능은 다음 상태를 더 정확하게 예측하는 능력이다.”


이 문장을 끝까지 밀어붙이면 사고는 더 이상 신비한 것이 아니다.

사고는 시간을 따라 연결된 예측 그래프다.



4. 사고가 ‘보이기 시작하는’ 임계점


그렇다면 질문은 이것이다.


언제부터 예측은 ‘사고처럼 보이기’ 시작하는가?


Andrew Ng는 이 지점에서도 임계점을 말하지 않는다.


그는 이렇게 말한다.

예측 정확도가 올라가고
예측 간 일관성이 생기고
예측 결과가 실제 행동으로 이어질 때

사람들은 그 시스템을 “지능적이다”, “생각한다”고 부르기 시작한다.


중요한 건, 시스템 내부에서는 아무 일도 변하지 않았다는 점이다.

여전히 예측을 하고 있고
여전히 오차를 줄이고 있고
여전히 다음 상태를 계산하고 있을 뿐이다

사고는 내부 기능이 아니라 외부 인식의 변화로 등장한다.



5. 그래서 Andrew Ng는 ‘사고’라는 단어를 경계한다


이제 지난회에서 던졌던 질문으로 돌아올 수 있다.


왜 Andrew Ng는 끝까지 ‘사고’라는 말을 쓰지 않았을까?


이유는 분명하다.


사고라는 단어를 쓰는 순간, 사람들은 결과를 요구하기 시작하기 때문이다.

“이제 사고하게 해달라”
“추론 모듈을 붙여달라”
“사고 능력을 추가해달라”


하지만 Andrew Ng의 관점에서 이 모든 요구는 순서를 거꾸로 이해한 것이다.


사고는 추가하는 기능이 아니다.
사고는 누적된 예측의 부산물이다.

그래서 그는 이렇게 말한다.


“우리는 사고를 만들지 않는다. 우리는 예측 시스템을 더 잘 만들 뿐이다.”



6. 이 관점이 기업 AI에서 중요한 이유


이제 이 이야기가 왜 현실에서 중요한지 분명해진다.


많은 기업들이 이렇게 말한다.

“우리는 사고형 AI를 원한다”
“우리 조직에도 reasoning AI가 필요하다”


그리고 바로 실패한다.


왜냐하면 그들은 사고를 목표로 삼았기 때문이다.


Andrew Ng식 접근은 다르다.

사고를 말하지 않는다
판단을 말하지 않는다
대신 예측 문제를 하나씩 분해한다
고객은 다음에 무엇을 할까
이 선택의 결과는 무엇일까
이 상태의 다음 상태는 무엇일까

이 질문들이 충분히 연결되면, 조직 내부에서는 어느 순간 AI가 판단을 대신하는 것처럼 보이기 시작한다.

사고는 그렇게, 아무 선언 없이 도입된다.



7. 정리하면....


사고를 이해하려면 사고를 내려놓아야 한다.

Andrew Ng는 사고를 부정하지 않는다.
다만 사고를 출발점으로 삼지 않는다.


그는 우리에게 사고 이전의 층위, 즉 예측이 어떻게 쌓이고 연결되는지를 보라고 말한다.

그리고 바로 그 지점에서 AI 사고혁명은 철학이 아니라 설계 문제가 된다.


ChatGPT Image 2026년 1월 12일 오후 10_33_49.png


keyword
매거진의 이전글AI 사고혁명 #12 Andrew Ng (1)