사고는 철학이 아니라, 예측의 누적이다
오늘의 AI 사고 혁명에서 "Andrew Ng" 소개하고자 한다.
Andrew Ng는 AI 역사에서 가장 많은 사람과 기업을 실제로 움직인 인물 중 한 명이다.
그는 가장 화려한 기술을 만든 사람도 아니고, 가장 자극적인 미래 발언을 하는 사람도 아니다.
하지만 오늘날 전 세계에서 “AI를 실제로 쓰고 있는 구조” 대부분 Andrew Ng가 만든 프레임 위에서 움직이고 있다.
Andrew Ng는 이론가가 아니라 실행자다.
Google Brain 공동 창립자
Baidu(중국 최대 IT 기업) AI 총괄 수석 과학자
Coursera 설립자 (전 세계 AI 교육의 표준화)
Stanford AI Lab 교수
수천 개 기업의 AI 도입을 직접 자문한 인물
즉, 그는 AI를 “연구실”이 아니라 “현실 세계”에 가장 많이 이식한 사람이다.
AI 업계에서 Andrew Ng만큼 차분하게, 현실적으로, 그리고 지속적으로 맞아온 사람은 드물다.
그는 단 한 번도 “AI가 인간처럼 생각한다”고 말한 적이 없다.
그는 단 한 번도 “의식”이나 “자아” 같은 단어를 쓰지 않는다.
대신 그는 항상 같은 문장을 반복한다.
“Prediction is the core of intelligence.”
(지능의 핵심은 예측이다.)
이 문장은 너무 단순해서 처음 들으면 실망스럽기까지 하다.
나는 이 문장을 처음 들었을 때 이렇게 생각했다.
“이건 사고를 너무 축소하는 것 아닌가?”
하지만 AI의 내부를, 기업의 현장을, 실제 모델이 작동하는 구조를 하나씩 다시 대입해 보자
이 문장이 가장 무섭게 정확하다는 사실이 드러난다.
Andrew Ng는 AI 철학자가 아니다.
그는 시스템 설계자다. 다시 한번 강조하지만 그의 이력은 대단하다.
Coursera 설립자
Google Brain 공동 창립자
Baidu AI 총괄
수천 개 기업 AI 도입 컨설턴트
실무 AI 시스템을 가장 많이 본 사람
그는 AI가 “어떻게 작동해야 산업에서 살아남는지”를 가장 많이 본 사람이다.
그래서 그는 "사고"라는 말을 쓰지 않는다.
왜냐하면, 사고는 측정할 수 없지만, 예측은 측정할 수 있기 때문이다.
그는 이렇게 말한다.
“If you can reduce a problem to prediction, machine learning can solve it.”
이 말은
AI의 본질을 기술적으로 정의한다.
사고 → 정의 불가
지능 → 추상적
의식 → 측정 불가
하지만
예측 → 수치화 가능
오차 → 측정 가능
개선 → 반복 가능
Andrew Ng는 AI를 형이상학에서 구출해 공학으로 데려온 사람이다.
Andrew Ng의 핵심 논리는 단순하다.
"지능이란 미래를 더 정확하게 예측하는 능력이다."
이 문장을 우리는 너무 쉽게 넘긴다.
하지만 이 문장을 사고 관점에서 다시 해석하면 놀라운 구조가 드러난다.
인간 사고를 보자.
내가 문을 열면 → 바람이 불 것이다
이 말을 하면 → 상대가 상처받을 것이다
이 길로 가면 → 막힐 것이다
이 선택을 하면 → 후회할 수도 있다
이 모든 사고는 미래 상태를 예측하는 과정이다.
즉,
사고 = 예측 시뮬레이션
Andrew Ng는 이 점을 정확히 짚었다.
사고는 신비한 것이 아니라 확률적 미래를 내부에서 시뮬레이션하는 과정이다.
Andrew Ng는 아주 현실적인 언어로 말한다.
“When prediction becomes cheap and accurate, intelligence becomes scalable.”
예측이 충분히 정확해지면 다음과 같은 일이 발생한다.
예측 → 다음 상태 생성
그 상태를 다시 예측
예측의 연쇄 형성
내부 시뮬레이션 발생
외부에서 보면 “사고”처럼 보임
즉, 사고는 예측이 연결되면서 나타나는 ‘부수 효과’다.
Andrew Ng는 사고를 부정하지 않는다.
다만 그는 말한다.
“사고를 만들려고 하지 마라. 예측을 정확하게 만들어라.”
이 태도는 매우 엔지니어적이지만 동시에 매우 본질적이다.
Hassabis는 World Model을 “세계의 시뮬레이터”라고 불렀다.
Andrew Ng는 같은 개념을 이렇게 다시 정의한다.
“A world model is a system that predicts the next state of the world.”
이 문장은 World Model을 완전히 다른 관점으로 바꾼다.
세계를 “이해”하는 것이 아니라
세계의 다음 상태를 맞히는 것
즉,
World Model = State Transition Predictor
이 정의는 AI 시스템 설계에서 압도적으로 강력하다.
왜냐하면 “이해”는 측정할 수 없지만 “다음 상태 예측”은 측정할 수 있기 때문이다.
Andrew Ng가 가장 싫어하는 접근은 이것이다.
“AI에게 사고를 가르치자”
그는 이렇게 말한다.
“Don’t try to make machines think. Make them predict well.”
왜냐하면 사고는 목표가 아니라 정확한 예측이 충분히 쌓였을 때 자연스럽게 나타나는 현상이기 때문이다.
Andrew Ng는 기업에게 이렇게 말한다.
“AI is not magic. It’s a tool for making better predictions.”
기업은 사고하는 AI를 원하지 않는다.
기업은 결정을 개선하는 AI를 원한다.
수요 예측
이탈 예측
고장 예측
위험 예측
행동 예측
이 예측들이 충분히 정확해지면 시스템은 다음과 같이 보이기 시작한다.
상황을 고려하고
맥락을 유지하고
미래를 시뮬레이션하고
선택지를 비교하고
결정을 내리는 것처럼 보인다
즉,
사고형 AI처럼 보인다.
Andrew Ng는 이것이 AI 사고의 현실적 경로라고 본다.
Andrew Ng의 메시지는 화려하지 않다.
그러나 무섭도록 정확하다.
그는 말한다.
“Intelligence is about predicting what comes next.”
이 문장을 우리는 이제 이렇게 다시 읽을 수 있다.
사고란 미래를 예측하는 능력이 내부에서 충분히 깊어졌을 때 외부에서 붙여지는 이름이다.
Andrew Ng는 AI 사고혁명에서 가장 현실적인 인물이다.
그는 사고를 약속하지 않는다.
그는 예측을 개선하자고 말한다.
그리고 예측이 충분히 좋아지면 사고는 우리가 막지 않아도 저절로 나타난다는 것을 이미 수많은 시스템에서 증명해 왔다.