AI는 "지혜"를 가질 수 있을까?

DIKW 피라미드 강의 - 데이터→정보→지식→지혜

by the게으름

AI는 "지혜"를 가질 수 있을까?

TL;DR

로컬 AI 돌리다 보니 컴퓨터 하드웨어 뉴스를 챙겨보게 됐다. 그러다 평생 처음으로 IBM을 검색했다.

IBM 유튜브에서 DIKW 피라미드 강의를 발견했다. 데이터→정보→지식→지혜. AI가 어디까지 왔는지 설명하는 프레임워크다.

핵심: AI는 데이터·정보·지식까지는 기가 막힌데, 지혜는 아직이다.

결론: AI한테 "어떻게(How)"를 맡기고, "왜(Why)"와 "뭘(What)"은 인간이 해야 한다.


로컬 AI 돌리다 보면 이상한 데 관심이 간다

로컬 LLM을 돌리기 시작하면서 이상한 습관이 생겼다.

컴퓨터 하드웨어 뉴스를 챙겨보게 된 거다.

"NVIDIA 새 GPU 나왔대", "AMD가 뭐 발표했대", "애플 M4 어쩌고..."

복순이 돌리려면 VRAM이 중요하니까. 16GB로 버티다가 "아 32GB면 두 모델 동시에 돌릴 수 있는데" 이런 생각을 하게 된다. 그러다 보니 자연스럽게 하드웨어 소식에 귀가 열린다.

그러다 문득 궁금해졌다.

"IBM은 요즘 뭐 해?"

진짜 평생 처음 검색해본 것 같다. 아마 10년? 아니, 평생 한 번도 IBM을 검색해본 적이 없다. 그냥 "옛날에 컴퓨터 만들던 회사" 정도로만 알고 있었다.

"얘네 아직도 뭐 만들어?"


IBM 유튜브가 있더라

검색하다 보니 IBM 공식 유튜브 채널이 나왔다.

신제품 광고? 기업 홍보 영상? 그런 거 기대했는데 아니었다.

강의였다.

누가 봐도 엄청 유능해 보이는, 컴퓨터 잘하게 생긴 아저씨가 나와서 진지하게 설명을 한다.

블랙보드에 그림 그리면서.

그중에 하나가 눈에 들어왔다.

"The Limits of AI"

AI의 한계? 흥미롭네.

20분짜리 영상인데 끝까지 봤다. 이 아저씨 1타 강사더라. 정승제 아저씨 급인줄… 알았는데 그 이상이더라

화면 캡처 2025-12-15 011659.png

저기 적힌 직책은 이거다.

Distinguished Engineer (IBM)

설명 덧붙이면

IBM 내부 최고급 기술 직함 중 하나

일반적인 “Senior / Principal Engineer” 위 단계

회사 전체 기술 방향·아키텍처에 영향력을 행사하는 레벨

연구원이라기보다 실전 엔지니어 + 기술 사상가 + 내부 오피니언 리더에 가깝다


쉽게 말하면,

“IBM에서 기술로 먹고살 수 있는 거의 최상위 포지션”


참고로 IBM에는 이런 테크 트랙이 있다:

Engineer

Senior Engineer

Distinguished Engineer

IBM Fellow (이건 거의 전설급)


그래서 이 사람이 나와서

“AI는 여기까지 왔고, 여기서 막힌다”

이런 이야기를 하는 게 그냥 개인 의견이 아니라,

IBM 내부에서 수십 년간 실제로 시스템 만들고 깨뜨려본 사람의 요약이라고 보면 된다.

그리고 꽤 인상 깊어서 여기에 옮겨본다.


"AI는 절대 못 해"라던 것들

강의는 이렇게 시작했다.

"지난 수십 년간 사람들이 자신 있게 말했습니다. 'AI는 이건 절대 못 할 거야.' 그리고 그 예측들의 공통점이 뭔지 아십니까? 대부분 틀렸습니다."


그러면서 예시를 쭉 나열했다.

1997년: "컴퓨터가 체스 그랜드마스터를 이기는 건 불가능하다"

→ IBM 딥블루가 카스파로프를 이겼다.


2011년: "언어의 뉘앙스, 말장난, 유머를 이해하는 건 AI로는 안 된다"

→ IBM Watson이 Jeopardy!에서 우승했다. (Jeopardy!는 말장난과 언어유희가 핵심인 퀴즈쇼다)


2016년: "바둑은 경우의 수가 10^170개라 100년은 걸린다"

→ 알파고가 이세돌을 이겼다.


2020년: "창의적인 글쓰기, 예술은 인간 고유 영역이다"

→ GPT-3가 나왔고, 지금은 AI가 그림도 그리고 음악도 만든다.


패턴이 보이는가?

강의하는 아저씨가 이렇게 정리했다.

"제 조언은 이겁니다. AI의 한계에 베팅하지 마세요. 틀리고 싶지 않다면요."

그런데 진짜 한계는 있다

그렇다고 AI가 만능이라는 얘기는 아니었다.

아저씨가 블랙보드에 피라미드를 그렸다.

DIKW 피라미드라고 했다. Data-Information-Knowledge-Wisdom.

"AI가 어디까지 왔고, 어디서 막혀 있는지 이해하려면 이 구조를 알아야 합니다."

화면 캡처 2025-12-15 011414.png

1층: 데이터 — 그냥 숫자 덩어리

아저씨가 숫자를 썼다.

10, 6, 42, 8

"이게 데이터입니다. 이것만 보면 뭔 소린지 모르죠? 전화번호일 수도 있고, 온도일 수도 있고, 아무 의미 없는 숫자일 수도 있습니다."

데이터 = 원시 사실. 맥락 없음.

데이터베이스에 저장된 것들. 그 자체로는 의미가 없다.


2층: 정보 — 맥락이 붙은 데이터

"자, 이제 맥락을 추가해 봅시다. 이 숫자들은 방 안에 있는 사람들의 나이입니다."

10살, 6살, 42살, 8살

오. 이제 뭔가 보인다. 방 안에 아이들이 3명 있고 어른이 1명 있구나.

정보 = 맥락이 있는 데이터.

"Information Technology"라고 부르는 이유가 이거다. 데이터에 맥락을 부여해서 쓸모 있게 만드는 것.


3층: 지식 — 해석된 정보

"정보를 해석하면 지식이 됩니다."

"이 방에 있는 사람들 대부분이 21세 미만이다."

단순히 나이를 아는 게 아니라, 패턴을 발견한 거다. 4명 중 3명이 미성년자라는 분석.

지식 = 해석 + 패턴 발견.

아저씨가 이 부분에서 강조했다.


"AI는 바로 여기서 빛을 발합니다. 대량의 정보에서 패턴을 찾고, 의미 있는 해석을 제공하는 것. 이건 AI가 기가 막히게 잘합니다."


4층: 지혜 — 응용된 지식

"자, 마지막입니다. 지식을 실제 상황에 적용하면 지혜가 됩니다."

"대부분이 아이들이고 어른은 한 명이니까, 아이들 눈높이에 맞는 활동을 준비하자. 42살 어른도 잠깐은 같이 놀 수 있을 거야."

단순히 "21세 미만이 많다"는 사실을 아는 게 아니라, 그래서 어떻게 해야 하는지 판단한 거다.

지혜 = 응용 + 판단 + 책임.

아저씨가 여기서 멈췄다.

"그리고 바로 여기가 AI가 아직 도달하지 못한 영역입니다."

왜 AI는 지혜가 어려울까

강의에서 몇 가지 이유를 설명했다.

1. 정답이 없다

"이 방에서 뭘 해야 하는지"는 상황에 따라 다르다.

생일 파티라면? 게임을 하면 된다.

학교 수업이라면? 교육 활동을 해야 한다.

대피 상황이라면? 빨리 나가야 한다.


"맞다/틀리다"가 아니라 "뭘 더 중요하게 두느냐"의 문제다.


2. 맥락이 무한하다

지혜로운 판단을 내리려면 고려해야 할 게 너무 많다.

이 사람들의 관계는?

시간은 얼마나 있는지?

예산은?

42살 어른의 성격은?

아이들이 좋아하는 건?


이 모든 맥락을 압축해서 하나의 답을 내리기가 어렵다.


3. 책임이 따른다

지혜는 결정이고, 결정에는 책임이 따른다.

AI가 "이렇게 하세요"라고 했는데 잘못되면? 누가 책임지나?


"시스템이 답을 내는 것과, 그 답의 책임을 지는 것은 완전히 다른 문제입니다."


4. 말로 설명 안 되는 게 있다

숙련된 사람들은 "그냥 느낌"으로 판단할 때가 있다.

수십 년 경험이 암묵지로 쌓인 거다. 본인도 왜 그런지 설명 못하지만, 그 판단이 맞는 경우가 많다.

이런 건 데이터로 학습시키기가 거의 불가능하다.


그래서 인간과 AI의 역할은?

강의 마지막 부분이 인상적이었다.

화이트보드를 반으로 나눴다.

왼쪽: 인간의 영역

WHAT — 뭘 할 건지 (목표)

WHY — 왜 하는지 (목적, 의미)


오른쪽: AI의 영역

HOW — 어떻게 할 건지 (실행, 최적화)


"사람이 '무엇을'과 '왜'를 정하면, AI가 '어떻게'를 처리합니다. 에이전트 AI는 많은 것을 자동화할 수 있지만, 애초에 뭘 해야 하는지는 알려줘야 합니다."


예를 들면 이런 거다.

인간: "고객 만족도를 높이고 싶어." (WHAT + WHY)

AI: "고객 피드백 분석해서 불만 TOP 10 뽑고, 개선안 제안할게요." (HOW)

인간: "좋은 주식 찾아줘." (WHAT)

AI: "586개 종목 분석해서 PER, ROE 기준으로 상위 30개 뽑았어요." (HOW)

하지만 **"이 주식 사야 해?"**는 AI가 답하기 어렵다. 그건 지혜의 영역이고, 책임이 따르는 판단이니까.


강의 끝에 한 말

아저씨가 마지막에 이렇게 정리했다.

"AI의 역사를 보면, 아주 오랫동안 거의 진전이 없는 것처럼 보이다가 갑자기 폭발했습니다. 지금 우리는 그 변곡점에 있습니다."


"아직 해결 못한 문제들이 있습니다. AGI, 자기 인식, 진정한 이해, 지혜... 하지만 흥미로운 건 이 문제들이 아직 남아있다는 것입니다. 문제 해결을 좋아하는 사람이라면, 할 일이 아직 많다는 뜻이죠."


"마지막으로 다시 한번 말씀드립니다. AI의 한계에 베팅하지 마세요. '절대 못 한다'고 했던 것들이 계속 깨지고 있으니까요."


내 생각

IBM 유튜브를 우연히 발견해서 좋았다.

솔직히 IBM이 이런 교육 콘텐츠를 만들고 있는 줄 몰랐다.

기업 채널치고는 광고 냄새가 안 나고, 진짜 가르치려는 느낌이었다.


DIKW 피라미드는 꽤 유용한 프레임워크인 것 같다.

내가 복순이한테 "좋은 콘텐츠 찾아줘"라고 시키면, 복순이는 기가 막히게 잘한다. 데이터 긁어오고, 정보 정리하고, 패턴 찾아서 점수 매기고.

근데 "이 글 진짜 좋아?"라고 물으면 애매하다.

점수가 높다고 진짜 좋은 건 아니니까. 결국 내가 직접 읽어보고 판단해야 한다.


그게 지혜의 영역인 거다.

AI가 DIK(데이터-정보-지식)까지는 해주니까, 나는 W(지혜)에 집중하면 된다. 역할 분담이다.

Claude한테 "이거 해야 해? 말아야 해?"를 묻지 말고, "이거 분석해줘"라고 시키자.

AI는 조언자가 아니라 분석기다.


판단은 내가 한다. 책임도 내가 진다.

그게 AI랑 일하는 방법인 것 같다.


참고

IBM Technology YouTube: "The Limits of AI: Generative AI, NLP, AGI, & What's Next?"

DIKW Pyramid (Data-Information-Knowledge-Wisdom): 1989년 Russell Ackoff가 정리한 지식 계층 구조