AI 학습의 가치가 퇴색하는 시대

인간은 무엇을 배워야 하는가 프롬프트 이후의 경쟁력

by DataSopher




AI 학습의 가치가 퇴색하는 시대, 인간은 무엇을 배워야 하는가


요즘 "AI를 배워야 한다"는 말이 너무 흔해졌죠. 그런데 저는 이 문장이 곧 다른 형태로 바뀔 거라고 봅니다.


"AI를 배운다"는 말이 운영·관리의 언어로 바뀐다.

마치 엑셀을 "배우는" 시대가 끝나고, 이제는 엑셀을 "기본으로 쓴다"가 상식이 된 것처럼요.


실제로 기업 현장에서도 흐름이 이쪽으로 갑니다.

2025~2026을 기점으로 화두는 "프롬프트 잘 치는 사람"이 아니라, AI를 조직 안에서 돌아가게 만드는 사람(업무 설계, 거버넌스, 오케스트레이션, 품질관리) 쪽으로 이동하고 있습니다.

AI 에이전트가 확산될수록 더더욱요. ([SS&C Blue Prism][1])


그렇다면 질문이 남습니다.


로봇이 AI를 더 잘할 텐데 인간은 뭘 배워야 할까?

무엇을 계속 배워야 "의미"가 남을까?


저는 답을 "소설과 철학, 그리고 인간과의 대화"에서 찾고 싶습니다. 그 이유를 감성이 아니라 팩트 기반 구조로 풀어볼게요.






1) AI가 커질수록, 기술은 기본값이 된다


세계 경제/고용을 관찰하는 기관들은 공통적으로 말합니다.

자동화·AI 확산이 커질수록, 사람에게 요구되는 역량은 "툴 사용"을 넘어선다고요. 예를 들어 WEF(세계경제포럼)는 향후 수요가 커질 역량으로 창의적 사고, 회복탄력성/유연성, 리더십·사회적 영향력 같은 "인간 고유의 결합 능력"을 반복적으로 강조합니다. ([World Economic Forum][2])


왜 그럴까요?


- AI는 정답을 빨리 만들고,

- 조직은 그 정답을 안정적으로 반복 생산하고 싶어집니다.

- 그래서 프롬프트는 개인기에서 점점 프로세스(운영체계)가 됩니다. ([SS&C Blue Prism][1])


즉 개인의 "AI 손기술"은 경쟁력이기보다 기본 체력이 됩니다.






2) 그런데 AI는 인간의 사유 근육을 약화시킬 수 있다


여기서 불편한 이야기가 하나 나옵니다.

AI가 편해질수록 우리는 생각을 덜 하게 됩니다.


실제로 "AI 도구 사용이 비판적 사고를 약화시킬 수 있다"는 문제의식이 공론장에서 다뤄지고 있습니다. (예: AI를 쓴 그룹이 사고 참여도가 낮았다는 실험 결과가 보도되기도 했죠.) ([TIME][3])



이 지점이 핵심입니다.


- AI는 문장을 만들어주지만,

- 의미(meaning)와 책임(responsibility)은 만들어주지 못합니다.

- "무엇이 옳은가"가 아니라 "무엇을 선택할 것인가"는 여전히 인간의 몫입니다.


AI가 강해질수록 인간은 역설적으로 더 높은 수준의 판단 프레임을 요구받습니다.

그 프레임은 코딩만으로는 생기지 않아요.






3) 그래서 "소설과 철학"이 실용이 된다


여기서 소설과 철학을 업무 스킬로 정의해봅시다.



소설 = 타인의 마음을 시뮬레이션하는 훈련


소설은 인간의 동기·욕망·두려움·관계를 다룹니다.

AI 시대의 문제는 점점 기술 문제가 아니라 관계·신뢰·해석의 문제가 됩니다.

한 조직에서 AI가 실패하는 이유도 대개 모델 성능보다 업무 정의가 엉키거나, 책임이 불명확하거나, 현장이 신뢰하지 않아서인 경우가 많아요. (운영/거버넌스 이슈) ([SS&C Blue Prism][1])


소설은 이 사람 문제를 보는 눈을 키웁니다.



철학 = "좋은 질문"을 설계하는 기술


철학은 정답을 주기보다 질문을 갈고닦게 합니다.


- 무엇이 문제인가?

- 이 결정의 책임은 누구에게 있는가?

- 효율과 공정이 충돌할 때 우선순위는?

- 데이터가 말하지 않는 공백은 무엇인가?


AI는 질문이 나쁘면 답을 그럴듯하게 망칩니다.

반대로 질문이 좋으면 평범한 모델도 유능한 파트너가 됩니다.



OECD도 교육에서 창의성과 비판적 사고를 어떻게 가르치고 평가할 것인가를 중요한 과제로 다루고 있습니다. ([OECD][4])


철학은 결국 AI 시대의 질문 생산라인입니다.






4) 그럼 인간은 무엇을 "계속" 배워야 할까: 3층 구조


저는 이렇게 정리하고 싶습니다.


1. AI 리터러시(기본값): 쓰되, 맹신하지 않는 법

- 도구의 한계/환각/편향을 이해하고, 검증 루프를 설계하는 능력 ([World Economic Forum][5])


2. 도메인 문해력(현장값): 산업·업무를 실제로 이해하는 힘

- AI는 일을 대신해주지 않습니다. "일의 정의"가 없으면요.


3. 인간 문해력(의미값): 소설·철학·대화로 기르는 힘

- 공감, 맥락, 윤리, 책임, 서사(스토리텔링)

- 그리고 무엇보다 "왜"를 끝까지 묻는 태도


이 3층이 합쳐지면 인간은 AI를 사회적 가치로 번역하는 사람이 됩니다.

이게 바로 "Data + Philosopher"의 역할이기도 하고요.






5) 마지막으로 제가 믿는 한 문장


AI가 커질수록 인간의 경쟁력은 "더 많은 지식"보다

지식을 어떤 삶의 방향으로 묶어내는가에 달려갑니다.


기술이 전부를 설명하는 시대가 아니라

기술을 어떤 인간의 이야기로 만들 것인가가 성패를 가르는 시대.


그래서 저는 오늘도 소설을 읽고, 철학을 붙잡고, 사람과 대화하려고 합니다.

AI가 발전할수록 아이러니하게도 그게 가장 실용적이더라고요.


여러분은 요즘 어떤 "인간의 공부"를 하고 계신가요?

댓글로 진짜 듣고 싶습니다. (서로의 독서/사유 루틴 공유해도 좋고요.)







[1]: https://www.blueprism.com/resources/blog/future-ai-agents-trends/

"Future of AI Agents: Top Trends in 2026 - Blue Prism"



[2]: https://www.weforum.org/publications/the-future-of-jobs-report-2025/digest/

"The Future of Jobs Report 2025 | World Economic Forum"



[3]: https://time.com/7295195/ai-chatgpt-google-learning-school/

"ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study"



[4]: https://www.oecd.org/en/about/projects/teaching-learning-and-assessing-creative-and-critical-thinking-skills.html

"Teaching, Learning and Assessing Creative and Critical ..."



[5]: https://www.weforum.org/stories/2025/05/why-ai-literacy-is-now-a-core-competency-in-education/

"Why AI literacy is now a core competency in education"



[6]: https://datalab.naver.com/

"네이버 데이터랩 - NAVER"


keyword