1. AI 시대를 위한 최소한의 문해력: 기본 개념

by 김찬우



AD_4nXcTJz4myvIo83lWd73FSEPv4XGK07RzUbOnCTFEUX7hQBLCsbui5pmYWcjesT48cqvGQ95AgjJdzOARsuBAD8MNU06_7FLm3J5Ctng94M6RuJUML2ebAQd3ajGEgWzAqaWNhpVHFg?key=rg6PBq6dg_lVkQiIolJphg

AI 시대에 필요한 새로운 문해력은 단순히 기계를 다루는 능력을 넘어, 언어와 사고를 AI의 작동 방식에 맞추어 재정립하는 것이다. 머리말에서 언급했듯이 개념어 하나가 프롬프트를 간결하게 만들고, 원하는 결과에 도달하는 시간을 줄여준다. 그렇다면 이러한 개념어와 함께 반드시 알아야 할 기본 개념에는 무엇이 있을까? 본 장에서는 프롬프트, LLM, 토큰, 환각이라는 네 가지 키워드를 중심으로 AI와 소통하기 위해 필요한 최소한의 언어 감각을 다룬다.


프롬프트(Prompt): AI를 움직이는 명확한 지시어

프롬프트는 AI에게 내리는 명령이자 대화의 시작점이다. 사용자가 AI에게 무엇을 어떻게 요청하느냐에 따라 결과는 완전히 달라진다. 예를 들어, "회의 내용을 정리해줘"라는 지시는 너무 포괄적이어서 불필요한 정보가 함께 출력될 수 있다. 그러나 "회의 내용을 의사결정(Decision)과 할당된 업무(Task)로 구분해 표로 정리해줘"라는 프롬프트는 구조화된 결과를 가져온다. 이 차이는 결국 프롬프트가 얼마나 구체적이고 체계적으로 설계되었는지에 달려 있다.

실무에서는 이런 차이가 업무 효율성을 크게 좌우한다. 한 기획자가 신제품 회의록을 요약할 때 단순히 요약을 요청하면 5페이지 분량의 장황한 요약문이 나오지만, 개념어를 넣어 요청하면 단 1페이지의 깔끔한 표로 결과가 나온다. 이는 곧 시간을 절약하고, 다음 단계 의사결정으로 빠르게 넘어갈 수 있는 힘을 제공한다. 따라서 프롬프트는 단순한 질문이 아니라 AI와 협업하기 위한 '설계 언어'라 할 수 있다.


[좋은 프롬프트의 구조]

Context (맥락): 어떤 자료를 기반으로 할 것인지

Role (역할): AI가 어떤 전문가의 관점에서 답할 것인지

Action (지시): 무엇을 수행해야 하는지

Format (형식): 결과가 어떤 형태로 제시되어야 하는지


프롬프트 설계는 언어를 다시 배우는 과정과 같다. 단순히 원하는 것을 말하는 것이 아니라, AI가 이해할 수 있는 언어로 번역해야 한다. 따라서 효과적인 프롬프트 엔지니어링은 일종의 새로운 ‘디지털 문법’을 익히는 과정이다.


LLM (거대 언어 모델): 우리가 대화하는 AI의 뇌 구조

오늘날 ChatGPT, Gemini, Claude와 같은 AI는 모두 LLM(Large Language Model)에 기반한다. 이는 인터넷과 각종 데이터에서 학습한 거대한 신경망 모델로, 문장의 패턴을 이해하고 새로운 텍스트를 생성하는 능력을 갖추고 있다. 하지만 LLM은 인간처럼 '이해'하는 것이 아니라, 방대한 확률 계산을 통해 가장 적절해 보이는 단어를 이어 붙이는 방식으로 작동한다.

예를 들어, 사람이 "서울의 날씨는?"라고 묻는다면 우리는 실제 기상 상황을 떠올리거나 확인한다. 그러나 LLM은 그 질문과 가장 자주 함께 등장하는 표현들을 참고하여, "서울은 오늘 맑고 기온은 25도입니다"라는 문장을 만들어낸다. 문제는 이 답이 실제 날씨와 다를 수도 있다는 점이다. 따라서 사용자는 LLM의 원리를 이해하고, 필요한 경우 신뢰할 수 있는 데이터와 결합해 사실성을 확보해야 한다.


[LLM의 작동 원리 개요]

입력 텍스트 → 토큰 단위로 분할

각 토큰을 수치 벡터로 변환

학습된 신경망이 다음 단어(토큰)의 확률을 예측

가장 높은 확률의 조합으로 문장 생성


LLM의 구조를 이해하면 AI의 강점과 한계를 동시에 볼 수 있다. 강점은 방대한 데이터 속에서 패턴을 빠르게 찾아내는 능력이다. 하지만 한계는 진위 여부와 맥락을 스스로 검증하지 못한다는 점이다. 이는 곧 사용자가 AI의 답을 맹목적으로 수용하기보다, 전략적으로 활용해야 한다는 교훈을 준다.

또한 LLM은 언어뿐 아니라 코드, 수학적 추론, 이미지 생성 등 다양한 영역으로 확장되고 있다. 이는 기업과 개인에게 전례 없는 생산성 향상을 가능하게 하지만 동시에 새로운 위험을 동반한다. 따라서 LLM에 대한 기본 이해는 단순한 기술 지식이 아니라, 사회적·윤리적 판단과도 연결된다.


토큰(Token) vs 단어: AI가 세상을 이해하는 방식

AI는 단어 그대로를 처리하지 않는다. 대신 '토큰(Token)'이라는 단위로 언어를 나누어 분석한다. 영어 단어 "unbelievable"은 'un', 'believe', 'able'의 세 개 토큰으로 나눌 수 있다. 한국어에서도 '인공지능'은 상황에 따라 '인공'과 '지능'으로 구분되거나 하나의 토큰으로 처리될 수 있다.


[토큰화 예시]

영어: "unbelievable" → [un] [believe] [able]

한국어: "인공지능" → [인공] [지능]

입력 문장: "AI는 미래다" → [AI] [는] [미래] [다]


이 차이는 단순히 기술적 개념에 그치지 않는다. 실제로 프롬프트가 길어질수록 토큰 수가 늘어나고, 이는 곧 더 많은 계산 자원과 비용을 요구한다. 클라우드 기반 AI 서비스는 사용량을 토큰 단위로 과금하기 때문에, 토큰의 개념을 모른다면 불필요한 비용이 발생할 수 있다. 예를 들어, 1000단어의 긴 지시문을 그대로 입력하기보다, 적절한 개념어를 사용해 200단어로 압축하면 같은 효과를 훨씬 저렴한 비용으로 얻을 수 있다.

또한 토큰 단위의 이해는 결과물 품질에도 영향을 미친다. AI는 토큰 간의 확률적 연관성을 바탕으로 문장을 생성하기 때문에, 사용자가 토큰화 과정을 고려해 질문을 조정하면 더 자연스럽고 정확한 답변을 얻을 수 있다. 이는 마치 번역기를 사용할 때 단어 하나가 아닌 문맥 전체를 고려해야 좋은 결과를 얻는 것과 비슷하다.


환각(Hallucination): AI가 지어내는 그럴듯한 거짓말과 판별법

AI는 때때로 존재하지 않는 사실을 그럴듯하게 말한다. 이를 '환각(Hallucination)'이라고 부른다. 예를 들어, AI에게 특정 논문의 저자를 물었을 때 실제 존재하지 않는 인명을 자신 있게 답할 수 있다. 또 특정 사건의 날짜를 묻자, AI는 실제로 없던 날짜를 만들어내기도 한다. 이는 LLM이 데이터의 패턴을 학습한 것이지, 사실 검증 능력을 내재하고 있지 않기 때문이다.


[환각 판별 및 대응 절차]

AI의 답변 수용 전, 다른 출처와 교차 검증

AI에게 스스로 근거 제시 요청

RAG(검색 증강 생성) 또는 외부 DB와 결합해 신뢰도 강화


실무에서는 환각의 위험을 줄이는 것이 곧 생산성과 직결된다. 한 연구자가 AI가 제공한 허위 정보를 그대로 인용했다면 논문의 신뢰성이 무너질 수 있다. 반대로 환각을 인식하고 교차 검증 과정을 거친다면, AI는 강력한 보조 연구 도구가 된다.

환각은 단순한 기술적 오류가 아니라, 인간과 AI의 협업 방식에 대한 중요한 교훈을 제공한다. 인간은 비판적 사고와 검증 능력을 통해 AI의 한계를 보완해야 하며, AI는 반복적 작업과 패턴 탐색을 통해 인간의 한계를 메울 수 있다. 결국 환각을 이해한다는 것은 AI와 인간이 함께 일하는 방식을 성숙하게 만들어가는 과정이다.

AI 시대의 문해력은 곧 개념을 이해하고 이를 활용해 질문을 설계하는 능력이다. 프롬프트는 AI와의 대화를 여는 열쇠이고, LLM은 그 대화를 가능하게 하는 뇌이며, 토큰은 AI가 세상을 이해하는 단위이고, 환각은 그 뇌가 만들어내는 오류이자 함정이다. 이 네 가지를 이해하는 순간, 독자는 단순히 AI를 '사용하는 사람'에서 AI와 '협업하는 사람'으로 나아갈 수 있다.


이 장에서 제시한 기본 개념은 이후 각 분야별 프롬프트 전략을 이해하기 위한 토대가 된다. 개념어를 아는 것이 프롬프트를 간결하게 만드는 첫걸음이라면, 이 기본 개념은 AI 시대를 살아가는 최소한의 문해력이다. 이어지는 장에서는 이 기본 문해력을 바탕으로 원하는 결과를 이끌어내는 프롬프트의 구체적인 전략을 다룬다.

keyword
작가의 이전글0.AI에게 '질문'하는 능력이 최고의 경쟁력인 시대