brunch

GPT-5 시대, 우리가 꼭 알아야 할 AI 핵심 개념

4부 일반인을 위한 AI 가이드

by 신피질

우리는 이미 인공지능과 함께 살아가고 있다. 아침에 눈을 뜨면 스마트폰이 날씨를 알려주고, 업무 시간을 지나며 AI가 문서를 정리하고, 밤이 되면 글쓰기나 번역을 부탁하며 하루를 마무리한다. 하지만 이렇게 친숙하게 사용하면서도, 정작 AI가 어떤 원리로 움직이는지 이해하는 사람은 많지 않다. 그래서 이 글은 GPT-5 시대를 맞아 우리가 반드시 알아두면 좋을 AI 핵심 개념들을, 읽기 좋은 자연스러운 문체로 정리해보고자 한다.


프롬프트는 AI에게 말을 거는 방식이다. 단순한 질문이 아니라, AI에게 역할과 목표와 조건을 알려주는 대화의 문이다. 같은 질문이라도 “설명해 줘.”보다 “중학생 눈높이에 맞춰 핵심만 비유를 중심으로 설명해 줘.”라고 말하면 AI는 훨씬 더 세심한 답을 내놓는다. 앞으로 프롬프트를 잘 쓰는 능력은 새로운 시대의 글쓰기이자 커뮤니케이션 기술이 될 것이다.

프롬프트가 중요한 이유는 AI가 가진 잠재 능력의 30~70%가 프롬프트 품질에 따라 달라지기 때문이다.

프롬프트는 다음 네 요소를 담으면 훨씬 강력해진다.
배경 → 목적 → 조건 → 톤
이 네 가지를 명확히 말해주는 순간, AI는 단순한 비서에서 진정한 조력자로 변한다.


토큰은 AI가 문장을 이해하기 위해 사용하는 보이지 않는 조각이다. 인간이 단어를 직관적으로 인지하는 것과 달리, AI는 문장을 여러 토큰으로 잘라낸 뒤 이를 숫자 벡터로 변환해 이해한다. “인공지능”은 ‘인공’, ‘지능’으로 나뉘기도 하고 ‘인’, ‘공’ 같은 더 작은 조각으로 쪼개지기도 한다. GPT-5는 수십만 단어에 달하는 긴 문맥을 한 번에 기억할 수 있어 책 한 권도 자연스럽게 읽고 이어서 대화를 이어간다.

왜 이렇게 쪼개야 할까? 컴퓨터는 인간처럼 ‘직관’이라는 능력이 없기 때문에 문장을 통계적으로 분석할 수 있는 작은 단위로 나눠야 한다.

토크나이저(tokenizer)는 “자주 등장하는 조합은 크게 묶고, 드물게 등장하는 조합은 잘게 분해”하는 방식이다. 그래서 ‘대한민국’, ‘삼성전자’, ‘인공지능’ 같은 단어는 하나의 토큰 또는 둘로만 나눠질 때가 많다.

반대로 ‘초미세신경세포막단백질’ 같은 단어는 여덟 개 이상의 토큰으로 분해된다.

이것이 중요한 이유는 AI의 요금·속도·문맥 처리 능력이 모두 토큰 단위로 측정되기 때문이다.



파라미터는 AI의 지능을 만드는 보이지 않는 연결선이다. 사람 뇌의 시냅스처럼 AI 내부에는 수십억, 수천억, 혹은 1조 개 이상의 파라미터가 존재한다. 파라미터 하나는 작은 숫자에 불과하지만, 이 수많은 숫자가 모여 AI가 문장을 읽고, 의미를 파악하고, 감정과 맥락까지 이해하게 만든다. 파라미터는 AI의 지능을 결정하는 ‘해상도’라고 해도 좋다.

파라미터 하나는 ‘미세한 조절값’ 일뿐이다. 하지만 이런 값이 100억 개, 5000억 개, 1조 개 모이면 인간이 이해하는 언어의 거의 모든 패턴을 재현할 수 있는 능력이 생긴다.

쉽게 말하면 파라미터 = 지능의 해상도라고 보면 된다. 파라미터가 많을수록 더 섬세한 감정 표현, 더 자연스러운 문맥 연결, 더 복잡한 논리 전개가 가능해진다.

GPT-4의 파라미터 수는 공개되지 않았지만 업계는 **수천억~1조+**라고 추정한다. GPT-5는 정확히 공개되지 않았지만 성능 향상과 문맥 처리 능력을 보면 GPT-4보다 훨씬 크거나 훨씬 효율적인 구조임은 확실하다.

파라미터는 AI의 ‘지능을 담는 저장고’다.


트랜스포머는 현대 AI 혁명을 여는 데 결정적 역할을 한 구조이다.

오늘날의 생성형 AI가 탄생한 이유는 트랜스포머라는 기술이 등장했기 때문이다. 2017년 구글이 발표한 이 구조는 언어를 처리하는 방식을 완전히 뒤흔들어 놓았다. 트랜스포머의 핵심 원리는 문장을 하나하나 순서대로 읽지 않고 문장 전체를 동시에 바라보며 단어 간 중요도를 계산하는 것이다.

이 기술 덕분에 AI는 “오늘 아침 커피를 너무 빨리 마셔서 속이 쓰렸다.”라는 문장에서 ‘커피’와 ‘속 쓰림’의 인과관계를 스스로 찾을 수 있다.

이전 모델은 이런 관계를 이해하지 못했다. 그저 다음 단어를 기계적으로 맞출 뿐이었다.

트랜스포머가 등장하면서 AI는 ‘의미’를 이해하는 길에 진입했다. GPT-5까지 이어진 모든 모델의 뇌 구조가 바로 트랜스포머다. 이 기술은 단순한 개선이 아니라 ‘AI 시대의 시작점’이라고 부를 수 있다.


LLM은 거대한 언어 모델이라는 뜻이지만, 실제 의미는 그보다 훨씬 넓다. LLM은 인간이 만들어온 방대한 언어 세계를 학습해 언어의 패턴과 의미, 논리와 흐름까지 이해하는 초거대 지능 엔진이다. GPT, Claude, Gemini 등 우리가 알고 있는 주요 모델은 모두 LLM 기반이다. GPT-5는 언어를 넘어 이미지·음성·표·PDF 등 모든 정보를 통합하는 멀티모달 LLM으로 확장되었다.

LLM은 암기하지 않는다. 대신 언어의 모든 패턴을 ‘확률 모델’로 기억한다. 그래서 LLM은 가장 자연스러운 다음 문장을 예측하며 글을 만든다.


생성형 AI는 새로운 것을 만들어내는 AI다. GPT는 글을 쓰고, Midjourney는 그림을 그리고, Suno는 음악을 만든다. 사람의 창작 업무와 지적 노동 일부를 함께 수행하는 존재가 된 것이다. 반대로 추론형 AI는 분류하고 판단하는 데 강하다. 스팸 판별, 암세포 탐지, 이미지 분류 등 ‘무엇인지’ 판단하는 데 사용된다. 생성형은 창조, 추론형은 판단으로 기억하면 된다.


멀티모달은 AI가 눈·귀·언어를 동시에 사용하는 능력이다. GPT-5는 사진을 보고 상황을 설명하고, 음성을 듣고 감정을 이해하며, 문서 속 표와 그림을 함께 분석할 수 있다. 이제 AI는 하나의 감각이 아니라 여러 감각을 복합적으로 활용하는 존재로 진화하고 있다.


RAG(Retrieval-Augmented Generation)는 AI가 답변하기 전 외부 정보를 가져와 반영하는 기술이다. GPT-5가 최신 뉴스나 최근 데이터를 반영할 수 있는 이유이기도 하다. 기업들은 내부 문서 검색, 고객 상담 자동화 등을 위해 RAG 기반 AI를 적극 도입하고 있다. 이 방식은 기업에서 특히 중요하다.



에이전트는 AI가 직접 작업을 수행하는 기술이다. 단순히 답하는 것을 넘어, 스스로 계획하고, 검색하고, 문서를 정리하고, 결과물을 완성한다. 이메일 수백 개를 읽고 중요한 내용을 요약해 보고서까지 만들어내는 작업도 에이전트라면 하나의 흐름 안에서 모두 처리할 수 있다.


파인튜닝은 특정 분야용 맞춤형 AI를 만드는 과정이다. 의료 데이터로 학습해 의료 GPT를 만들거나, 법률 문서로 학습해 판례 GPT를 만드는 방식이다. 앞으로는 기업마다 자신들의 파인튜닝 GPT 하나씩을 갖게 될 것이다.


임베딩은 AI가 문장과 단어를 숫자로 바꿔 의미를 파악하는 기술이다. 의미가 비슷한 문장은 임베딩 공간에서 가까운 위치에 놓인다. 문서 검색, 챗봇, RAG에서 필수적인 개념이다.


API는 개발자가 AI의 기능을 가져다 쓰는 통로다. 많은 앱들이 ChatGPT의 API를 불러와 기능을 구현하고 있다. API는 AI를 산업 전반으로 확장시키는 핵심 연결 고리다.


그 외에도 하이퍼파라미터는 AI의 학습 방식을 조정하는 설정값이며, 레이턴시는 AI가 응답하는 데 걸리는 시간이다. 라벨링은 AI 학습 데이터에 정답을 붙이는 작업이고, 스케일링 법칙은 데이터·모델·연산량을 늘리면 성능이 거의 선형적으로 증가한다는 원리를 말한다. 디퓨전 모델은 이미지 생성 AI가 노이즈에서 그림을 만들어내는 방식이다.


이 모든 개념을 이해하고 나면, AI는 더 이상 검은 상자가 아니다. 오히려 우리의 능력을 크게 확장시키는 조력자로 다가온다. GPT-5 시대의 AI는 특정한 사람들만 다루는 기술이 아니라, 누구나 사용할 수 있는 새로운 생활의 기술이다. 이번 글이 그 기술을 좀 더 가까이 이해하고 활용하도록 도와주는 작은 불씨가 되기를 바란다.


keyword
이전 05화프롬프트, 생각의 기술 ― 생성형 AI와 대화하는 법