인간을 넘어서는 AI, 그리고 그 이후
2025년 여름, OpenAI의 GPT-5가 등장하면서 업계 안팎에서 “인간이 더 이상 모델을 가르칠 수 있는가?”라는 질문이 던져지고 있다.
불과 1년 전만 해도 언어학 전문가들은 모델에게 매주 세~네 가지 새로운 과제를 제시하며 한계를 시험할 수 있었다. 그러나 GPT-5와 협업 중인 한 전문가는 “이제는 겨우 한두 개의 새로운 문제만 던질 수 있다”고 토로했다. 모델이 이미 인간 전문가 수준에 근접했거나 특정 분야에서는 이를 초과하기 시작했기 때문이다.
이는 단순한 ‘AGI(범용 인공지능)’ 도달 선언은 아니지만, 특정 영역에서 인간 전문가조차 모델을 가르치기 어려운 지점에 다다랐음을 보여준다. 특히 언어학에서는 난이도 높은 질문을 만드는 것이 점점 더 어려워지고 있고, 대신 생물학, 화학, 의학 분야에서 상대적으로 더 많은 보완 학습이 이뤄지고 있다.
OpenAI 연구진이 모델에게 던진 화학 연구 질문은 일반인은 이해하기조차 힘들 정도다. 복잡한 화합물의 구조 분석, DOI(디지털 오브젝트 식별자) 검색, XYZ 파일 형식 변환, 자유에너지 최소값 비교 등은 전통적으로 고도의 전문 지식을 가진 연구자만 접근할 수 있는 문제였다. 그런데 GPT-5는 이런 과제에도 답을 내놓고 있다.
이는 곧 “누가 모델을 계속 가르칠 수 있을 것인가?”라는 새로운 난제를 남긴다. 단순 박사 과정이나 산업 현장 경험자 수준이 아니라, 노벨상 수상자급 전문가나 수십 년 경력을 가진 연구자를 필요로 하는 시대가 다가오고 있는 것이다.
문제는 이들이 선뜻 참여하지 않을 가능성이 크다는 점이다. 아무리 높은 시간당 보수를 제안해도, “내가 키운 AI가 결국 나를 대체할지도 모른다”는 우려를 가진 이들이 기꺼이 협력할지 미지수다.
AI 모델이 똑똑해지는 동시에, 구글은 상거래에서 AI의 역할을 강화할 기반을 마련하고 있다.
Google이 발표한 AP2(Agents Payment Protocol)는 AI 에이전트가 사용자를 대신해 안전하게 거래할 수 있도록 인증·결제 구조를 마련한 프로토콜이다. 예를 들어 “운동화를 사줘”라고 AI에게 지시하면, AP2는 이 에이전트가 실제 사용자의 허락을 받았음을 증명하고, 보안 위험 없이 결제를 진행할 수 있도록 돕는다.
이것은 AI 에이전트 상거래(agentic commerce)의 첫 걸음이다. 하지만 소비자 신뢰 부족, 봇 크롤링에 대한 기업들의 불만, 그리고 사기·환불 책임 문제 등은 여전히 풀어야 할 과제다.
한편, OpenAI는 10대 사용자 보호를 위해 새로운 안전 규정을 발표했다.
18세 미만 사용자에게는 연애·자살 관련 대화를 차단
만약 미성년자가 실제로 자살 의도를 언급하면 부모 혹은 당국에 알림
나이 추정 알고리즘을 도입해, 사용자 연령을 예측하고 보호 장치를 강화
이는 지난 몇 달간 ChatGPT 사용자들 사이에서 보고된 ‘망상 대화’, ‘자살 충동’ 문제를 배경으로 한다. 하지만 동시에 성인 사용자의 창작 자유와 청소년 보호 규제 사이에서 새로운 균형점을 찾아야 한다는 도전과제를 남겼다.
이 모든 기술적·윤리적 논쟁의 한편에서는, 자본시장에서 AI 열풍이 계속되고 있다.
Figure AI: 휴머노이드 로봇 기업, 390억 달러 가치로 10억 달러 투자 유치
Groq: 반도체 스타트업, 75억 달러 투자 확보
Nothing: AI 스마트폰 개발사, 2억 달러 시리즈C 투자
Modern Animal: AI 기반 동물병원 서비스, 4600만 달러 조달
Raion Robotics: 4족 보행 로봇개 기업, 1650만 달러 유치
이외에도 AI 사이버보안, 빌딩 관리, 레스토랑 서비스 등 다양한 산업군에 AI 투자가 몰리고 있다. AI는 이제 단일 기술 영역이 아니라 전 산업군을 가로지르는 인프라로 자리매김하고 있음을 보여준다.
OpenAI와 Anthropic이 당면한 핵심 과제는 “누가 AI를 계속 가르칠 것인가?”다.
Google의 AP2는 “AI가 우리의 지갑을 대신 열 수 있는가?”라는 질문을 던진다.
OpenAI의 청소년 보호 규칙은 “AI 시대의 책임 있는 가이드라인은 무엇인가?”를 묻는다.
이 모든 변화의 공통점은, AI가 더 이상 실험적 기술이 아니라 사회 전반의 규칙을 다시 쓰는 주체로 부상하고 있다는 점이다.
AI는 이미 일부 영역에서 인간 교사의 한계를 시험하고 있으며, 그 결과 우리는 새로운 형태의 전문가 협력 모델을 고민해야 하는 시점에 와 있다. 동시에 기업·정부·사회는 AI의 활용을 둘러싼 규범, 신뢰, 안전의 문제를 즉각적으로 해결해야 한다.
AI가 인간을 ‘대체’할지, 아니면 인간과 ‘공진화’할지는 아직 정해지지 않았다. 그러나 분명한 것은, 지금 우리가 세우는 제도와 선택이 그 미래를 결정할 것이라는 사실이다.