면접질문으로 파헤치기
면접 질문은 표면적으로는 지원자의 역량을 검증하는 장치이다. 그러나 반복적으로 등장하는 질문의 결을 따라가면, 해당 기업이 지금 어디에서 가장 큰 비용을 치르고 있으며 무엇을 가장 두려워하는지가 드러난다. 2025년을 기준으로 Google, OpenAI, Anthropic의 기술 면접 질문은 각기 다른 기술적 취향을 보여주는 것이 아니라, 서로 전혀 다른 전장의 지도를 반영하고 있다.
먼저 Google의 상황은 전력과 자본이라는 물리적 제약에서 출발한다. AI 전력 수요와 CapEx 투자를 나란히 놓고 보면, 2020년 이후 AI 수요는 가파르게 상승하지만 CapEx는 그 속도를 따라가지 못하고 지속적으로 후행하는 구조를 보인다. 이 간극은 일시적인 투자 지연이 아니라 구조적 현상이다. 데이터센터 증설, 전력 인입, 반도체 패키징과 같은 요소는 자본을 투입한다고 즉각 늘어나는 자원이 아니기 때문이다. 이로 인해 Google은 “더 많은 연산을 확보하는 문제”보다 “같은 연산 자원으로 더 많은 일을 처리하는 문제”에 직면하게 된다.
이 구조적 갭이 유지되는 구간에서 나타나는 신호는 매우 일관된다. AI 최적화 관련 채용 공고는 급증하고, 전력 효율 개선 프로젝트와 데이터센터 운영 최적화 특허 출원도 빠르게 증가한다. 이는 Google 내부에서 효율화가 선택지가 아니라 생존 조건으로 인식되고 있음을 의미한다. RoPE, KV Cache, Chinchilla 스케일링 법칙이 면접 질문에 반복적으로 등장하는 이유도 여기에 있다. 이는 최신 논문을 아는지를 묻는 질문이 아니라, 전력과 CapEx의 한계를 대신 해결할 수 있는 사람인지를 가려내는 질문이다.
이 맥락은 데이터센터 전력 사용을 비AI 제품군과 순수 AI 수요로 분해한 그래프에서 더욱 분명해진다. YouTube, Gmail과 같은 기존 제품군의 전력 사용은 사용자 수와 트래픽 증가에 비례해 완만한 증가 곡선을 보인다. 반면, 순수 AI 수요만 따로 떼어내면 2022년 이후 급격히 꺾여 올라가는 곡선이 나타난다. 전력 압박의 원인이 기존 서비스에 있지 않다는 사실은 명확하다. Google이 직면한 병목은 전적으로 AI 학습과 서빙 자체이다. 이 때문에 Google의 면접은 모델을 더 크게 만드는 능력보다, 같은 메모리와 전력으로 더 긴 컨텍스트와 더 많은 토큰을 처리할 수 있는 능력을 집요하게 묻는다.
OpenAI의 면접 질문은 전혀 다른 방향을 가리킨다. OpenAI의 환각률 추이를 경쟁사 평균과 함께 보면, GPT-4에서 GPT-5로 갈수록 환각률은 감소하지만 경쟁사 대비 압도적인 격차를 만들어내지는 못하고 있다. 이는 모델 성능이 상향 평준화되는 국면에서, 실사용 환경에서의 실패 확률이 여전히 중요한 약점으로 남아 있음을 의미한다.
이 문제가 왜 치명적인지는 헤비 유저 지표를 함께 보면 드러난다. 성능 점수와 헤비 유저 유지율 사이에는 완만한 양의 상관관계가 존재하지만, 환각률과 헤비 유저 유지율 사이에는 훨씬 가파른 음의 상관관계가 나타난다. 즉, 헤비 유저는 “조금 더 똑똑한 모델”보다 “덜 틀리는 모델”에 훨씬 민감하게 반응한다. 헤비 유저는 사용자 수로는 소수이지만, 매출과 피드백 데이터, 생태계 영향력에서는 압도적인 비중을 차지한다. 환각은 품질 문제가 아니라 매출 리스크 변수이다.
이 인식은 비용 구조에서도 그대로 드러난다. Pre-training 대비 Post-training 비용 비율을 보면, GPT-4에서 GPT-5로 갈수록 Post-training이 차지하는 비중이 빠르게 상승한다. 이는 OpenAI가 더 이상 “모델을 키우는 조직”에 머물 수 없음을 보여준다. 모델이 커질수록 통제 실패의 비용도 함께 커지기 때문이다. 이 때문에 OpenAI의 면접 질문은 모델 구조보다 RLHF 파이프라인, 환각 탐지, 행동 제어와 같은 영역에 집중된다. OpenAI가 찾는 인재는 연구자가 아니라, 사용자 데이터와 모델 행동을 연결해 제품 안정성으로 환원할 수 있는 파이프라인 설계자이다.
Anthropic의 면접 질문은 다시 한 번 다른 방향을 가리킨다. Claude의 벤치마크 성능 추이와 Trust·Compliance 관련 활동 수를 함께 보면, 성능이 일정 수준을 넘은 이후 오히려 안전 관련 활동이 더 가파르게 증가한다. 이는 안전을 철학적으로 중시해서라기보다, 성능이 올라갈수록 위험이 현실화되었음을 인식했기 때문이다.
이 전략이 단순한 이상주의가 아니라는 점은 엔터프라이즈 채택률과의 관계에서 확인된다. Trust 및 Compliance 활동이 증가할수록 Claude의 기업 채택률은 거의 선형적으로 상승한다. 이는 기업 고객에게 성능보다 중요한 것이 예측 가능성과 책임 소재임을 보여준다. Constitutional AI, 정보 통제, Chain-of-Thought 노출 위험에 대한 질문은 윤리적 담론이 아니라, 기업 계약을 통과할 수 있는 기술적 조건을 묻는 질문이다. Anthropic에게 안전은 비용이 아니라 매출을 만드는 기능이다.
이 모든 흐름을 종합하면, 2025년 AI 프론티어 랩들의 면접 질문은 기술을 묻는 장치가 아니다. Google은 전력과 CapEx라는 물리적 한계와 싸우고 있고, OpenAI는 통제 실패가 만들어내는 매출 리스크와 싸우고 있으며, Anthropic은 신뢰를 수익으로 전환하는 문제와 싸우고 있다. 질문은 기술 용어의 형태를 띠지만, 실제로는 “이 회사에서 가장 비싼 실패는 무엇인가”를 고백하고 있다.
따라서 이 시기의 면접은 지원자를 평가하는 자리가 아니라, 기업이 스스로의 병목을 드러내는 자리이다. 그리고 그 질문을 기술 지식이 아니라 자본과 제약의 관점에서 해석할 수 있는 사람만이, 2025년 AI 시장의 이면을 정확히 읽고 다음 단계로 나아갈 수 있다.