서비스 기획에서 AI 기반 가이드와 실제 사용자 리서치의 우선순위를 어떻게 판단할 것인가?
서비스를 기획하다 보면 아이디어가 떠오를 때마다 가능성을 열어두고, 또 막상 만들어보면 다시 걷어내야 하는 과정이 반복된다. 처음에는 그럴듯해 보이던 기획 방향도 "정말 사용자에게 도움이 될까?"라는 질문 앞에서 흐릿해지는 순간이 찾아온다. 기획자는 타깃에게 가치를 주고 싶은 마음이 크지만, 그 마음이 오히려 판단을 흐리고 혼란을 만드는 경우도 많다. 그 해결책은 사용자 테스트다. 하지만 아직 형태가 잡히지 않은 서비스를 가지고 초기 단계에서 사용자 테스트를 진행하면, 참여자도 무엇을 기준으로 봐야 할지 몰라 애매한 피드백만 남기기 일쑤다. 기획자에게는 시간과 비용만 소비한 것 같은 허탈함이 남는다.
이런 상황에서 유용하게 작동하는 것이 AI가 제공하는 ‘통계적 패턴’이다. 평균적인 사용자 행동을 기반으로 어떤 흐름이 자연스러울지, 어떤 선택이 무리 없는지 빠르게 가이드해 준다. 이 때문에 많은 기획자들이 초기에 마주하는 고민은 자연스럽게 두 가지 선택지로 좁혀진다—AI 기반 가이드에 의존해 방향을 잡을 것인가, 아니면 실제 사용자 리서치를 통해 검증하며 나아갈 것인가. 그리고 이 둘의 균형을 어떻게 잡을지는 결국 "지금 이 단계에서 무엇을 가장 정확하게 파악해야 하는가"를 이해하는 데 달렸다.
AI 기반 가이드는 문제 정의가 흐릿한 초기 탐색 단계에서 특히 강력하다.
아직 다양한 가능성을 열어둬야 할 때, 여러 기획 방향을 빠르게 스캔해야 할 때, 팀 내부의 관점을 정렬해야 할 때 AI는 생각을 정리해 주는 효율적인 출발점이 된다. 일반적인 사용성 패턴을 기반으로 방향성을 제시해주기 때문에 막연한 혼란을 줄이고 논의의 구조를 잡는 데 큰 도움이 된다. 하지만 AI가 기반하는 자료는 어디까지나 ‘평균적 상황에서의 적절함’일 뿐, 특정 타깃의 맥락이나 실제 환경을 완전히 반영한 것은 아니다. 그래서 실제 검증 단계에서는 분명한 한계가 드러난다.
반면 실제 사용자 리서치는 서비스가 구체화될수록 그 역할이 분명해진다.
기능과 화면이 어느 정도 준비되면, 이제는 사용자 행동을 직접 관찰해 맥락적 문제를 발견해야 한다. 작은 불편함이 바로 이탈로 이어지는 서비스라면 사용자 리서치는 말 그대로 ‘보험’ 역할을 한다. 기대한 흐름과 실제 경험의 차이, 사용자가 멈칫하는 순간, 사용 후의 감정까지 확인할 수 있기 때문이다. 다만 이 과정은 비용과 시간이 많이 들고, 잘못된 표본을 모집하면 오히려 판단을 왜곡시킬 위험도 있다. 즉, 효과는 크지만 가볍게 쓰기는 어려운 방법이다.
따라서 어떤 방식을 앞단에 둘지는 서비스의 현재 단계와 해결해야 하는 리스크의 종류에 따라 달라진다. 문제 정의가 아직 흐릿한 단계라면 AI 기반 가이드가 훨씬 효율적이다. 반면 실제 사용자 행동이 제품의 성패를 좌우하는 단계라면 사용자 리서치가 반드시 필요하다. 다만 효율적이라는 이유만으로 AI의 방향성이 언제나 정답은 아니라는 점을 잊어서는 안 된다.
결국 두 방식은 서로의 우열을 가릴 수 있는 관계가 아니다. 하지만..
각기 다른 불확실성을 줄여주는 도구이며, 기획자는 매 단계마다 "지금 해결해야 하는 가장 본질적인 불확실성은 무엇인가"를 스스로 물어야 한다. 이 질문이 명확해질수록 핵심을 추론하고 사유하며 걸러낼 수 있는 역량을 키우고 AI와 사용자 리서치를 적절히 활용하는 감각도 자연스럽게 길러진다.
이런 과정을 반복하면서 성장하는 신입과 주니어가 다시 활발하게 일할 수 있기를 기원한다.
- En. ver.
How to Decide Between AI-Based Guidance and Real User Research in Service Planning
When planning a service, teams often find themselves adding ideas with excitement and then removing them again as soon as they start to question whether those ideas truly help users. What initially felt clear and promising can quickly lose focus when the team asks, “Is this genuinely useful?” This uncertainty tends to grow even larger when the service is still abstract, making it difficult for teams to judge their own direction. To make sense of this, teams often turn to user testing. However, testing too early—before a usable shape exists—leads to vague feedback that is hard to interpret, leaving both the team and participants feeling unsure about what exactly was being evaluated.
This is where AI-driven statistical patterns support early-stage thinking. By referencing generalized user behaviors, AI offers quick suggestions about what flows might work or what choices users may expect. Companies with sufficient data infrastructure can use existing analytics to prevent overengineering and help guide reasonable planning. But smaller teams or products without well-established data foundations often have no choice but to rely on intuition and iterative guessing.
This leads many planners to evaluate two primary approaches—AI-based guidance versus real user research. Determining which one should take precedence depends on understanding what problem needs clarity right now.
AI-guided insights shine during the exploratory phase. When the problem is unclear, when the team must scan multiple directions rapidly, or when a shared internal language is needed, AI provides structure. Its suggestions reduce ambiguity and help organize discussions. Still, AI reflects what generally works, not the specific nuances of your actual target audience. As the service becomes more concrete, these generalizations are no longer enough.
Real user research becomes indispensable once the service concept gains shape. As interfaces and flows develop, observing real behavior becomes essential to uncover context-specific issues. For services where minor friction can lead directly to user drop-off, research acts as a safety mechanism. It reveals user expectations, hesitation points, and emotional responses. Yet it is resource-intensive and highly sensitive to sample quality—poorly executed research can mislead the team.
Therefore, prioritization depends on stage and risk type. Early in the process, AI-based guidance is efficient for reducing conceptual uncertainty. Later, when actual user behavior is a critical variable, user research must come forward. However, efficiency does not guarantee sharpness—AI’s guidance may still miss important contextual details.
Ultimately, the two approaches are not meant to be ranked against each other. They are tools that reduce different types of uncertainty, and planners must continually ask themselves, “What is the most essential uncertainty we need to resolve at this moment?” The clearer this question becomes, the more naturally they develop the ability to infer what truly matters, think critically, filter out unnecessary noise, and apply AI guidance and user research in an appropriate balance.
May this process of learning and repetition help new and junior planners regain confidence and step more actively into their work.