AI 시대일수록 UX 리서처가 필요한 이유(1)

by 도토리

요즘 자주 듣는 질문이 있습니다. “이제 인터뷰도 AI로 돌릴 수 있지 않나요?” “로그 데이터도 많은데, 굳이 사람이 분석해야 하나요?” 기술이 빠르게 발전하면서 리서처의 역할이 줄어들 것처럼 보이기도 합니다. 그러나 AI가 아무리 정교해져도, 리서처를 완전히 대체하기는 어렵습니다. 그 이유는 단순합니다. AI는 패턴을 찾지만, 문제를 정의하지는 못하기 때문입니다.


리서치의 출발점은 데이터가 아니라 질문입니다.

우리가 지금 풀어야 하는 문제는 무엇인지, 이 지표가 정말 개선해야 할 핵심인지, 사용자의 어떤 행동을 이해해야 하는지 정의하는 일은 여전히 인간의 몫입니다. AI는 주어진 데이터를 바탕으로 분석을 수행하지만, 어떤 데이터를 수집해야 하는지, 어떤 관점으로 바라봐야 하는지는 스스로 결정하지 않습니다. 질문이 잘못 설정되면 아무리 정교한 분석도 엉뚱한 결론으로 이어질 수 있습니다.


그렇다고 해서 AI가 리서치에 쓸모없다는 뜻은 아닙니다. 오히려 반대입니다. AI는 리서처의 강력한 도구가 될 수 있습니다. 예를 들어 인터뷰 녹취를 빠르게 정리하고, 유사한 문장을 클러스터링하고, 반복되는 키워드를 추출하는 데 AI는 매우 유용합니다. 대규모 설문 데이터에서 잠재적 패턴을 찾거나, 로그 데이터와 정성 데이터를 교차 분석하는 데에도 큰 도움이 됩니다. 과거에는 며칠이 걸리던 작업을 몇 시간 안에 끝낼 수도 있습니다. 저도 실제로 리서치 할 때 AI 도구들을 잘 사용하고 있고요.

AI 리서치 도구.jpg AI 리서치 도구 예시

하지만 여기서 중요한 건, AI가 만들어낸 요약과 클러스터를 그대로 받아들이는 것이 아니라 그것을 어떻게 해석할 것인가입니다. 예를 들어 AI가 “사용자들은 가격에 민감하다”는 패턴을 도출했다고 가정해봅시다. 리서처는 여기서 멈추지 않습니다. 어떤 상황에서 가격이 민감하게 작동하는지, 가격이 실제 문제인지 아니면 비교 과정에서의 인지적 부담이 문제인지 다시 묻습니다. AI는 문장을 묶어주지만, 그 문장이 어떤 맥락에서 의미를 갖는지는 사람이 판단합니다.


또한 AI는 과거 데이터를 기반으로 평균적인 패턴을 학습합니다. 그러나 실제 의사결정은 평균적인 상황에서 일어나지 않습니다. 사람은 늘 특정한 맥락 속에서 행동합니다. 퇴근 직후의 피로한 상태, 급하게 선택해야 하는 순간, 누군가와 함께 있는 상황처럼 맥락은 끊임없이 변합니다. 리서처는 이 맥락을 읽습니다. 단순히 “클릭률이 낮다”는 사실을 넘어서, “어떤 상황에서 이 기능이 무력해지는가”를 묻습니다. 이 질문이 전략을 바꿉니다.


AI를 리서치에 접목하는 가장 건강한 방식은 ‘대체’가 아니라 ‘증폭’입니다. AI는 방대한 데이터를 빠르게 정리해주고, 리서처는 그 안에서 문제의 구조를 정의합니다. AI는 반복 작업을 줄여주고, 리서처는 해석과 방향 설정에 더 많은 시간을 씁니다. AI가 초안을 만들고, 리서처가 전제를 검증합니다. 이 협업 구조가 만들어질 때, 리서치는 더 정교해집니다.


마지막으로, AI는 답을 빠르게 만들어내지만 전제를 의심하지는 않습니다. 리서처는 조직이 당연하게 여기는 가정을 의심합니다. 이 문제는 정말 사용자 문제인가, 아니면 조직 내부의 구조 문제인가. 이 기능은 정말 필요해서 만든 것인가, 아니면 경쟁사를 따라 만든 것인가. 이런 질문은 데이터만으로는 나오지 않습니다. AI가 강해질수록, 오히려 질문을 다듬고 방향을 잡는 리서처의 역할은 더 선명해집니다. AI는 훌륭한 분석 도구입니다. 그러나 도구는 방향을 정하지 않습니다. 방향을 정하는 일은 여전히 사람의 몫입니다. 그리고 그 방향을 묻는 사람이 바로 리서처입니다.


참고문헌

Suchman, L. A. (1987). Plans and situated actions: The problem of human–machine communication. Cambridge University Press.

Amershi, S., Weld, D., Vorvoreanu, M., Fourney, A., Nushi, B., Collisson, P., Suh, J., Iqbal, S., Bennett, P. N., Inkpen, K., Teevan, J., Kikin-Gil, R., & Horvitz, E. (2019). Guidelines for human–AI interaction. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (Paper No. 3). ACM.

Shneiderman, B. (2020). Human-centered artificial intelligence: Reliable, safe & trustworthy. International Journal of Human–Computer Interaction, 36(6), 495–504.


keyword
작가의 이전글AI는 왜 사용자를 지치게 만들까?