AI 시대일수록 UX 리서처가 필요한 이유(2)

by 도토리

AI가 리서처를 대체할 수 없다는 것과는 별개로, 또 하나의 중요한 질문이 있습니다. AI 기능이 서비스에 들어갈수록 왜 더 많은 리서치가 필요할까요?


AI 기능은 단순한 UI 변경이 아닙니다. 버튼 위치를 바꾸거나 컬러를 수정하는 수준이 아니라, 사용자의 의사결정 구조에 직접 개입하는 장치입니다. 추천, 자동 정리, 생성, 예측 기능은 사용자가 무엇을 보고, 무엇을 선택하고, 무엇을 믿을지에 영향을 줍니다. 즉, AI는 인간 행동의 흐름을 바꿉니다. 그렇기 때문에 정확도만으로는 충분하지 않습니다. 더 중요한 것은 개입의 방식입니다. 언제 개입할 것인지, 얼마나 제안할 것인지, 사용자가 거절하거나 수정할 수 있는지, 왜 이런 결과가 나왔는지 설명할 수 있는지 같은 요소들이 사용자 경험을 결정합니다.


AI가 제안을 많이 할수록 역설적으로, 사용자는 더 많은 결정을 내려야 하기도 합니다. 추천 콘텐츠가 늘어나고, 자동 생성 옵션이 추가되고, 선택지가 세분화될수록 사용자는 끊임없이 판단해야 합니다. 선택지가 많아지면 인지적 부담도 함께 증가합니다. 특히 피로한 상태이거나 시간 압박이 있는 상황에서는, 가장 쉬운 선택이 등장합니다. 아무것도 하지 않는 것, 기본값을 그대로 두는 것, 혹은 기능을 꺼버리는 것입니다. 실제로 AI 기능이 추가된 이후 오히려 체류 시간이 줄거나, 추천 영역을 무시하거나, 개인화 기능을 비활성화하는 현상이 나타나기도 합니다. 이때 많은 조직은 알고리즘을 더 고도화하려고 합니다. 그러나 문제는 정확도가 아니라 사용자의 인지 리듬일 가능성이 높습니다. 그 때 필요한 것은 기술 개선이 아니라 리서치입니다.


또한 AI는 통제감의 문제를 동반합니다. 사용자가 “내가 선택하고 있다”는 느낌을 잃는 순간, 편리함은 불안으로 바뀝니다. 추천이 아무리 정확해도, 그 기준이 불투명하면 신뢰는 쉽게 흔들립니다. 생성형 AI가 문장을 대신 써주거나, 자동으로 답을 만들어주는 순간에도 비슷한 현상이 나타납니다. 편리하다고 느끼면서도 동시에 찝찝함을 느끼는 감정, 효율적이지만 완전히 믿지는 못하는 상태. 이런 미묘한 감정은 로그 데이터로는 포착되지 않습니다. 클릭 여부나 체류 시간은 알 수 있지만, 왜 사용자가 망설였는지, 왜 수정을 반복했는지는 인터뷰와 맥락 분석을 통해서만 드러납니다.


AI 기능은 또 다른 변화를 만듭니다. 사용자의 책임 구조를 바꾼다는 점입니다. 추천을 믿고 선택했는데 결과가 만족스럽지 않으면, 그 책임은 사용자에게 있을까요, 알고리즘에 있을까요? 예측 결과가 틀렸을 때, 사용자는 자신이 잘못 판단했다고 느낄까요, 아니면 시스템을 불신하게 될까요? AI가 개입하는 순간, 경험의 책임 소재와 신뢰 구조가 함께 재편됩니다. 이 영역은 기술적 문제가 아니라 심리적, 관계적 문제입니다. 그리고 이 관계를 이해하는 것이 바로 리서치의 영역입니다.


AI 기능이 늘어날수록 서비스는 더 복잡해집니다. 복잡성이 높아질수록 사용자의 행동 구조를 더 세밀하게 이해해야 합니다. 추천은 어느 시점에서 도움이 되고, 어느 시점에서 방해가 되는지, 자동화는 언제 편리하고 언제 통제감을 빼앗는지, 생성 기능은 언제 창의성을 확장하고 언제 사고를 대체하는지. 이런 질문은 단순 A/B 테스트로는 충분히 설명되지 않습니다. 사용자의 맥락, 감정, 에너지 상태, 기대 수준을 함께 봐야 합니다.

결국 중요한 것은 인간과 기술 사이의 관계 설계입니다. 기술이 정교해질수록 그 기술이 인간의 삶에 어떻게 개입하는지 묻는 일이 더 중요해집니다. 그리고 그 질문을 체계적으로 다루는 역할이 바로 리서처입니다.


참고문헌

Amershi, S., Weld, D., Vorvoreanu, M., Fourney, A., Nushi, B., Collisson, P., Suh, J., Iqbal, S., Bennett, P. N., Inkpen, K., Teevan, J., Kikin-Gil, R., & Horvitz, E. (2019). Guidelines for human–AI interaction. In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems (Paper No. 3). ACM.

Shneiderman, B. (2020). Human-centered artificial intelligence: Reliable, safe & trustworthy. International Journal of Human–Computer Interaction, 36(6), 495–504.

Lee, J. D., & See, K. A. (2004). Trust in automation: Designing for appropriate reliance. Human Factors, 46(1), 50–80.

Parasuraman, R., & Riley, V. (1997). Humans and automation: Use, misuse, disuse, abuse. Human Factors, 39(2), 230–253.

작가의 이전글AI 시대일수록 UX 리서처가 필요한 이유(1)