기업의 AX, 어떻게 이루어져야 할까

by 도토리

요즘 많은 기업이 ‘DX’ 대신 ‘AX’를 이야기합니다.


DX가 디지털 기술을 활용해 조직과 서비스를 변화시키는 과정이었다면, AX란 Artificial Intelligence Transformation의 약자로 단순히 AI 기술을 도입하는 것을 의미하지 않습니다. 더 정확히 말하면 AI를 중심으로 조직의 의사결정 방식, 업무 프로세스, 제품 경험을 재설계하는 과정을 의미합니다. 예를 들어 기존의 디지털 전환(DX)이 데이터를 수집하고 디지털 시스템을 구축하는 데 초점을 맞췄다면, AX는 그 위에 쌓인 데이터를 기반으로 AI가 판단과 추천, 자동화를 수행하는 구조를 만드는 것에 가깝습니다. 즉, 단순히 “디지털화된 조직”이 아니라 AI와 인간이 함께 의사결정을 하는 조직 구조로 변화하는 과정이라고 볼 수 있습니다.


이 때문에 AX는 기술 프로젝트가 아니라 조직 변화 프로젝트에 가깝습니다. 제품팀, 데이터팀, 운영팀, 고객 경험 조직까지 모두 영향을 받기 때문입니다. 예를 들어 고객 서비스에 AI를 도입한다는 것은 단순히 챗봇을 추가하는 일이 아니라, 어떤 문제를 AI가 해결하고 어떤 상황에서 인간이 개입해야 하는지, 그리고 AI의 판단을 조직이 어떻게 활용할 것인지를 다시 정의하는 일입니다.


문제는 많은 조직에서 AX가 전략이 아니라 기능 도입 수준에서 논의된다는 점입니다.

예를 들어 이런 방식입니다.

“우리 서비스에도 AI 챗봇을 넣어보자.”

“추천 알고리즘을 고도화해보자.”

“AI 요약 기능을 추가하면 어떨까?”

이런 접근은 나쁘지 않습니다. 하지만 이것만으로는 AX라고 부르기 어렵습니다. 대부분의 경우 이것은 단순한 ‘AI 기능 추가’에 가깝습니다. 진짜 AX는 서비스에 AI 기능을 몇 개 붙이는 것이 아니라 기업이 문제를 해결하는 방식 자체가 바뀌는 것을 의미합니다.


AX의 출발점은 기술이 아니라 문제다

많은 조직에서 AI 도입은 기술에서 시작됩니다.

새로운 모델이 등장하면 “이걸 어디에 써볼까?”라는 질문이 먼저 등장합니다.


하지만 실제로 성공적인 AX는 반대의 순서로 진행됩니다.

먼저 어떤 문제를 해결해야 하는지가 명확해야 합니다. 그리고 그 문제를 해결하는 과정에서 AI가 정말 필요한지 판단해야 합니다. 예를 들어 고객센터 문제를 생각해봅시다. 많은 기업이 상담 인력을 줄이기 위해 AI 챗봇을 도입합니다. 그러나 실제 사용자 경험에서는 종종 이런 일이 발생합니다. 사용자는 챗봇이 질문을 이해하지 못해 같은 답변을 반복하는 상황을 겪습니다. 결국 다시 사람 상담원을 찾게 됩니다.


이 경우 문제는 기술이 아니라 문제 정의 자체가 잘못되었을 가능성이 큽니다.

기업이 해결하려던 문제는 고객 경험이 아니라 비용 절감이었기 때문입니다.


AX는 조직의 의사결정 구조를 바꾼다

AX가 진짜로 작동하려면 서비스뿐 아니라 조직의 의사결정 방식도 함께 바뀌어야 합니다.

AI는 단순한 기능이 아니라 의사결정 도구입니다.

예를 들어

어떤 고객에게 어떤 콘텐츠를 보여줄 것인가

어떤 상품을 추천할 것인가

어떤 문제를 우선 해결할 것인가

이런 결정에 AI가 개입하기 시작하면 조직의 판단 방식 자체가 달라집니다.


이때 중요한 질문이 생깁니다.

AI의 판단을 어디까지 신뢰할 것인가?

사람의 판단은 어디에서 개입해야 하는가?

이 질문에 대한 기준이 없으면 조직은 쉽게 자동화 편향(automation bias)에 빠질 수 있습니다. AI의 결과를 그대로 받아들이는 의사결정이 늘어나기 때문입니다.

AX는 기술 프로젝트가 아니라 의사결정 구조의 재설계입니다.


AX의 핵심은 ‘사람 중심 설계’다

AI가 조직에 들어오는 순간 가장 크게 바뀌는 것은 사람과 시스템의 역할 분담입니다.

많은 기업이 AI를 “자동화 기술”로 이해하지만, 실제 서비스에서는 AI가 완전히 일을 대신하기보다 사람과 협업하는 구조로 작동하는 경우가 훨씬 많습니다.


예를 들어 콘텐츠 추천 시스템을 생각해봅시다. 추천 알고리즘은 수많은 데이터를 기반으로 콘텐츠를 제안할 수 있습니다. 하지만 사용자가 실제로 콘텐츠를 선택하는 과정에는 여전히 여러 요소가 작용합니다. 사용자는 때로 추천을 따르기도 하고, 때로는 완전히 다른 것을 찾기도 합니다. 이때 중요한 것은 추천의 정확도뿐 아니라 사용자가 탐색할 수 있는 여지를 남겨두는 설계입니다.


생성형 AI도 비슷합니다. AI가 문서나 이미지를 생성해 줄 수 있지만, 실제 업무에서는 그 결과를 그대로 사용하는 경우보다 수정하고 편집하는 과정이 함께 이루어집니다. 이때 중요한 것은 AI가 얼마나 잘 만들었는가보다 사용자가 얼마나 쉽게 수정하고 통제할 수 있는가입니다.


그래서 AI 경험 설계에서는 몇 가지 요소가 특히 중요하게 등장합니다.

첫째는 설명 가능성(explainability)입니다. AI가 왜 이런 결과를 제안했는지 사용자가 이해할 수 있어야 합니다. 추천이나 자동화 결과가 불투명하면 사용자는 쉽게 신뢰하지 못합니다.

둘째는 사용자 통제권(user control)입니다. 사용자가 AI의 제안을 수정하거나 거부할 수 있어야 합니다. AI가 모든 결정을 대신하는 구조는 편리해 보일 수 있지만, 실제 경험에서는 불안과 저항을 만들기 쉽습니다.

셋째는 협업 구조(collaboration design)입니다. AI와 사람이 각각 어떤 역할을 맡는지 명확해야 합니다. 어떤 상황에서는 AI가 먼저 제안하고 사람이 판단하고, 어떤 상황에서는 사람이 탐색을 시작하고 AI가 보조하는 방식이 더 자연스럽습니다.


이처럼 AX에서 중요한 것은 AI 기능의 수가 아니라 AI와 인간의 역할이 어떻게 설계되어 있는가입니다. 그래서 많은 연구자들이 AX의 핵심을 Human-centered AI라고 설명합니다. 기술이 인간을 대체하는 방향이 아니라, 인간의 판단과 경험을 중심에 두고 AI가 보조하는 구조를 설계해야 한다는 의미입니다.

결국 AX는 기술 도입의 문제가 아니라 사람과 AI가 함께 일하는 방식을 설계하는 문제에 가깝습니다.


결국 AX의 질문은 이것이다

기업이 AX를 추진할 때 가장 중요한 질문은 이것입니다.

“AI가 우리 조직의 어떤 문제를 더 잘 해결하게 만들 것인가?”

이 질문이 명확하지 않다면 AX는 쉽게 기술 실험으로 끝날 가능성이 높습니다.

반대로 이 질문이 분명하다면 AI는 단순한 기능이 아니라 기업의 경쟁력을 바꾸는 도구가 될 수 있습니다.

AX는 기술을 도입하는 과정이 아니라 문제를 해결하는 방식 자체를 다시 설계하는 과정입니다.



참고문헌

Amershi, S., Weld, D., Vorvoreanu, M., Fourney, A., Nushi, B., Collisson, P., … Horvitz, E. (2019). Guidelines for human-AI interaction. Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems.

Shneiderman, B. (2020). Human-centered artificial intelligence: Reliable, safe & trustworthy. International Journal of Human–Computer Interaction, 36(6), 495–504.

Schmager, S., Auernhammer, J., & others. (2025). Understanding human-centred AI: A review of its defining characteristics and applications. Behaviour & Information Technology.

Jiang, T., Yang, Q., & others. (2024). Human-AI interaction research agenda: A user-centered perspective. International Journal of Human–Computer Studies.

Haque, A. K. M. B., et al. (2023). Explainable artificial intelligence from the end-user perspective: A systematic literature review. Technological Forecasting and Social Change.

Liao, Q. V., & Varshney, K. (2021). Human-centered explainable AI (XAI): From algorithms to user experience. ACM Interactions.


작가의 이전글AI, 서비스에 무작정 도입하지 마라