#인공지능 경영 #6sense #히타치제작소 #빅데이터 #미래조직
미래의 기업에서, 사람은 '기획자' 하나면 된다.
현존하는 모든 부서와 직무를 인공지능으로 대체하는 것이 가능해진 까닭이다. 고객관리, 마케팅부터 제품 생산, 데이터 활용에서 개발까지 가능하다. 사람 손이 꼭 필요한 업무 자체가 없어졌다해도 절대 과언이 아니다. 그렇다면 인공지능이 운영하는 회사는 어떤 모습일까?
설마 이런 일이 있겠어라는 생각도, 가능한 일일 수도 있다는 의견도 가능하겠다. 그럼 실제 AI가 조직에서 특정 직무를 대체하고 있는 사례를 가진 기업들을 살펴보자. 지금이라도 당장 AI로 대체 가능한 영역들이 보일 것이다.
미국의 유니콘 기업 6sense가 제공하는 “6sense Revenue AI™” 플랫폼을 활용하면 ‘계약 가능성이 높은 고객사’를 찾아낼 수 있다. 6sense Revenue AI™는 인터넷과 여러 채널을 통해 수집한 빅데이터를 AI로 분석하여, 특정 기업이 요청할 수요에 대한 예측 분석을 제공하는 서비스이다. 이 인공지능이 분석하는 빅데이터는 기존의 마케팅이나 영업에서 활용되었던 공식 고객 정보 외에 블로그나 소셜 미디어, 제품 리뷰 사이트, 업계 간행물과 같은 다양한 정보를 포함하고 있다. 그렇기에 데이터를 근거로 고객이 먼저 요청하지 않아도 고객의 니즈를 파악할 수 있는 수요 예측이 특징이다.
인공지능이 도출한 6sense의 예상 소비자 리스트를 살펴보자.
우선 타겟 고객층과 고객관계관리를 시작해야 하는 고객층, 공격적으로 영업 활동을 하면 좋은 고객층을 구분해 표현해 준다. 해당 제품의 잠재적 수요인 고객층을 공략하는 방식을 이용하면 기존의 방식보다 훨씬 더 빠르게 움직일 수 있다. 특정 이슈가 발생한 이후 생긴 수요를 분석, 조사하는 기간을 거쳐 제안요청서를 발송하는 기존의 방식 대신 예측하는 방식을 택한 것이다. 마케팅 및 판매 지원 기업 Showpad는 6sense의 인공지능과 협업한 후 *아웃 바운드 영업 계약 성사율이 289% 상승했다고 한다.
* 아웃바운드 영업은 영업 담당자 혹은 기업이 구매 가능성이 있는 잠재적인 고객을 발굴하고 소통을 시작하는 영업 프로세스임. 고객이 먼저 연락하는 인바운드 영업과는 반대의 개념이다.
일본의 히타치제작소에서는 복잡한 상황에서 데이터에 기반한 조언을 해주는 인공지능(AI)을 개발했다. 이 AI는 대량의 데이터를 분석하고 그것을 조언의 근거로 제시한다. AI가 문장으로 정리한 의견과 근거는 기업 경영진이나 정치인들이 의사결정을 할 때에도 사용할 수 있을 정도로 높은 수준을 자랑한다.
히타치제작소 인공지능 개발 시연회에서 발표자는 이 AI에게 "국가가 재생 가능 에너지를 도입해야 하느냐"는 질문을 던졌다. AI는 2분간 120만 건의 신문 기사, 정부 문서 등의 자료를 분석한 후" 경제를 촉진하고 온난화 대책에 큰 의미가 있다"는 찬성 의견과 "안정된 에너지 공급에 어려움이 있을 것"이라는 반대 의견 등 총 6개의 의견을 제시했다. 개발자 야나이 고스케 주임 연구원은 "정보를 수집하는 사람의 주관이 들어가지 않고 중립적인 입장에서 찬성과 반대의 의견을 나타낼 수 있는 것이 장점"이며, “의견에 대한 근거를 자료에 기반해 제시하는 것이 특징”이라고 말했다. 어떤 결정을 위한 근거들을 빠른 시간 안에 제공함으로써 신속하고 타당한 결정을 돕는 것이다. 빅데이터에 육박하는 크기의 자료에 기반하기 때문에, 이 인공지능이 제시하는 의견은 우리가 생각하지 못한 부분까지 고려할 수 있게되는 장점이 있다.
# 알아두면 좋은 개념
_설명 가능한 인공지능(Explainable Artificial Intelligence; XAI)
골드만 삭스(Goldman Sachs)의 찰스 엘칸(Charles Elkan)은 인공지능의 판단을 받아들이는 인간의 모습을 다음과 같이 표현했다.
“우리는 폭발물 탐지견이 어떻게 폭발물을 찾아내는지 정확히 알지 못한다. 하지만, 탐지견이 내리는 결정을 굳게 신뢰하고 있다.”
인공지능은 잘 훈련된 폭발물 탐지견처럼 인간보다 빠른 속도로 문제에 대한 답을 제시하지만, 우리는 ‘왜 인공지능은 그런 결정을 내렸는지’ 알지 못할 때가 많다. 인공지능이 어떤 결론을 내리는 과정이 매우 복잡하기 때문이다. 이 복잡한 과정은 데이터 사이언티스트나 알고리즘을 만드는 개발자라 하더라도 설명할 수 없어, 인간이 알 수 없는 검은 상자, “블랙 박스(Black box)”라고 불리기도 한다.
하지만, 인공지능이 내린 답이 “왜” 그런 것인지에 대한 설명이 필요한 때가 있다. 예를 들어, 한 기업의 AI면접에서 탈락했다고 생각해 보자. 지원자가 회사에 적합하지 않다고 판단한 과정을 정확히 설명하지 못하고 인공지능의 블랙 박스로 남겨둔다면, 해당 회사의 선발 과정은 공정성과 타당성을 의심받을 것이다.
이러한 문제를 해결하기 위해 나온 개념이 “expendable AI, 설명가능한 AI”이다. 인공지능의 설명가능성은 인공지능의 예측 혹은 판단에 어떤 자료들이 사용되었는지, 특히 그 판단에 큰 영향을 준 요인이나 자료는 무엇인지, 인공지능 모델은 어떤 방식에 따라 학습되었는지 등에 대해 ‘인간이 이해할 수 있게’ 표현한다. 이렇게 쌓인 인공지능의 설명가능성은 우리에게 필요한 형태의 자료나 예측을 선별하는 데에도 도움이 되며, 해당 모델에 대한 신뢰와도 직결된다. 히타치제작소의 경영판단지원 AI 역시 의견에 대한 근거를 자료에 기반해 문장으로 제시하는, 설명 가능한 AI이다.