Takeaway from Bixby Developer Day
Takeaway Bixby Developer Day
Voice Intelligence 생태계를 선점하기 위한 경쟁이 치열하다. Amazon이 Alexa Skill을 제3자가 개발할 수 있도록 플랫폼을 개방하여 보이스 인공지능 시장을 선점해갔던 것처럼, 국내의 주요 IT 회사들 또한 Amazon의 성공 방정식을 따르고자 하는 듯하다. 거의 모든 회사들이 최근 몇년 다음과 같은 전략으로 생태계 확장을 위해 노력해왔고, 올해 특히 보이스 인공지능의 오픈 플랫폼화가 빠르게 진행되었다.
첫째, 스피커든 스마트폰에 탑재된 형태든 '보이스 인공지능 비서'를 배포해 접근성을 높인다 (카카오미니, 네이버 클로바, SK 누구, KT 기가지니, 삼성 빅스비)
둘째, 오픈API 기반의 기능 개발 플랫폼을 제 3자에게 개방한다 (GiGA Genie AI Kit, NUGU Play Kit, Clova Extentions Kit, Bixbi Capsule)
셋째, 개발자 행사를 열고 플랫폼 합류를 독려한다 (기가지니 데브 컨퍼런스, if 카카오 2018, 누구 컨퍼런스 2018, Bixby Developer Day)
오늘 참석한 삼성의 'Bixby Developer Day'(https://bixbydeveloperday.developer.samsung.com/) 또한 이와 같은 흐름에 맞춰 개발 플랫폼을 공개하고 많은 개발자들의 참여를 독려하기 위한 목적으로 진행되었다. 다른 AI 서비스와 차별화되는 부분은 삼성의 경우 api 공개를 넘어 개발 통합 도구, 'Bixby Developer Studio'까지 제공한다는 것이다. 외부 개발자들이 여러 기능을 담은 Voice AI 서비스, 'Bixby Capsule'을 쉽게 개발할 수 있도록 하여 지금의 앱 마켓과 같은 'Bixby Marketplace' 플랫폼을 구축하기 위한 큰 그림이다.
대화설계, 개인화, IoT, 프로토타이핑, AI Startup 등 Voice Intelligence와 관련된 다양하고 흥미로운 주제들이 세션에서 다루어졌는데, 시간이 겹쳐 모두 참석하지 못해 아쉬웠다. 이 글에서는 참석한 세션을 토대로 특히 UX 관련 Takeaway를 두가지 정도로 정리해보고자 한다.
Takeaway 1.
Designing Natural Flow of
'Voice-to-Screen' is Important
삼성전자 무선 사업부 UX혁신팀에서 진행한 '대화 설계 : 성공적인 Bixby 서비스를 위한 핵심 요소' 세션에서는 어떤 원칙을 토대로 빅스비 UX를 설계하였는지 다루었다. 다이얼로그보다는 음성 명령 후 보여지는 스크린 UX와 관련도가 높다고 볼 수 있는데 큰 원칙은 다음 세가지다.
It's not CHAT : 채팅과 같이 과거부터 현재까지 대화가 쓰레드로 이어지는 인터페이스는 사람간 대화에 있어 유용한 인터페이스지만, 어시스턴트 관점에서 적합하지 않을 수 있다. 당장 현재 사용자의 명령이 잘 수행되는지 보여주는 것이 중요하기 때문이다.
It's not SEARCH : 많은 양의 정보보다는 사용자가 원하는 바를 미리 파악하고 가장 필요한 정보만 효과적으로 전달해야 한다.
It's not APP : 앱과 같이 많은 기능을 노출해 선택지를 늘리기보다는 컨텐츠 중심으로 컨텍스트에 맞게 정보를 제공해야 한다.
이러한 원칙을 토대로 명령 수행시 결과(Moment)를 크게 세 파트로 구성하였다고 한다. Conversation Zone에서는 결과를 요약, View에서는 컨텐츠를, Action Zone에서는 followup할 수 있는 옵션을 제공한다. 모멘트 화면을 스와이프하면 맨 오른쪽 처럼 Understanding Page가 나타나 빅스비가 이해한 것이 맞는지 사용자에게 묻는다.
빅스비는 스마트폰에 탑재되어 있기 때문에, 모바일 스크린을 자유롭게 사용할 수 있다는 장점이 있다. 음성만으로는 사용자에게 제공할 수 있는 정보에 한계가 있으므로, 음성으로 명령을 실행했을 때 이를 어떻게 스크린으로 자연스럽게 연결하여 결과를 보여줄 수 있는지가 중요한 UX 포인트다.
세션에서 제시된 Converstaion Model에는 사용자의 Request(ex-커피 주문해줘)에서 최종 Result로 이어지는 사이에 최종적으로의도를 확인하는 Input(ex-스타벅스에서 주문)과 Confirm(ex-결제수단, 주문종류, 장소확인) 단계가 존재한다. 어떤 Conversation Model이 필요한가는 서비스에 따라 달라질 것이고, 각 단계별로 나타나는 View는 서비스 스타일에 맞게 디자인할 수 있도록 다양한 디자인 컴포넌트가 제공된다.
이렇듯 외부에서 빅스비를 통해 서비스를 제공할 때 View를 Custom할 수 있다는 점은 Voice-to-Screen의 자연스러운 UX 설계에 있어 큰 도움이 된다. 앱 시장이 커지면서 UX가 계속 발전해왔듯, Voice 기반의 서비스 UX도 다이얼로그 뿐 아니라 스크린과의 연계를 기반으로 꾸준히 발전해나갈 것이라는 생각이 든다.
Takeaway 2.
The future of Voice Assistant is
'Personalized Multi-Device AI'
북미 AI 센터장인 Larry Heck의 세션 주제는 'The Future of Personal Assistants'였다. 그는 현재 AI 산업은 단지 시작에 불과하다며, 향후 AI 기술을 통해 인공지능 비서가 나아가야 할 방향에 대해 이야기했다. 크게 두 가지 방향을 제시하였는데 바로 'Personalization'와 'Multi-device'이다. 두 가지는 밀접하게 연관되어 있다. 개인화를 위해서는 여러 디바이스에서 사용자의 정보를 통합적으로 얻고, 디바이스 간 협업을 통해 개인만의 니즈를 채워줄 수 있어야 하기 때문이다.
다시 말해, Multi-device는 Personalization이라는 궁극적인 목적을 위해 필요한 환경이자 수단이라고 할 수 있겠다. Larry는 구글에서 삼성으로 온 이유 중 하나도 삼성이 모바일과 더불어 TV, 냉장고 등 다양한 디지털 제품을 생산하고 있으므로, 멀티-디바이스 환경을 갖춘 스마트홈을 만들 잠재력이 크기 때문이라고 했다.
그렇다면, 개인화를 위한 사용자의 정보는 구체적으로 어떻게 얻을 수 있을까? 여기에서 그는 사용자에게 권한을 주는 것(Empowerment)을 강조하였다. 즉, 사용자가 자신의 니즈를 시스템에게 잘 표출할 수 있도록 유도해야 한다는 것이다. 예를 들어, 영화관 뒷자석을 예매하고 싶다고 말했을 때, 시스템이 뒷자석이 어딘지 모르겠으면 좌석표를 보여주며 선택을 유도하는 식이다.
한번 사용자가 니즈를 표현했다면, 시스템은 이를 학습해 개인화된 시스템으로 발전할 수 있다. 앞선 예에서 사용자가 한번 뒷자석이 어딘지 선택했다면 시스템은 이를 기억해 다음에 뒷자석 요청시 바로 예매를 진행할 수 있게 되는 것이다. 특히 이러한 학습 과정은 네트워크 효과를 통해 극대화될 수 있다. 더 많은 기능/서비스가 통합되고 사용자가 많은 것을 시스템에 학습시킬 수록, 시스템은 빠르게 발전할 수 있다. 물론 학습된 데이터를 공유하는 과정에서 프라이버시 이슈를 가장 우선순위에 두어야 할 것이다.
정리하자면, 미래의 인공지능 비서는 '멀티-디바이스 환경'을 기반으로 항상 존재하면서(Always There) 사용자의 '개인화'된 니즈를 안전하게(Always Safe) 학습하여(Always Learning) 도움이 되는(Always Helpful) 방향으로 발전할 것이다. 인공지능 비서의 UX를 어떻게 디자인할지 고민 중이라면, 이러한 방향성을 가이드라인으로 참고해보면 좋을 것 같다.
사실 아직까지는 우리가 일상에서 Voice Intelligence의 존재감이나 유용성을 크게 느끼지 못하고 있다. 그러나 이런 컨퍼런스를 갈 때마다 모든 회사에서 AI 플랫폼의 승자가 되기 위해 치열하게 경쟁하고 있는 게 느껴진다. 혁명과 같았던 스마트폰, 앱의 등장과 함께 애플과 구글의 승리를 지켜보았기 때문일까.
궁금하다. 우리가 마주하게 될 앱 이후의 혁명은 과연 Voice Intelligence일까? 그리고 Voice AI가 맞다면, 그 플랫폼의 승자는 과연 누가 될까?