구글 IO 2019 구글 어시스턴트 인트로 세션 내용정리
안녕하세요, 리플러스입니다.
이번 구글 IO 2019 업데이트 내용들을 영상마다 하나하나 정리해드리고있습니다. 영어가 안되시는 분들도, 디자이너들도 이해하시게 쉽게 내용을 정리했으니 천천히 읽어보시길 바랍니다.
이번에 다룰 내용은 구글 개발자 키노트 중, 40분짜리. 구글 어시스턴트로 구현할 수 있는 실제 개별 액션에 대한 기능 / 어플리케이션에 대한 내용입니다
구글 IO 2019 - 구글 어시스턴트 인트로 세션 영상
https://www.youtube.com/watch?v=dpNrq_wiqGs
이번에 다룰 구글 IO 세션은 - VUI 관련입니다. 어시스턴트와 스마트스피커를 통해 실제 액션이나. 기능을 포함한 어플리케이션을 만들기위한 내용이구요. 이걸 선택한 이유는. 단순히 개발자뿐아니라 단순 컨텐츠 제작자도 제작이가능하게. 탬플릿과 마크업 언어를 통해 제작이 가능한점. 그리고 VUI 관련 부분이 앞으로UI 디자이너들이나 개발자들에게 피부에 와닿을 내용이기 때문에 선정했습니다.
실제로 내용을 보시면 컨텐츠 제작자는 탬플릿으로 제작이 가능하고. 안드로이드 개발자는 앱 액션을 통해 직접 명령을 내릴수있다는 얘기가 나오구요. 하드웨어 개발자의경우 스마트홈 SDK를 통해 쉽게 사용이 가능하단 소개가 나오네요.
초반에는 말그대로 구글 어시스턴트. vui 개념이나오기위한 역사와기반을 설명해주는 내용이구요. 이제는 대화를 통한 인터렉션. CUI (VUI라고 해도 무방합니다) 의 시대가왔음에대한 간단설명입니다. 여기서 이제 디바이스얘기가 나오는데요. 폰의경우는 구글 어시스턴트가 들어가게되어있고. 어시스턴트가 사용가능한 기기들이 폰 / ai 스피커로 나뉩니다. 이후에 다시 구글 어시스턴트를 통해 - 특정 행동이나 기능을 구현할수있게 해둔 플랫폼을 - 액션 온 구글. 이라는 형태로 묶었는데 - 이 이유는 간단히 이번에 추가된 구글 네스트 허브에도 이런 내용이 들어가기 때문입니다.
다만 앱에도 이런 내용이 어시스턴트 기반으로 들어갈수있을거라서. 여기에 굳이 액션 온 구글.이라고 넓게 명명을 해둔건. 추후 다른 기기들이 추가될 경우에. 그 내용들까지 포함하겠다는 의도로 보이네요
cui. vui는 실제로 우리가 검색엔진에 내용을 검색하는것과는 다르게. 더 불명확하고. 맥락이없는 - 긴 대화를 하게되는경우가 많습니다. 그러니자연스럽게 대화가 복잡해질수밖에없고. 오고가는 명령어나 데이터가 많을수밖에없죠.
게다가 지금 여기서 나오는 우측 내용을 보시면. 폰. 타블렛. PC. 노트북 외에도. 구글 네스트 (온도조절기능이 들어간 iot 홈기기)와 car os 관련. 그리고 헤드폰(?) 과 스마트워치가 등장하는데요. 차량까지는 안드로이드 car os 가 있으니 그렇다치는데 일단 네스트같은경우. 모르시는분들도 계실듯해서. 이미지를 좀 소개해드리자면.
요렇게 생긴. 2014년에 구글이 인수한 네스트랩스의 제품입니다. 이외에 구글의 라이브 통역이가능한 픽셀버드라던가 스마트 헤드셋같은것들에도 이런 대화형 기능을 집어넣겠다고 보는거니까. 기억을 해두시는게 좋을거같습니다.
이젠 말그대로 CUI가 기반이되는 환경이 만들어질거란얘기를 하고. 컨텐츠 제작자 / 안드 개발자 / 스마트홈 하드웨어 - 쪽에서 어떻게 연결할거냐. 얘길하는데 - 사설이좀 기네요
예시로서 가상의 스모어 만드는 사이트가 있다치고. 이 컨텐츠를 기반으로 실제 개별 내용을 만드는 예시를 보여줍니다. 여기서 스모어라느건. 마시멜로우랑 초코, 쿠키같은걸 같이 묶어서 만드는 간식종류인데. 별 의미는 없는 내용입니다.
관련주제에 대해서 검색할떄. 뉴스 / 레시피정보 / 관련 팟캐스트 등을 오디오기반검색으로 바로 연결해줄수있다는거고
실제 코딩을 보면 xml 형태로 해서 - 해당 키워드를 넣었을때 팟캐스트 채널은 어디로 연결을되게할거고. 이미지는 어떻게뜨게할거고. - 관련 에피소드는 뭐가있고를. 탬플릿개념으로 줘서. 안에 이미지 주소랑 - url 주소만 넣어주면 규격이 자동으로 검색되게 만들어주는 형식입니다.
요 부분은 개발자 키노트에서도 나왔었죠. 탬플릿개념으로 엑셀파일에다가 이미지나. 영상링크 + 텍스트내용만 채워넣으면 규격적으로 원하는 1.2.3.4단계로 순서가 나오는 규격을 만들수있단 이야깁니다. 실제로 컨텐츠를 구글을 통해 업로드할경우. 구글 문서 시트가 나와서 - 간단하게 입력만하면 되도록 되어있고. 개발자라면 당연히 코드로 반복규격만 수정 + 붙여넣기해주면됩니다
게다가 중요한게 faq라는 지점이생겨서 관련키워드를 입력 / 검색했을때. 실제 관련된 직접적인 답변을 컨텐츠 제작사. 회사. 서비스회사 등에서 바로 나올수있게 해뒀구요. 관련 키워드에대한 공식답변들을 직접 입력할수있게해뒀습니다.
이부분은 제이슨형식의 형태로 가게되어있고. 탬플릿이 나와있기떄문에 이역시도 단순하게 개발자가 입력할수있고. 이런 지점도 문서탬플릿이 존재할거같네요. 없더라도 수정 / 입력이 별로 어렵지않구요. 다만 한글입력시나 다른 언어로입력시엔 어떻게 지원이될지가 좀 궁금하긴합니다.
이미 이런 업체들은 howto 컨텐츠나 FAQ등을 이용하고있다는군요. - 말그대로 여러분도 하세요.라는 이야기죠.
이게 결과적으로는 구글 검색엔진에서 더 빠른 답변 + 개별 사이트에 들어가거나. 질문 페이지에 들어갈필요가없게만들기때문에 기존에 구글 검색엔진으로 찾는 결과값을 - 소비자들은 더 편하게찾을수있지만 기존 SEO나 마케팅 담당자들은 큰일이 난겁니다. 대부분의 이런 질문지점들을 사이트가 갖고있다기보다. 검색엔진이 갖고있게되면서 실제 트래픽이나.관련 정보를 위해 사이트 내부에 들어오는일이 더 적어질것이기때문이죠.
실제로 이 내용이 나오기전에. 카드탭형태로 검색 상단에표기되는. 이런 압축형 컨텐츠들이 SEO시장을 크게 뒤흔든적이있었는데. 이제는 이걸 '회사들이 직접'해야하는 상황이니. 반응이 어떨지 궁금합니다. 분명 여기관련된 마케팅 전문가 유튜버들이 시끄러울겁니다. 해당내용은 나중에 한번 다시 내용을 정리해보겠습니다.
결론적으로 보면. 말그대로 이렇게 규격 바뀌니까 기업들은 이거따라하세요. 란얘기고 규격을 확실하게 업데이트 / 관리하지않으면 검색결과에서 빼버리겠단거라서 개별 구글이 컨텐츠 검증을 하는게아니라. 이젠 회사들이 스스로의 지식에대한 내용을 검증해야하는 상황이된거네요.
이후에는 앱들이 너무많고. 복잡하니 앱을 깔아도 다시 들어오게되는 경우가 적어지는데. 결국 그냥 내가원하는 앱 찾기도 귀찮아하는 사용자가 많으니까. 앱을 바로 실행할수있게하거나. 관련된 예약 / 내부 정보를 다시 챗봇이나 / 어시스턴트 형태로 뽑아서 바로 보여주는 형태로의 연결을 제시합니다.
이젠 사실상 앱을 열기보다는. 어시스턴트나 OS가 다 해결하고. 결과치만 가져오는식의 제로UI 개념으로 간다는게 느껴지실겁니다. 제로 UI 개념은 다음 번역글을 읽으시면되시구요.
제로 UI 개념에대한 이야기
https://brunch.co.kr/@clay1987/96
말그대로 기존에 Duplex on web에서 나왔던 내용처럼 - 수많은 단계를 거쳐야하는 기존 GUI 방식의 한계점을 지적합니다. 그리고 대화형 기반으로 그냥 '이러이러하게해서 주문해줘'같은 단순한 명렁어로 모든걸 퉁치자.는개념입니다. 이렇게할경우 명렁어 내리고. 확인만 하면된다는거죠
이런형식이 만들어질경우. 이제 앱 디자이너들은 당연히 더 필요가없어질거고. 개별 플로우단을 vui로 실행할수있는 개발적인 설계구분이나 설계시에 - vui 기반 압축이가능한 영역들을 꼭 체크해야겠죠. 이미 몇몇 회사들은 이 기능을 사용한 상태고. 기존앱에 추가적으로 기능을더하면되는거라. 개선작업에도 별로 어렵지가 않다는게 요 내용의 핵심입니다.
OOO 앱을 시작해. 라는 관련된 내용의 '의도' 부분이 담긴 키워드가 start_intent 관련 내용인데. 이런 기본 의도지점들을 속성으로 정해놨기떄문에. 거기에 값만 연결해주면된다.는게 개발자들이할일이란 내용입니다. 필요한경우 개별 커스텀 기능들을 연결해야할수도있겠죠. 그리고 사용에따라서 업데이트가될테니 이런 기본 규격들은 계속 늘어날거구요.
이 역시도 기존 키노트에서 봤던 내용의 상세한 설명 / 반복입니다. 기능마다 액션 하나의 '의도'를 설정해놓고 실제 값이 어떤게 들어갈떄 실행이되는지. '내가 자주 먹던 그거' 라는 키워드에 - 특정 아이템을 설정하게되있네요. 이 예제는. 'the usual'이라는 키워드입니다. 물론이게 스모어라는 음식 예제라서 '자주먹던 그거'라고 설명드렸다는점은 - 헷갈리시면안됩니다.
현재는 금융 / 음식주문 / 차량공유 / 운동관련 앱에서 주로 이 내용들을 잡아놨지만. '우리쪽에 이런 부분도 기능 만들어주세요'를 다음 주소로 요청을 해달라는 이야기를 합니다. 업데이트 꾸준히 해주겠단 얘기죠
https://developers.google.com/actions/app/
해당사이트에는 액션 온 구글 문서의 action.xml 쪽 외에도 하단에 '기능개발 요청' 영역이있습니다. 여기서 제안해달란얘기네요.
https://developer.android.com/guide/slices/
이후에는 슬라이스 개념을 얘기하는데 기존 안드로이드 OS의 기본 규격들을 '잘라서' 재조합하는 내용으로. 기본 UI 재배치 + 설계 개념이 들어가네요
보시면 상단앤 예약지역 UI랑 하단엔 플레이어 + 갤러리가 합쳐졌다던가. 리스트형태으 UI와 슬라이더 UI가 함꼐 배치된걸 보실수있습니다. 이건 기존 앱 설계하던 사람들이하던걸. 이젠 개발자들도 더 쉽게 조합이가능해졌단얘기고. 사실상 기존에도 이런 기본 탬플릿들을 갖고 규격을 만드는데. 그게더 쉬워진단 얘기죠. 기본 OS공부가 중요하다는 애기가 더 중요해진상황이네요. 커스텀을 만들지않아도 재조합만해도 되는거니까요
세줄정립니다. 목소리 입력가능해졌고. 간단한 실행이 가능하고. 관련 속성들이 더 많이 나올거다.
자 이제 대화 플로우 / 설계관련된내용이나오는데요. 어떤식으로 대화하고. 유저가 실제 결정 / 수정을 하는지. 개별 커스텀 결과치에 대한 단어나. 표현등을 어떻게 잡아낼거냐. 그부분에대한 이야기네요. "맛있는거"로 해줘.라던가 "달큰한거" 로해줘.같은 상황을 어떤식으로 해석해서 추천메뉴를 줄거냐.같은건데.
구글의 다이얼로그 플로우.라는 프로그램을통해서. 실제 대화내용을 - 단어 단위로 잘라서 분석해서 실제 중요한 내용. 핵심 키팩트를 찾아내는 내용입니다.
기술적 기반으로보면 이런식으로. '구글아 나 스모어앱좀 불러와바바' 하면 '네 여깄습니다' 어떤게필요하세요? - 의과정을 다이얼로그 플로우가 불러온단얘기고. 기존 유저프로필 기반으로 '이게 앱실행을 시키겠다'는 의도로 받아들이고. 실행된 결과를 가져오는거죠. 그리고 그자체가 '구매의사'로 보고 '어떤거로 주문할까요?' 하고 묻는거고요. 그러면 사용자가 - '어...큼직하고, 바삭바삭하게 잘익은놈으로 해줘' 하면 - 이 과정에서 그나마 가까운 매칭된 녀석을 가져오는거고. 초콜릿 스모어중 어떤 초콜릿으로 할거냐. 라고 다음단계를 진행하는 과정입니다. 이 과정에서 구글 클라우드가 들어가는 도식이네요.
실제 다이얼로그 플로우에서보면 개별 스낵에대한 주문중에. 관련 키워드들이있죠.
이걸 자세히보시면 "OOOO에 AAAA 토핑에 QQQQQ 형식으로 가져가실거죠? 라고 중간중간 비어있는 함수처리된녀석들이있습니다. 저런식으로 대화규격을 만들어주고. 개별 주요키워드들과 우선순위. 대화의관계를 정리해두면 그걸기반으로 사용자의 대화를 인식 - 정해진 텍스트가 음성으로표기된다는 이야기입니다. 물론이게 어느정도는 시행착오가필요하겠지만 기본적으로 탬플릿 기반이고. 타사 사례를 통해서 역으로 이런 '인식된 속성들'을 역으로 분석해보는 과정도 꽤 중요하겠다싶네요.
특정 문장을 입력했을때. 세팅만 잘 해뒀다면 - 사이즈. 음식명칭. 초콜렛 타입에대한 부분을 각각 색상으로 바로 인식을 한걸 볼수있는데요. 말그대로 머신러닝 기반으로 해당 내용을 체크한것으로보이고. 이 부분을 세팅을 얼마나 미리 잘해놨느냐의 문제일거같네요.
이렇게 키워드를 입력해보면. 실제로 얘가 어떤식으로 인식을 했는지를 단어와 속성별로 키워드를 정리해주고 결과적으로 이게 '주문하려는 의도'랑 연관이되있는거다.라고 결과를 내온걸 볼수있습니다. 그러니까 개별 단어들을 통해서 - 미리 설정된 여러 의도파악중에 얘가 주문을하려는지. 클레임을 걸려는지. 아니면 칭찬을 하려는지. 장소를 물어보는지 이런 부분들을 자동으로 찾아서 - 인식할수있단 이야기죠. (물론 제대로 세팅을 해뒀을때의 이야깁니다.)
이 내용은 개발자 키노트에서 나왔던 내용인데. 실체가 이제좀 밝혀지네요. 기존 폰 api랑은 다르게. 개별화면에서 정말 1px 단위의 정밀한 컨트롤까지 가능한 - 신규 API를 오픈했답니다. 그게 일단 허브쪽에 오픈이된거로보이고요. html CSS JS.기반인거보면. 이제 '웹'기반으로 관련앱들을 만들게되니. 기존 웹디자이너들이나 개발자들은 당분간 할일이 좀 많아지겠네요. VUI 관련해서도 그나마 자바스크립트 기반 애니메이팅이나 화면전환 등도 실험적인게 쓰이긴할거구요.
웹앱기반의 인터렉티브 캔버스 api기반으로 - 웹앱이 대화를 인식하는데. 구글 클라우드기반. 다이얼로그 flow를 이용해서 여러 서비스를 만들라는 의도네요. 이건진짜 앱 -> 웹으로의 신호탄이라고봐도 좋을거같은데. 실제 얼마나 다양한 서비스가 나오는지. 기존 어학연습앱이나. 관련 인터렉션. 게임쪽의 방향 설정이 제일 궁금하긴합니다.
좌측 시안은 자바스크립트 코드구요. 우측은 HTML코드네요. 액션온구글을 파어베이스기반으로 진행했을경우의 규격같은데. '시작 의도를 파악했을 경우 - 해당 url의 'welcome' 상태값을열란얘기고. 실제 html은 인터렉티브 캔버스를 위한 스타일시트가 기존 CSS 파일처럼 들어가있고. href가 특정 url로 들어간거로봐서는 그냥 저런 규격을 넣어주면되는것으로 보입니다. 그게아니면 별도로 세팅을한 CSS겠죠. 바디부분은 뭐 별건없구. 하단에 API가 자바스크립트 형태로 불러오게 되어있는데 - 규격이 탬플릿 형태인거고. 개별 내용은 자바스크립트 개별 파일에 코딩을 어떻게하느냐의문제니. 이것도역시 자바스크립트 ' 원하는대로 자유롭게쓰세요'란 얘기네요.
정리하면 - 다이얼로그 플로우로 개별 대화인식을 하게만들란거고. 거기에서 캔버스 API를 써서 원하는거 아무거나 쓸 수 있다는거. 그부분이군요.
이제이게 폰에서도가능하냐. 마이크기능있는 노트북에서도 가능하냐. TV에도 마이크가 달려나올거냐. 차량 OS에서도 가능하냐. 이런부분이 중요해질거고. 기기관련 입력내용에대한 그림이. 상하드웨어 개발에따라 상황이달라지니 여기에맞게 개별 앱들을 지원해주란 얘기가 되겠네요. 웹개발쪽을 지향하는 UI 디자이너들에게는 먹거리나. 새로운앱 만들 시장이 넓어진거니. 상당히 반가운 이야기입니다.
스마트홈 디바이스 기반으로 ioT 연결하는거야 당연히 가능한거구요. 구글홈앱 + 구글 어시스턴트 기반으로 iot 연결가능하다.그얘기네요.
https://developers.google.com/actions/smarthome/
신규로 로컬 홈 SDK가 추가가된거고. 여러 개별 형식으로 물리기기에서 통신해서 여러가지를 연결할수있는 규격들이 오픈됐으니 사용하란 얘길 해줍니다.
단계별로 보면. 어시스턴트 -> ai 스피커 -> 실제 실행은 ai 스피커쪽에서 가네요. 그러니까이게 집안에있지않을때. 바깥에있을때.기준의 이야기로보입니다. 별도의공간에서. 어시스턴트로 - 집에있는 ai 스피커를 연동해. 다시 집안 iot 기기를 컨트롤 할 수 있다는 이야기죠. 당장 의미가 대단하게 있다기보다는. 추후에 기기가 더 많이 늘어났을때 의미가있을 얘기겠네요
1. 이제 사실상 제로 UI 개념 + 어시스턴트 기반의 vui로 GUI가 크게 줄어들게될겁니다.
2. 이런 대화형 입력을 쓰려면 딥러닝을 써야하는데 당연 구글 클라우드 플랫폼이나, 파이어베이스 쓰란 얘기구요
3. 개별 기기마다 음성입력, GUI 입력 등 상황이 다를테니 상황에맞춰서 세팅을 해주란 얘기고.
4. 회사들은 이제 검색결과에대한 뉴스, howto 컨텐츠, 팟캐스트, 레시피 등의 컨텐츠 규격들을 직접 관리해야합니다.
5. 그리고 이 규격으로 인해 개별 사이트로의 연결 트래픽이 많이 줄어들겁니다. (이 부분은 추후 마케팅 전문가 유튜버들이 이야기해줄 부분)
6.현재는 기본 의도 설정 부분이 많이 없는 상태지만. 점차 내용이 늘어갈테니 - 결국엔 자기들 클라우드 플랫폼 + 다이얼로그 플로우 쓰란 얘기구요.
7. 다이얼로그 플로우 기반으로 세팅만 잘해줘도 의도파악해서 - 단어확인도 커스텀으로 가능하니 많이써주세요란 이야기랑
8. 안드로이드 UI 잘라서 연결시킬수있게 아예 더 편리한 탬플릿방식을 제공하게됐으니. UI 디자이너는 더 필요없는 상황이 되고있단거고.
9. 인터랙티브 캔버스 API 오픈했으니. 구글 허브쪽 맘대로 웹앱 기반으로 건드릴수있으니. 웹개발자들 수요가 늘어날거고. 자바스크립트 중요성이 더 올라갈겁니다. 허브 쪽 컨텐츠 제작 쪽에서 웹개발자를 요청하는 경우도 생길거같네요.
10. 이외에는 홈 ioT SDK가 오픈되서. ioT관련 연관 써드파티 상품들을 연결하는 중심점이 될거고. 밖에서도 설정이가능하다.
이후에는 세션내용들이 어떤게 진행될지 얘기해주는건데.
순서대로 -
1. 안드로이드 앱 관련 어시스턴트 관련 세션
2. 웹마스터, 웹개발자와 컨텐츠 제작자들을 위한 어시스턴트 데이터 관련 세션
3. 개발자들을 위한 커스텀 액션 세션
4. 고난이도 어시스턴트 액션을 위한 10가지 실제사례
5. 스마트 디스플레이 기기나 타 기기를 위한 액션 구축하는법
6. 어시스턴트에 있어서 좋은 대화를 유도 / 기획하는 방식에대한 토크쇼
스마트홈 개발자들을 위한 세션
1. 스마트홈 개발자들을 위한 기초 이야기
2. 스마트홈 로컬 테크 (집 이외의 지역에서 연결) 관련 세션
3. 스마트홈 액션을 만들기 위한 툴 소개
--
미래에 대한 인사이트
1. 구글 어시스턴트 vui로 백만 유저 달성하기
2. 어시스턴트 샌드박스 데모를 만드는 방법 (실제 사용방식)
3. 디지털 어시스턴트 시대를 위한 기능구현 인사이트
요런 내용들이 나오는데. 이중에 스마트홈쪽은 솔직히 대단한건 없어보이구요. 실제 어시스턴트 샌드박스 데모 부분에대한 내용이나 실제 좋은 대화방식에대한 유도 / 기획방식에대한 부분. 그리고 고도의 대화액션구축하는 실제사례 10가지나 어시스턴트 데이터관련 세션이 좀 볼만한 내용같네요.
결국 PWA만들어서 웹앱형태로 웹개발자가 앱만드는 경우가 종종 생길거같은데. 사실 집안에 한대씩은 다 생길 가능성이 높고. 가격대도 착해서. 관련 킬러앱들이 분명 나올거고. 기존앱들을 허브용 앱으로 전환하는 작업이 진행될거에요. 스마트폰에선 동작하기힘들었떤 큰 몰입형 컨텐츠 + 애니메이팅의 필요도가 좀더 높아질거고. 자바스크립트는 당연 더 중요해지고. 음성입력수준에따라 그게 어디까지 - 교육용 외에 몰입형 컨텐츠들이 어떤게 실험이되는지. 그게 관건입니다.
이게 제2의 앱개발 시대같은 개념이라고 보긴 어렵고요. 그냥 당분간은 좀더 새로운시도가 조금은 생기겠구나.하는 정도로. 아주 얕은 희망이 생긴거로 보셔야할거같아요. 그리고 UI -> 사실상 디자인은 끝난거고 개발쪽만 남는 구조는 말그대로확정이네요. 제로 UI개념에대해서 미리 알아두시는게좋고. 실제 대화flow에대한 부분과 실제 웹개발 부분을 미리준비해두셔서 구글클라우드나 다른 azure 등으로 대화형 플로우를 다루실수있으면 유리한 상황이된다고 보시면됩니다.
개발난이도가 많이 낮아진셈이고. 고급기술을 돈만내면 더 쉽게 끌어다쓸수있는 상황이지만. 동시에 저거 트래픽에의한 소모금액을 어떻게 해결할거냐 + 오픈소스로 무료 기반으로 대체안되나. 에대한 기업들의 고민이 이어질겁니다. 결국 기존 업체들중에서 ai 자체개발 / 머신러닝 쉽게해줄수있는 모듈을 우후죽순 개발할거고. 대부분 망하면서 그중 몇가지만 네이버나 카카오 말고 제 3사로서 살아남을거고 이후에 이어지는 구글의 가격정책이나. 다른 경쟁에의한 솔루션 가격전쟁이 이어질거라는게 예상이 가능하네요. 고로 우리는 그냥 누워서 개발이나 공부하면서 - 안정적인 플랫폼 하나 잡아서 실제 서비스 설계 / 작업 / vui 기반 설계 + 실제 대화 flow + 챗봇부분만 다루면 일단은 안전빵이란얘깁니다.
이 내용은 UI 디자인 연구소 - 단톡방에 올려진 자료를 정리하여 만들어진 컨텐츠입니다.
저희 단톡방은 잡담이 불가능한 방입니다. 단톡방에 들어오시려는 분은 - 이용안내문을 꼭 확인해주세요!
단톡방 이용안내
https://brunch.co.kr/@clay1987/113