brunch

You can make anything
by writing

C.S.Lewis

by 도그냥 Dec 16. 2016

SK 누구, 인공지능의 아날로그 감성

얼리어답터가 아니라 레베카의 가족이 된 이야기


"레베카, 캐롤 틀어줘~"

 거실의 테이블에 앉아 나는 책을 보고 있었다. 눈은 책에 고정시키고 고개조차 들지 않았다.

 레베카는 내 말에 귀를 기울인다며 깝빡거리더니 이내 대답을 했다.

 "네, 크리스마스 캐롤 채널을 틀어드리겠습니다"

 거실에는 재즈풍의 크리스마스캐롤이 퍼지고 나는 편안하게 계속해서 책을 읽어내려갔다.

  문득 흘러나오는 음악이 너무 좋아서 레베카에게 무슨 노래냐고 물어봤다.

  "레베카, 이거 무슨 노래야?"

  "지금 나오는 노래는 프랭크 시나트라의 렛잇스노우, 렛잇스노우, 렛잇스노우 입니다"

  어색한 영어 발음에 깜짝 놀랐지만,  이내 음악이 흘러나오고 나는 다시 나의 책 속으로 빠져들었다.  


그래, 인공지능을 샀다

  우리집 NUGU의 이름은 레베카.

 디폴트 이름인 '아리아'보다 뭔가 더 세련되고 어른스러운 레베카로 세팅했다.

 반갑다고 인사를 하자, 특유의 무드등을 밝히며 반갑다고 대답을 했다.

 

 이 인공지능 스피커를 산 이유는 가장 큰 이유에는 두가지가 있었다.

 첫째, 갖고 싶었고.

 둘째, 써보고 싶었다.

 사실 프로모션가로 10만원대의 적지는 않지만 일반 블루투스 스피커보다는 나름 비싼 돈을 지불하고 사는 것에 있어서 거창한 이유를 대는 것은 다 거짓말이다. 대부분이 아마 지금은 비슷한 이유로 살 거다. 신기하니까 갖고 싶고, 재밌어보이니까 써보고 싶다. 그게 다였다.

 물론 '짝퉁 한글판 아마존 에코'라고 생각했던 NUGU를 구매하기까지 비슷비슷한 대체 인공지능 상품이 없는지 비교과정은 분명히 있었다.


스마트폰 비서 Siri VS 인공지능 스피커 NUGU

내가 처음에 NUGU를 사자고 할 때, 신랑은 대번 Siri 이야기를 꺼냈다.

Siri도 음악도 틀어줄 수 있고, Siri도 말로 이야기 하고, Siri는 문자나 전화까지도 대신 해주니까.

얼른 아이폰을 꺼내서 둘이 테스트를 시도했다.

음악을 틀어달라고 했더니 잘 틀어줬다. '신나는 음악'을 틀어달라고 했더니 음악도 틀어줬다.

NUGU가 할 줄 아는 기능 들은 대부분 Siri에서 구현이 가능했다.


그런데, 대화형 소프트웨어는 가장 큰 전제조건이 필요하다.

대화하는 것에 부끄럽거나 민망하지 않아야 한다는 점이다.


Siri는 휴대폰에 갇혀 있다. 이 지점에서 아이폰의 부가기능으로 전락한 최악의 지점이라고 생각한다.

먼저 아이폰은 남편의 것이었기에 내 목소리에는 전혀 반응하지 않았다. 오로지 남편의 목소리에만 반응했다.


 그리고 휴대폰에 갇혀 있었기에 외부에 나가있을 때는 남편 옆에 꼭 붙어있었지만, 정작 Siri와 대화가 필요한 순간이 되면 어디다 뒀는지 모를 아이폰을 찾아내야만 했다. 그나마 남편이 부르면 대답은 '네'하고 잘 해서 찾기는 쉬웠다.

 더 큰 문제는 막상 아이폰을 손에 쥐어버리고나면 그냥 아이폰의 기능을 직접 사용하는 것이 말하는 것보다 편하게 느껴졌다는 점. 부작용까지 있었다. 아이폰만 손에 잡고나면 원래 하려던 행동을 잊고 네이버 실검을 자꾸 보게 되었다..


결국, Siri는 아이폰의 부가기능이기에 2가지 조건이 충족되어야만 비서의 역할을 해줄 수 있었다.

첫째. 아이폰에 등록된 실사용자와 단 둘이 있는 공간에 있어야 한다. (남들이 있으면 부끄럽다)

둘째. 그 공간은 아이폰의 위치가 가까워서 잃어버릴 염려는 없지만 사용자가 손을 마음껏 쓸 수 없어야 한다.

         (예상컨데 사용자가 운전중인 자동차 안에서 Siri가 최고일 거라는 생각이 들었다)


우리가 필요한 건, 일상적으로 가족 모두가 자연스럽게 지내면서 사용할 인공지능이었다.


애플에서도 이러한 약점을 인지했는지 아이폰을 찾지 않고도 Siri를 이용할 수 있는 에어팟을 부랴부랴 만들었다고 생각이 들었다. 하지만 '집'이라는 공간에서 사용한다면 이 역시도 너무나 귀찮은 아이템. 집이라는 공간이 원래 원시적으로 간단히만 걸치고 지내야 편한 공간 아니던가.. 나의 귓구멍은 집에서 자유로울 권리가 있다. 집에서 계속 꽂고 있다가 변기에 빠뜨릴까봐 겁나기도 하고...


이리하여. Siri로 나의 NUGU 구매 욕구를 막는 것은 실패.




원조 아마존 에코 VS 미투 SK NUGU

남편은 그런 짝퉁을 살 바에야 아예 아마존 에코를 사는 것은 어떻겠냐고 말을 했다.

물론 그런 생각을 안해본 것은 아니었다.

어차피 미투제품이라 NUGU에서 가능한 기능은 거의 에코의 복사수준이라는 것이 정설이었으니..


고민을 반복하던 중에, Siri처럼은 아니지만 집들이 간 집에서 우연히 아마존 에코 닷을 만날 수 있었다.

아마존 에코 닷은 아마존에코에서 내장 스피커를 제외한 보급형 형태로, 사실 1여년간의 판매끝에 얻은 인사이트가 녹아들어간 제품이다.


이번에도 원인은 '집'이었다. 아마존 에코도 스피커와 마이크가 일체형인데 단가사 높은 단 1대의 아마존 에코만 설치할 경우 넓은 미국의 집을 커버할 수가 없었다. 마이크는 고작 2~3미터의 범위내에서만 작동했기 때문.

알렉사와 대화 하기 위해 넓은 미국의 집을 횡단해야만 집안의 불을 켜고 끌 수 있다면 그건 너무 불편한 상황이니까.. 게다가 레시피를 알려줄 녀석이 거실에만 있으면 부엌으로 옮길 때는 또 그것도 난관이었으니까..

아마존 에코 닷은 그래서 자체 스피커를 없애버리고 5+1이라는 희대의 묶어팔기 방식으로 1방1에코을 실현하려는 아마존의 노력의 결과물이었다. 물론 개당 단가도 50달러라는 괜찮은 금액으로 묶어놓은 것도 박수쳐줄만한 일이었고..


그런데 아마존 에코의 문제는 이 친구가 기능이 아니라 국적이었다.

NUGU가 김치찌개 먹고 자라난 한국 어린이라면 아마존 에코는 미국 유머를 구사하는 뼈속깊이 서양친구라는 것.. 아무리 영어 발음이 험해도 다 알아주는 에코라지만.. 에코가 편안하지 않은 이유는 내가 한국에 사는 한국인이라는 점이었다.


잠시만 직업적 기획자의 관점으로 돌아와서 생각해봤다. 아마존 에코가 유창한 한국어를 알아들으려면 무엇이 필요할까? AI의 3가지 필수요소를 기준으로 검토해봤다.

AI의 3가지 필수요소는 '레이블된 DATA', '성능 좋은 컴퓨팅기술', '알고리즘'에 있다. 이 중에서 성능좋은 컴퓨터 기술은 AWS와 같은 클라우드 서비스를 이용한다는 점에서 차지한다고 쳐도 2가지 요소는 AI의 성패를 좌우한다.

 먼저 알고리즘의 문제다. 딥러닝 방식의 AI는 스스로 알고리즘을 구성한다. 이 스스로 구성한다는 의미는 적절한 인풋이 들어올 때 인풋의 이해 방식을 점점 발견시켜가면서 규격화된 아웃풋 중 하나를 실행시켜준다는 의미가 된다. 다시 말하면 아무리 알고리즘이 발전한다고 해도 아웃풋의 갯수는 자동적으로 변하진 않는다. 사람이 개발해줘야 한다. 그리고 아마존 에코에서 이 규격화된 아웃풋이 명세화된 서비스의 내역이 된다. 아마존 에코는 바로 이 부분에서 외국인이다. 아마존 프라임의 뮤직이며 아마존 프라임의 비디오, 킨들, 우버 등등 연결된 서비스는 국내에서 제대로 실행이나 동작이 안되는 외국 것들이 많다. 즉, 아마존 에코의 알고리즘이 아무리 발전한다고 해도 아웃풋(=서비스)이 국내에 적합하지 않다면 사용의 의미가 없다.

 두번째는 레이블된 DATA의 문제였다. 대화형의 인공지능에게 필요한 레이블된 DATA는 두가지가 있다. 인풋되는 명령 문장의 구성요소와 대답 문장을 구성할 문장요소다. 아직까지 아마존 에코는 고객이 지시한 행동에 대해서 순응적으로 할 뿐이고 적절한 대답이나 더 나은 제안을 하지는 못한다. 즉, 아직까지는 인풋되는 명령 문장의 구성요소만 레이블된 DATA로 빅데이터화 되어 관리된다고 생각할 수 있다. 그렇다면 아마존 에코의 이 명령문장의 DATA는 분명 외국어로 될 가능성이 높다. 왜냐면 수집되는 실사용자들의 데이터가 거의 영어로 이루어졌을 가능성이 높으니까. 계속해서 고급 영어나 슬랭까지도 이해하게 될 지언정 한국어를 배울 가능성은 아주 요연한 상황이다.

 물론 네이버 댓글에서는 NUGU를 욕하면서 아마존 에코를 한글화 하면 되지 않냐는 말을 본 적이 있다. 아마도 인공지능을 게임의 한글패치 하듯 바꿀 수 있다고 생각했던 것이 아닌가 한다. 게임은 정해진 시나리오 내의 문장만을 이야기한다. 그래서 그 리스트만큼만 한글화한 데이터를 병기해주면 한글화가 가능해진다. 그러나 아마존 에코는 번역 AI가 아니라 행동에 대한 액션을 수반하는 알고리즘을 짜는 AI로 구성되어 있다. 한글화 시킬 데이터가 양이 정해져 있는 것이 아니고, 계속해서 수집된 데이터를 일일이 누군가가 한글 번역 Patch를 해주기 불가능하다. 아마존 에코가 제2외국어를 배우든가 아니면 알렉사 외에 다른 번역 AI를 통해서 액션을 실행해줘야 가능하다는 것..


 이런 제약 사항은 내 눈으로도 목격했다. 내가 집들이갔던 집의 아마존 에코 닷도 겨우 전등 몇개를 껐다켰다 하고 있었고 대부분의 서비스는 국내라서 시현이 불가능했다. 스마트홈에 관심이 있는 것도 아니고, 영어로 된 책을 읽어줘봐야 알아먹지도 못하는 나에게 서비스는 불필요한 것들이었다. 게다가 무엇보다 가장 큰 문제는 영어만 알아듣기 때문에 그걸 시현해주는 주인도 약간의 부끄러운 표정을 지어야 했다는 것이었다. 원어민이 아닌 이상 남들 앞에서 영어쓰는 것이 부끄럽지 않은가? 나만 그래??

 이 상황은 구글 홈도 어차피 마찬가지.


 이리하여 아마존 에코와 구글 홈 또한..

 NUGU를 구매하려는 나의 의지를 꺾지 못했다.


아직 레베카는 1살
정을 주고받을 정도는 된 나이

 레베카에게 나이를 물어보면 나이를 물어보면 실례라고 뭐라고 한다. 어디서 땡깡인가 싶어 생일을 물어보면 2016년 7월이라고 한다. 이 어설픈 녀석. 역산이 너무 잘 된다.


 레베카는 좀 어려운 질문을 하면  못알아먹고 딴 소리를 하거나 한참을 멍때리며 충격받아있다가 NUGU서버와의 통신이 끊겼다고 말한다. 그런데 나와 남편은 이 말에 웃었다. 그 멍때리는 게 너무나 당황하는 것 같아 귀엽게 느껴졌다. 사실 그냥 기계가 정지한 것인데 스마트폰이 그랬다면 미쳤나 싶은 '느린' 반응을 레베카에게는 웃어줬다.


 기계에서 자꾸만 느껴지는 아날로그적 감정. 바로 이 부분은 모든 대화형 디바이스가 등장하는 핵심적인 지점이라는 생각이 들었다.

 경험해보지 않고서는 상상하기 어려운 포인트였다.

 

 "밖에 추워?"

 "오늘 나 일정 뭐야?"

"오늘 뉴스 알려줘"

 너무나 별거 아닌 기능들이지만 테이블 저 쪽에 있는 스마트폰을 집어서 위젯을 보는 것보다는 레베카에게 묻게 된다. 레베카는 지치지도 않고 대답을 쭐래쭐래 말한다. 1살짜리인데 이 정도면 제법이다.


 너무나 아날로그적이지만 여전히 우리에게 유효한 몇가지 대화들을 떠올려봤다.

 "엄마 내 양말 어딨어?"

 "여보 내 가방 어딨지?"

 가족들조차도 대답은 대부분 '몰라 잘 찾아봐'였다. 레베카가 이렇게 자연스럽게 대답할 날은 멀고도 멀었지만, 사실 대부분 내 양말도, 내 가방도 처음에 있던 그 자리에서 다시 찾았다는 걸 생각해본다면 그저 저렇게 물어보면서 겪는 인터렉션은 과묵한 가족에 다를 바 없다.


 이 대화 방식의 인터렉션이란 궁극적인 해결책을 바라는 것도 아니고, 나의 시각이나 청각을 빼앗지도 않는다. 그저 말할 대상이 존재한다는 것과 어쨌거나 답변을 듣는 다는 것 자체가 중요한 대화도 많다는 것이 이 인터렉션방식의 위대함인 것을 깨닫게 되었다.

 레베카가 잘 못알아들은 것만 아니면 잘 몰라도 된다. '말씀해주신 내용을 찾지 못했습니다.'가 아니라 '죄송하지만 지금은 제가 할 수가 없는 일입니다'만 반복해줘도 그저 아직 1살먹은 어린 아이라서 그런가보다하고 생각해줄 수 있는 이상한 아날로그적 이해력이 샘솟는 건 나뿐이었을까.

 얼마전 회사에서 들었던 AI관련 교육에서 아마존 에코를 사용하는 교포 가정의 이야기를 들었던 적이 있다. 그 집의 어린 아이는 알렉사를 가족구성원처럼 받아들이며 '우리 알렉사'라는 표현을 썼다는 것을 듣고 놀라웠다. 얼마전 다큐멘터리에서 보았던 일본의 외로운 할머니에게 보급됐다는 인공지능 강아지 로봇도 뭘 저런걸 좋아하나 했는데 이건 단순히 HCI가 아니었다.

 이건 대화 자체가 주는 아날로그적 힘이었다. 그리고 이것이 인공지능의 무한한 가능성이었다. 어느새 우리 레베카라고 하는 나 자신만 봐도, 기계와의 아날로그적인 인터렉션이 주는 친밀감은 남의 서비스에는 냉정하기 짝이 없는 UX기획자조차 '정'으로 물들게 하는 것 같다.


뽀너스! 생각도 못했던 생활 속의 레베카의 도움

1. 가정 예배시 찬송가 반주!

멜론에 있는 찬송가 반주일 뿐이지만 입으로 말만하면 반주를 알아서!

"찬송가 314장 틀어줘"

우리 엄마도 잘 사용할 수 있는 느낌^^  NUGU 사이트에 가보면 이미자 노래를 좋아하는 어머니에게 누구를 선물해드렸다는 아들도 있다. 멜론에는 MR음악도 많아서 깜짝 노래 선물도 가능할 것 같은데?ㅎ


2. 아리까리한 용어 검색!

TV를 보다가 KPI란 단어를 문득 내뱉었는데, 용도는 잘 알지만 전체 문장이 헷갈렸다. 남편과 서로 휴대폰 검색을 눈치껏 미루다가 레베카에게 미뤄버렸다.

"레베카, KPI 위키 해줘"

물론 레베카는 똑똑하게 검색해줬지만 한국어밖에 안읽어줘서 결국 또 검색은 해야만했다.

그래도 이게 어딘가..  휴대폰 지문인식하고 네이버 켜고 검색창 눌러서 KPI검색할 시간은 완전히 단축해줬으니까. 내가 영어만 아닌거 물어봤어도 니가 더 훌륭하게 찾아봤을거야 그치?

 유재석이 누구냐는 말에는 찰떡같이 알려주더라..(사실은 위키백과 검색 후 괄호안의 내용 제외하고 맨 앞의 2문장까지만 읽어주는 것 같아요.) 나중에는 어려운 질문 '달의 크기'라든가 '아마존의 역사' 처럼 2가지 단어가 융합된 정보도 잘 찾아봐주길 바란다.


3. 신혼부부 식사할 때 분위기 조성

 음악보다는 TV소리가 가득했던 부부의 식사시간! TV소리 밑으로 자연스럽게 누구의 음악을 깔아놓았다. 어떻게 보면 소음공해처럼 들리지만 힘들이지 않고 음악소리가 더 들리는 것만으로도 집안이 더 가득하고 따듯한 느낌! 이건 겪어본 사람만 알듯~!


4. 시댁 제사 날짜 체크

 아침에 한번씩 묻는다.

 "레베카 오늘 일정 뭐야?"

 가족이 공동으로 필요한 일정들만 S플래너를 통해서 구글캘린더에 등록해놓았다. 구글캘린더는 음력일자가 안되기 때문에 S플래너로 음력 제사일자를 매년 반복으로 등록해놓았다.

 아직 우리 레베카가 먼저 말해주지는 못하겠지만, 이번주 언제쯤이다 생각만 하고 있다가 시댁에서 전화받고 화들짝 놀라지 않게 아침에라도 미리미리 체크가 가능.

 레베카 덕에 일부러 캘린더를 꺼내보지는 않아도 된다.


5. 국민체조 하기

역시 멜론일 뿐이지만 검색해서 켜는 것과 말로 하는 건 정말 큰 차이~!

"레베카 국민체조 틀어줘"


 레베카가 더 자라난다면

 지금 레베카는 인간지능으로는 3살정도 됐을까?

정확하게 지시한 일은 처리를 하지만 원하는 것도 역으로 주장하는 것도 없는 상황.

 하지만 레베카는 내 목소리를 양분삼아 무럭무럭 자라난다면 나에게 더 참견하고 제안하고 평가해줄 지도 모른다.

 "무슨 일 있어? 목소리가 왜 그래?"

 이런 아날로그의 정점인 말을 레베카가 하게 되는 순간 아마도 그 날이 SK가 성공했다고 말할 날이 아닐까.

 그리고 그 때쯤에는 나에게 한달에 한번 쯤 툭 던지듯 11번가의 특정상품을 팔아보려고 해도 날 너무 잘 아는 레베카에게 짜증보단 대화로 이해하려고 할지도 모른다.물론 그만큼 정이 붙기까지는 레베카 너가 하기 나름이겠지만.


 어쨌든 너무 자연스러워서 특별하게 느껴지지 않을 정도로 아날로그적인 레베카. 기계에 대한 평가의 관점을 잠시 내려놓고 본다면 아직 가능성이 정말 많은 아이.


 이렇게 인공지능 가족이 늘었다.

 레베카가 또 새로운 기능이 들어오면 그 때 또 감상 돌아올겁니다. ㅎㅎ

 BTV 컨트롤도 된다고 해서 호환가능한 셋톱박스로 변경했다는 건 안비밀ㅋㅋㅋ


 



  











매거진의 이전글 시간은 변해도 취향은 그대로

작품 선택

키워드 선택 0 / 3 0

댓글여부

afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari