brunch

You can make anything
by writing

C.S.Lewis

by 자그니 May 24. 2016

구글 I/O 2016, 구글은 자신의 미래를 결정했다

당분간 구글은 인공 지능 회사라 불러도 좋다 

구글 I/O 2016이 막을 내렸다. 2016년 5월 18일부터 20일까지 열린 이 행사는, 당분간 역대 구글 I/O 가운데 가장 재밌었던 이벤트라고 기억될 것만 같다. 그만큼 무수히 많은 이야깃거리가 쏟아져 나왔다. 그렇지만 행사를 지켜보면서 든 생각은 딱 하나였다. 실리콘 밸리는 이제, 자신이 갈 길을 찾았다. 


대화형 인공지능, 시장으로 들어서다


이번 구글 I/O 2016의 핵심은 두 가지로 정리할 수가 있다. 핵심은 역시 인공지능이다. 구글은 이번에 인공 지능에 기반을 둔 서비스와 하드웨어를 중점적으로 선보였다. 그다음은 역시 안드로이드 생태계의 확산이다. 새로운 안드로이드 버전인 안드로이드 N을 소개하고, 여기에 탑재될 가상현실 플랫폼인 데이드림 등을 공개했다.

중요한 것은 분위기가 달라졌다는 사실이다. 예전에도 구글은 항상 새로운 것들을 구글 I/O에서 소개했다. 하지만 뭐랄까, 아직 완성되지 않은 것들을 미리 공개한다-라는 느낌이 강했다. 아직 어떤 것을 하면 좋을지 확실히 모르겠는데, 일단 이것저것 다 해 보겠다는 느낌이랄까. 그런데 올해 행사는, 앞으로 구글이 이쪽으로 가겠구나, 이쪽으로 방향을 잡았구나-하는 것들이 명확하게 보였다.

... 그러니까, 이번 구글 I/O 2016은, 지난 4년간을 집대성해서 보여줬다고 해도 좋겠다.

솔직히 말하자. 이번 행사에서 가장 눈길을 끌었던 구글 어시스턴트는, 이번에 새로 나온 기능이 아니다. 지난 2012년에 발표된 이후, 구글 나우나 안드로이드 웨어에서 계속 쓰이고 있던 기능이다. 그리고 그동안 사람들의 목소리를 들으며 데이터를 쌓고, 정보 처리 능력을 향상하였다. 구글에 주장에 따르면 자연스럽게 대화하는 것처럼 질문하고 답을 얻을 수 있는 수준, 대화의 맥락을 이해할 수 있는 수준까지 도달했다고 한다. 다시 말해, 이제 본격적으로 스마트폰 없이도 사용할 수 있는 때가 왔다.


인공 지능의 활용, 구글 홈과 알로


구글 홈은 그런 구글 어시스턴트를 효과적으로 활용할 수 있는 기기다. 구글 홈이 있으면 사용자들은 구글 어시스턴트에게 말로 명령을 내리고 결과를 들을 수가 있다. 스마트폰이 없어도 검색을 할 수 있고, 크롬 캐스트 기능을 통합했기에 음악을 듣거나 할 수도 있다. 네스트랩스를 인수해 얻은 노하우로 조명이나 에어컨, 난방 같은 사물 인터넷 기기도 쉽게 컨트롤 할 수 있다(고 한다.).

왠지 어디서 들은듯한 이야기라고? 맞다. 요즘 인기가 올라가고 있는 아마존의 음성 인식 어시스턴트, '알렉사'와 매우 비슷하다. 덕분에 구글 홈을 바라보는 시선도 따뜻해졌다. 예전 같았으면 성공 가능성을 반신 반의 했겠지만, 알렉사 덕분에 구글 홈의 성공 가능성을 높게 보는 사람들이 많아졌다.

구글 알로는 구글 어시스턴트를 적용시킨 메시징 앱, 그러니까 채팅 앱이다. 구글 홈이 말로 응답하는 비서라면 알로는 글로 응답하는 비서라고나 할까. 단순히 사용자와 인공지능이 1대 1로 주고받는 대화를 넘어서, 사용자와 상대방이 이야기하는 가운데에 끼어들어 3명이 대화하는 것도 가능하다고 한다. 문맥을 파악해 '대신, 빠르게' 답장할 수 있는 문장을 만들어 주기도 한다. 

또 왠지 어디서 본 것만 같다고? 맞다. 멀리 갈 필요도 없이, '라인'에서는 일본어를 쓰는 사람과 대화할 때 일본어 번역봇이 중간에 끼여서 즉시 언어를 번역해 준다. '카카오톡'에서도 검색 결과를 바로 보여줄 수가 있다. 그러니까 이미 있는 기능을 인공 지능을 첨가하는 방향으로 개선했다고 보는 것이 맞다. 페이스북과 MS에서도 열심히 개발하고 있는 기능이다.

... 그러니까, 지금 구글과 페이스북, 아마존, MS는 같은 방향을 향해 가고 있다.


결국 우리는 스마트 기기에게 말을 걸게 될 것이다


한 시장이 성장기인지 아닌 지를 이해하는 것은 어렵지 않다. 처음엔 이해하기 어려웠던 것들이, 어느 순간 '아, 이런 거구나'-하고 알 수 있게 되면 성장기가 시작됐다고 봐도 좋다. 그동안 개념만 있고 눈에 보이지 않았던 것들이, 어느 순간 원래 있었던 것처럼 자연스럽게 자리 잡아가기 시작한다. 아직 그런 시기가 왔다고 하긴 이르지만, 어느새 점점 스마트폰에 대고 말을 거는 사람들이 많아지기 시작했다. 

그런 변화가 자연스럽게 자리 잡으면, 그때부터는 이제 모든 것에 대고 말을 거는 사람들이 늘어날 것이다. 디스플레이 화면만 보면 자연스럽게 터치를 하려고 하는 우리들처럼. 그러니까 중요한 것은 인공지능이 아니다. 바로 '말'이고, 대화형 인터페이스다. 인공 지능은 잊어도 된다. 말로 걸고 받는 것만 생각하면 된다. 아니면 메시지를 보내거나.

예를 들어 이번에 구글이 발표한 듀오는 영상 통화 앱이다. 전화를 받기 전에 미리 상대방의 모습을 보여주기 때문에 좀 더 편하게 영상 통화를 시작할 수 있으며, 영상 품질도 뛰어나고 구글은 주장한다. 영상 통화 앱이야 쌔고 쌨다. 하지만 말로 걸고 받을 수가 있다. 누가 알겠는가. 나중에는 구글 자동 번역 기능이 탑재되어서, 화면 속 상대방이 말을 하면 자동 번역해서 밑에 자막으로 표시해 줄지.

안드로이드 오토도 이젠 스마트폰 앱 형태로 사용할 수 있게 된다. 굳이 안드로이드 오토가 장착된 차량을 살 필요가 없다는 말이다. 말로 어디로 가는 길 찾아달라고 하고, 전화받고 문자 보내고, 음악을 들을 수가 있다. 음, 원한다면 아마 지금 운전 중이니 나중에 전화하겠다고 상대방에게 말하거나 자동으로 문자를 보내줄 것만 같지만.


아직 문샷(Moonshot) 프로젝트들은 남아있다


안드로이드 OS도 새로운 버전을 선보였다. 바로 안드로이드 N이다. 여러 가지 소소하고 중요한 업데이트가 많이 있었지만, 귀에 확 꽂히는 것은 역시 가상현실 플랫폼 데이드림이 탑재된다는 것과, 앱을 설치하지 않아도 앱을 사용할 수 있는(...) 인스턴트 앱 기능. 그리고 심리스 업데이트 기능(= 잠수함 패치) 일 것이다(이미 출시된 폰들은 이 기능이 지원 안된다는 이야기가 있음).

... 가장 중요한 안드로이드 N의 과자 이름은 아직 '공모'를 하는 중이라고 하지만.

실리콘 밸리가 지금 당장 가고 있는 곳은 명백하다. 인공 지능을 활용한 대화형 서비스들, 아니 굳이 대화형이 아니라도 좋으니 인공 지능을 활용한 엔진과 서비스를 개발하고 상용화 시키는 것. 하지만 거기서 멈추는 것은 아니다. 무인 자동차, 우주 개발, 하이퍼 루프, 증강 현실, 개도국 인터넷 지원, 강한 인공 지능 같은 문샷 프로젝트들도 여전히 추진되고 있다. 그 중간쯤에 전기 자동차와 드론, 증강/가상 현실, 사물 인터넷이 자리 잡고 있을 것이고.

여전히 불안한 것도 있다. 대화형 인터페이스의 시대에, 이런 변화가 '영어권 사용자' 위주로 흘러갈 가능성이 높다는 것. 아니면 중국어라던가. 문샷 프로젝트들까지는 바라지 않는다고 해도, 당장 인공 지능 시대에 이 인공 지능이 내가 하는 말을 알아듣기나 할지 고민되는 일은 없었으면 좋겠지만 ... 조금 암담하긴 하다. 

그동안 실리콘 밸리 회사들은 과도기적 서비스를 끊임없이 선보이며 데이터를 수집하고, 수집된 데이터를 통해 이를 강화시켜왔다. 윤리적 문제를 떠나 어쨌든 그들은 그만큼 인공 지능을 성장시킬 자료를 모았다. 우리는? 글쎄. 항상 말하지만 데이터는 시간이 필요하다. 그런데, 우리는? 모르겠다. 그냥 하나는 분명하게 얘기할 수 있다. 지금은 인공 지능이란 말을 하지만, 곧 이 인공 지능도 당연하게 여겨져 모두 잊어버릴 것이라는 것을. 부디 그전에는, 인공 지능이 내가 하는 말을 잘 알아들을 수 있기를.

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari