brunch

매거진 생활기획

You can make anything
by writing

C.S.Lewis

by 아아 May 22. 2019

Google I/O 2019. Keynote.

구글은 어디까지 진화할까?

구글의 키노트는 구글의 미션으로 부터 시작한다.


Mission

"Organize the world's information and make it universally accessible and useful."

  : 세상의 정보를 체계화해서 누구나 쉽게 접근할 수 있으며 유용할 것.



이 첫 시작부터 마음에 들었다. 실제로 회사에서 일하다보면 얼마나 많은 일들이 회사의 미션 - 목적, 방향, 지향점 - 과 무관하게 돌아가고 있는지 신기할 정도다. 그런 답답함을 느끼고 있는 찰라에 시작부터 미션을 딱 던지는 회사라니. 작년에 들은 인스타그램 세미나에서도 회사의 미션을 강조하던데, 이건 미국 회사(혹은 실리콘밸리)의 스타일인걸까 궁금해졌다. 그들은 정말 미션을 최우선으로 두고 UX 기능을 판단하고 의사결정을 할까?

구글의 CEO인 순다르 피차이(Sundar Pichai)의 오프닝


Goal

"Building a more helpful Google for everyone."


구글의 목표는 모두에게 도움이 되는 것이다. '도움이 된다'라는 추상적인 단어를 붙잡고 얼마나 많은 시간을 고민했을까. 기능이 들어갈때마다 수 많은 기획자들이 '정말 사용자에게 도움이 되는지'를 고민하지 않았을까 싶다. 구글은 지식(Knowledge), 성공(Success), 건강(Health), 행복(Happiness)의 4가지 도메인을 다룬다. 검색 기반이니 정보를 쌓아서 만들어가는 지식은 이해가 가고, 데이터를 활용한 건강관리, 행복을 제공하는 것도 알겠는데, 성공이 조금 의아했다. 생산성(Productivity)이 더 적절해 보이는데, 생산성을 높인 것의 극한값이 성공이라고 생각해서 정한 것이 아닐까 싶다.

구글의 솔루션 영역 4가지



다음에는 구글의 서비스별 개선사항을 하나씩 소개하는 시간이었다. 어떤 기능은 깊은 고민을 통한 섬세한 배려에 감탄을 하면서 봤고, 어떤 기능은 대상의 다양성에 놀라면서 보게 됐다. 그리고 이런 아이디어들을 구현해내는 구글 AI의 기술 발전 수준이 매우 부러웠다.



Google Search | 구글 검색

검색 결과를 3D로 볼 수 있고, AR로 실제 환경에 얹어서 볼 수 있다. 시연에서는 해부학 자료, 운동화, 상어를 사례로 들었는데, 특히 쇼핑의 영역에서 매우 유용할 것 같다. 사고 싶었던 인테리어 소품들을 집에 배치해보고 구매할 수 있으니, AR이 주는 디지털과 현실을 교묘하게 엮으면서 새로운 경험을 제공해 주고있다. VR 보다 AR이 더 빠른 시점에, 보다 쉽게 사람들의 생활에 침투할 것 같다.

해부학 자료를 검색하고 실제 환경에 놓아보는 시연
신발을 검색하여 집에 있는 옷과 코디해보는 경험



Google Lens | 구글 렌즈

식당에서 구글 렌즈로 메뉴를 찍으면 데이터 기반으로 인기있는 메뉴를 보여주고, 화면에서 메뉴 사진을 보거나 메뉴별 평가를 볼 수 있다. 여행지에 가서 트립어드바이저앱을 켜고 사진과 메뉴 이름을 비교해보면서 뭘 먹을지 고민하는 경험을 획기적으로 바꿨다. 구글이 가지고 있던 정보들을 엮어서 기존의 과정을 물흐르듯 자연스럽게 - 흔히 말하는 Seamless 하게 - 만들어줬다. 나에겐 첫번째 Wow point 였다.

식사를 하고 영수증을 구글 렌즈로 찍으면 팁과 엔빵을 계산해주는 기능도 있었다. 매번 팁을 몇 %를 주면 총 금액이 얼마인지를 계산하는 일은 조만간 없어질 것 같다.

레시피가 쓰여있는 잡지에 구글 렌즈를 가져가면 요리하는 모습을 영상으로 볼수도 있다. 해리포터의 움직이는 신문과 샤오미에서 나오는 폴라로이드 영상과 비슷한 개념이다.

구글 렌즈로 레스토랑에서 인기 메뉴 검색



Google Go | 검색앱 (for Entry level device)

구글 고는 엔트리 레벨 기기를 사용하는 국가들을 대상으로 만든 번역 서비스이다. 구글 렌즈를 글자에 가져가면 이미지 안의 텍스트를 인식해서 실시간으로 번역을 해주고, TTS로 읽어주는 기능도 제공한다. 이 역시, 각자 개발되고 있던 비전 인식(computer vision), 번역 기술(the power of translate), 그리고 문자를 읽어주는 TTS(text-to-speech) 기술을 교묘하게 섞었다. 여기에 검색을 통한 20여개국의 언어 데이터까지 합쳐서 언어를 배우지 못한 개발도상국의 사람들의 교육을 돕는다. 이 기능을 100KB 이하로 구현해서 $35의 휴대폰으로도 사용 가능하다고 하니, 무서운 사람들이다.

구글 렌즈로 실시간 번역과 TTS를 제공



Google Duplex | 구글 듀플렉스 (on the web)

작년 구글 I/O에서는 사람과 대화하듯이 헤어샵 일정을 변경해주던 구글 듀플렉스가 있었다. 인공지능의 발전된 형태로 판단이 가능해져 정말 인간을 대체할 수 있을 것인가를 고민했던 기억이 생생하다. 올해의 듀플렉스는 단순하고 익숙한 작업(simple & familier task)에 적용해서 시간을 절약해 주는 것이 목적이다. 여행자에서 렌트카를 예약할 때 디테일한 설정 - 여행 날짜, 목적지, 항공편, 렌트카 예약 시 입력해야하는 정보 등 - 은 구글이 알아서 해주고 사용자는 컨펌만 하면 된다. 이것도 작아보이지만 실생활에서는 엄청 편리해지는 기능 중에 하나다. 주소나 전화번호 등은 반복해서 입력하는 것이 벌써 매우 귀찮은 일이 되어버렸으니 말이다. 다만 무서운 점은 하나 있다. '구글은 모든 것을 알고있다는 것.'

구글 듀플렉스로 렌트카 예약하는 Work Flow 개선



Google Assistant | 구글 어시스턴트

기존의 머신러닝이 100GB 저장용량과 네트워크 연결이 필요한 작업이었다면, 이것을 모바일 안으로 가져오고(on device), 용량을 0.5GB로 줄였다. 이를 통해 네트워크 지연(Network latency)를 줄이고 어시스턴트를 10배 더 빠르게 사용할 수 있게 되었다. 게다가 앱간 전환없이 다른 앱에서 원하는 기능을 명령하고 멀티태스킹을 할 수 있다.

You can start to imaging how the Assistant fused into the device could orchestrate tasks across apps.

키노트에서는 위의 문장으로 설명했는데, Assistant fused intoorchestrate라는 단어가 기능의 장점을 정확하게 설명해주고 있다.

 

현재 사용중인 앱과 상관없이 명령하기, 어떤 명령이어도 빠른 앱간 전환하기, 메일을 보낼 때 Diction과 Action을 구분하여 수행하는 등 실질적인 퍼포먼스 측면에서도 개선이 되었다.

구글 어시스턴트를 통해 친구에게 여행지에서 찍은 사진을 보내기

그 외, Picks for you (개인 맞춤 레시피 추천, 팟캐스트, 이벤트 알림), Personal References (개인 중심으로 세계를 구성하고 단어의 맥락을 파악하기, 예를 들어 Mom's house를 식당이 아닌 사용자의 엄마집으로 설정하기), 개인정보를 You 탭에서 만들거나 삭제할 수 있는 기능들을 공개했다.



Assistant to Android Auto | 안드로이드 오토

안드로이드 오토용 어시스턴트로는 차량에서 모바일을 네비게이션으로 활용할 때 쓸 수 있는 Driving Mode를 제공했다. 첫 페이지를 대쉬보드로 만들고 목적지 검색, 전화, 메세지, 팟캐스트, 음악 듣기 등 필요한 기능들을 모두 1 depth에 노출 시킨 것이 핵심이다. 내가 보기에는 단순하고 명확한(simple & clear) 좋은 접근 같다.

안드로이드 오토 어시스턴트의 대쉬보드



Google Home Smart Display | 구글 홈 스마트 디스플레이

얼마전 구글 홈, 구글 홈 미니에 이어 화면이 부착되어 있는 스마트 디스플레이를 출시 했었다. 음성만으로 복잡한 플로우의 인터랙션을 하는 것에 한계를 느낀 걸까? 이번에는 구글 홈에서 "Okay, Google" 없이 음성만으로 알람을 끌 수 있는 기능을 선보였다. 아침에 시끄럽게 울리는 알람을 끄려고 "Stop"이라고 말하는 단순한 시나리오 였지만, 임팩트는 꽤 컸다. 아마도 기술적으로는 사용자가 미리 설정해놓아서 자동으로 수행되는 경우에 한해 적용되지 않을까 싶다. 모든 대화의 화자-청자 구분을 하기는 어려울테니까 말이다.


구글 홈 스마트 디스플레이에서 기동어 없이 명령하기



개인 정보 Auto delete

개인 정보 보호정책도 발표했다. 설정에서 3개월, 18개월, 자동으로 설정하여 얼마동안 모바일(혹은 계정)에서 개인 정보를 보관할지 결정할 수 있다.

개인 정보 Auto delete
개인 정보 삭제 기간 설정

그 외, Safe Browsing을 위해 Incognito Mode(크롬에서 많이 사용되었던 시크릿 모드를 유투브, 구글 맵에 적용)를 제공하고, 메일에서 피싱 예방을 위한 보안설정을 강화하고(Phishing prevention in Gmail), 두단계 인증 시스템을 도입했다.(Two-step verification | Android phone as security key)



Federated Learning | 연합을 통한 머신러닝

구글의 Edge AI 방식으로 데이터를 클라우드에 올리지 않고 개별 모델에서 연산처리를 하고, 개별 폰에서 글로벌 모델에 업데이트 하는 방식을 적용한다. 각 개인들이 많이 사용하는 단어, 이모지 등을 모아서 패턴을 찾고 G보드에 적용하는 시나리오를 제공한다. BTS, YOLO, 이모지 등을 예측해서 간편하게 쓸 수 있게 해준다. 변화하는 단어들이 개별 단위로 패턴화된다는 점이 새로웠다.

Federated Learning



Live Transcribe | 실시간 STT(speech-to-text)

청각장애가 있는 사람들이 대화를 알아들을 수 있도록 대화내용을 실시간으로 자막화 해주는 기능이다. 말을 못하는 사람은 타이핑으로 대화를 이어나갈수도 있다. 말하는 것이 불편한 사람들은 이런 보조적 장치로 커뮤니케이션에 큰 도움이 될 것이다. 또한 청각장애가 아니더라도 말을 할 수 없는 상황에서 활용 시나리오도 고민해 볼 수 있을 것 같다.



Live Caption | 라이브 자막

비디오, 팟캐스트, 집에서 찍은 영상의 음성을 분석하여 실시간으로 자막을 생성해주는 기능이다. 그것도 네트워크 없이 모바일 자체(on device)에서 가능하다. 구글의 음성인식 기술이 얼마나 발전했는지 볼 수 있는 단적인 사례이다. 게다가 최근에는 소리없이 자막으로 영상을 보는것이 유행인데, 그들의 니즈를 충분히 반영했다고 본다. 소리가 안나도 영상을 보면서 내용을 충분히 이해할 수 있어서 지하철 등에서도 시청이 가능하며, 비디오 촬영 시 자동 자막 생성으로 인해 아이의 동영상이 훨씬 풍부해지는 모습도 보인다.


"It's such a simple feature but it has such an impact on me."

이 기능을 보고 어떤 사용자가 한 피드백이다. 완전 동의한다. 이번 키노트에서 좋았던 것 하나만 고르라고 한다면 이 기능이 원픽이다. 작지만 강한 기능, 핵심을 찔렸다는게 이럴 때 드는 기분인가보다.

영상 안의 음성을 분석하여 실시간으로 자막을 생성해주는 기능



그 외, Smart Compose, Smart Reply (청각장애가 있는 사람이 말하지않고 헤어샵 예약을 변경하는 통화 상황 시연), Assistive chat (대화의 대답으로 예상되는 문장을 제공해서 쉽게 대화할 수 있도록 돕는 것), Live Relay (듣지 않고 상대방이 말하는 내용이 문장으로 보여져서 바로 대화할 수 있음) 등의 기능이 있었다. 주로 음성과 시각 정보간의 자유롭고 자연스러운 변환에 초점을 맞추고 있었다.



Project Euphonia | 프로젝트 유포니아

청각장애인들이 말할 때 발생하는 약간의 어눌한 발음과 음성을 보정해주는 기능이다. 실제로 QoL의 관점에서 매우 중요한 접근이라고 생각하고 모두가 장애 여부와 관계없이 평등하게 살아갈 수 있는 날이 오길 바란다.



Android Version 10 (Android Q) | 안드로이드 Q

이번에 새로 발표되는 안드로이드에서는 폴더블 스마트폰에 대응 가능한 OS를 제공하는 것, 5G를 통해 지연없이 빠르게 사용할 수 있게 하는 것(consistently faster speeds with lower latency), 그리고 On-device Machine Learning이 주요 골자였다. 폴더블에서 비롯한 다양한 하드웨어에 유연하게 대응하고, 기기 자체에서 연산처리가 가능하도록 소프트웨어를 개선한 점이 변화 방향이다. 그 외, Smart Reply, Dark Theme, 50여개의 Privacy 관련 기능, Activity Controls, Location History, Ad Settings 등의 기능이 추가 되었다.



Digital Wellbeing | 디지털 웰빙

하루종일 스마트폰에 매달려있는 사람들을 위해 (아이러니하게도) 디지털 웰빙 기능을 공개했다. 총 4가지로 Dashboard, App timers, Flip to Shhh, Wind Down 이며, 특히 wind down은 밤에 휴대폰을 놓고 잠을 잘 수 있게 도와준다고 한다.

구글의 디지털 웰빙 기능 4가지

포커스 모드(Focus Mode) 기능도 소개했는데, 이는 기존의 포커스 앱 들과 유사하게 해당 모드로 선택해 놓으면 중요하지 않은 알람은 모두 차단되는 기능이다. 호텔방에서 문 앞에 Do not disturb를 걸어놓은 것과 비슷한 개념으로 생각하면 되겠다. 약간의 차이는 네이티브 앱에서 제공하다보니 '연락을 받을 사람', '중요한 상황' 등의 우선순위를 보다 섬세하게 설정할 수 있다는 점이다. 방해받는 것이 싫어서 카톡의 알람을 모두 꺼놓는 나로서는 한번 써보고 싶은 기능이다. 나중에는 내용의 중요도를 파악해서 알려줄 수 있으면 좋겠다. 예를 들어, 친구들이 있는 단톡방에서의 'ㅋㅋㅋㅋㅋ'와 회사 팀 단톡방에서의 '금일 미팅일정 변경'의 차이 말이다.

중요한 것에 더 집중할 수 있게 해주는 포커스 모드 기능



Parental Controls | 자녀의 모바일 사용시간 관리

자녀들한테 특정 시간 동안만 휴대폰을 사용할 수 있게 해줄 경우, 앱에서 사용시간 제한(App specific time limits)을 걸어놓을 수 있고, 추가 시간을 더 주고 싶은 경우 보너스 타임(bonus time)을 줄 수 있다. 키즈 모드의 일환으로 만든 기능으로 나름의 해결책을 내려고 한 것 같은데, 나는 최악의 기능이라고 생각한다. 자녀를 통제의 대상으로 생각하는 부분이 불편하다. 미래의 나에게 자녀가 생기고 계속 휴대폰을 사용하는 것이 고민이 된다면 그때 다시 생각해봐야겠다.



Nest Hub, Nest Hub Max | 네스트 허브, 네스트 허브 맥스

구글에서 인수했던 Nest와 AI assistant를 결합시켜서 새로운 카테고리의 Nest Hub, Nest Hub Max를 출시했다. 당연히 Nest에서 사용가능한 온도관리, 홈 매니지먼트 등의 기능에 구글 홈이 제공하는 어시스턴트 기능도 사용할 수 있다. 추가로 Nest Cam으로 보안기능을 수행하고, Google Duo를 통해 iOS, Android 기기, PC의 크롬 브라우저와도 통화가 가능하다. 얼굴 인식(Face Match)를 통해 개인별 맞춤정보 - 일정, 선호 음악 등 - 도 받을 수 있다. 또한 디지털 액자, 키친 TV, 유투브 시청도 가능하다. 가정 내 스마트기기의 사생활 침해 문제도 고려한 듯이 캠과 마이크를 물리적 버튼으로 끌 수 있게 해두었다.

구글의 Nest Hub - Made by Google
구글 Nest Hub에서 개인화된 일정 정보 제공


Nest Hub에서 가장 흥미로웠던 것은 제스쳐 인터랙션이었다. 주방에서 음악을 들으며 열심히 요리를 하고 있던 주인공에게 갑자기 전화가 온다. 요리를 하느라 바쁜 그녀는 손을 들어 '음악 멈춰'라는 제스쳐를 취하고, 그 즉시 음악이 일시정지 된다. 주인공은 전화를 받으며 계속 요리를 한다. 이 역시 간단해 보이는 시나리오지만 '요리하는라 바쁜데 전화가 와서 노래 소리를 줄이고 싶다' 라는 맥락을 스스로 알아채야 가능한 기능이다.

Nest Hub의 제스쳐 인터랙션, '기다려!'



Google Pixel 3a, 3a xl | 구글 픽셀 3a, 3a xl

구글은 새로운 버전의 모바일폰도 출시를 했다. 개선된 카메라 기능인 Night Sight로 어두운 환경에서도 AI를 통해 적절한 조도의 사진을 뽑아낼 수 있다.


With software optimizations, we found a way to bring our exclusive camera features and our industry-leading image quality into Pixel 3a, so photos look stunning in any light. What other smartphone cameras try to do with expensive hardware, we can deliver with software and AI, including high-end computational photography.


공교롭게도 어두운 곳에서 찍힌 사진을 비교할때 Phone X를 쓴 것이 iPhone X 시리즈를 저격한 것이 아닐까 싶다. 이런 회사간의 미묘한 - 미묘하기보다는 대놓고 하는 것에 가깝지만 - 신경전은 늘 재미있는 관전포인트 이다. 게다가 위의 문장에도 언급했듯이, "다른 스마트폰의 카메라가 고가의 하드웨어를 사용할 때, 우리는 소프트웨어와 AI로 하이엔드 사진을 만들어낸다"는 말에 소프트웨어에 대한 강한 부심과 하드웨어가 전부가 아니라는 새로운 가능성을 보여주고 있었다. 이런 자신감, 너무 부럽다. 참고로 Pixel 3a는 $399면 구매 가능하다. 얼마전에 거금을 주고 휴대폰을 바꾸지 않았다면, 그리고 한국이 출시국에 포함되어 있었다면, 바로 결제했을 것 같다.

구글 Pixel 3a의 Night Sight 기능


Pixel 3a에는 구글 맵에서 찾은 목적지를 AR로 안내 받을 수 있는 기능이 추가되었다. 이 AR in Google Maps는 지도를 잘 못보는 사람들에게도 쉽게 목적지를 찾게 도와줄 것이다. 더이상 폰과 주변을 두리번거릴 필요가 없어진 것이다. 이제 다시 구글글래스에 숨결을 불어넣으면 처음 가본 여행지에서도 익숙한 도시인 듯 자연스럽게 걸어다닐 수 있을 것이다.

구글 맵에 적용된 AR 기능



Google AI | 구글 인공지능

구글은 인공지능을 통해 재해 예방 솔루션도 개발하고 있다. 인도의 Central Water Commission과 협업을 하여 몬순 시즌에 홍수가 날 지역을 예측하고, 빠르게 홍수 대피 알림을 해준다. 고해상도의 입면도(elevation map)와 수천개의 항공 이미지를 분석해서 땅의 고도를 파악하고, 홍수 시 물의 이동방향을 시뮬레이션 한다. 정부의 도움을 받아 수위 관측(stream gauge measurement)을 하고 기상정보에 실시간으로 보내는 방식이다. 홍수로부터 안전한 나라가 될 수 있도록 인공지능 기술을 활용한다니 꽤나 멋진 일 아닌가. 이런 것이 기술의 사회적 책임이라고 생각한다.

홍수 예상 지역을 알려주는 Public Alerts
홍수 지역을 예측하는 시뮬레이션 방법


그 외, 언어 이해(language understanding)를 통해, 교통신호, 쇼핑 리스트, 메일 쓰기, 사람들과의 대화를 돕는 방법, 헬스케어 분야에서는 당뇨 진단, 폐암을 조기에 발견하는 방법 등을 연구하고 있다.




변화된 기능에 대한 소개를 마치고 다시 구글의 미션으로 돌아왔다.


"Building a more helpful Google for everyone."


앞에서 설명했던 기능들이 학력, 장애여부, 거주 환경 등과 관계없이 도움을 주고있고, 그들 각자가 필요한 방식의 솔루션을 제공한 것이 묘하게 맞아 떨어지면서 약간의 감동을 받았다. 모든 사람들에게 도움이 되는 구글인가? 맞다. 적어도 내 생각에는 그렇다.

구글 키노트의 마무리로 다시 등장한 미션과 목표





키노트를 보고 난 후, 구글의 관심분야와 발전 방향에 대한 몇 가지 생각이 들었다.


첫번째로 Software와 AI 기술이 넘사벽으로 발전하고 있다. 키노트를 보는 내내 제일 부러웠던 점이 결과물을 만들어 낸다는 점이었다. 사람들과 기획 회의를 하다보면 아이디어는 생각보다 많이 만들어 낼 수 있다. 하지만 늘 봉착하는 문제는 그것을 개발할 수 있는 능력이 부족하다는 점이었다. 그래서 우리는 늘 근미래, 혹은 먼 미래로 아이디어를 미뤄버린다. '아직은 안되는 기능이야.' 라고 말이다. 그렇게 사라져갔던 수많은 기능들을 구글은 만들어낸다. 소프트웨어 인력 수준의 차이일수도 있고, 혹은 단순히 인력 수의 차이 일 수도 있다. 무슨 이유를 대던지 간에 만들어냈다는 것이 중요하다.


두번째는 음성에 쏟는 구글의 열정이다. 수 많은 기능들에 음성처리, 패턴인식, 언어처리 기술들이 녹아있다. 아니, 오히려 우리는 이만큼 음성을 활용할 수 있다고 과시하는 것 같았다. 전세게 20여개국의 언어를 지원하고, 시각정보에서도 언어를 추출할 수 있으며, 심지어 언어를 부정확하게 말하더라도 이해하고 보정해 줄 수 있다고 보여주고 있다. 이정도 노력을 쏟아부었으면, 앞으로도 음성 인터페이스를 적극적으로 활용하려 하지 않을까. 키보드/키패드를 통한 텍스트 정보를 넘어 음성 정보까지 데이터베이스화 시키려는 구글의 야심도 조금씩 보인다. 이 형태에 무관한 모든 지식의 통합(knowledge integration)을 말이다.


세번째는 앱간 자연스러운 융합과 이를 위한 AI의 활용이다. 나는 이것을 AI Bridge라고 표현하고 싶다. 전에는 각각의 서비스들이 제대로 역할을 하는 것을 중심으로 뒀다면, 이제는 그 서비스들이 어떻게 다른 앱과 자연스럽게 연동하며 관계지능을 형성해 나갈 수 있는지를 고민한 것 같다. 그러다 보니 더욱 맥락을 잘 이해하고 원하는 기능을 알아서 척척 해주는 것 같은 스마트한 느낌을 받을 수 있다. 마치 우주에 여러개의 행성들이 있는데 잘 이어준 느낌이랄까. AR에 대한 기능도 많이 공개되었는데, AR이 화면만 말하는 것이 아니었나보다. 진짜 사람을 증강(augmented) 해주나 보다.


마지막으로 든 생각은 구글이 천착하고 있는 주제들이었다. 세상을 변화시키는데 필요한 건 뭘까. 제품 형상의 높이나 R값을 몇 mm으로 하는지가 정말 중요한 걸까. 물론 디자인의 디테일은 매우 중요하지만, 그보다 솔루션의 방향이 맞는지를 먼저 고민해볼 필요가 있다. 큰 의미에서는 인류에게, 그리고 일상을 소소하게 살아가는 나, 모두에게 의미있는 연구주제를 잘 뽑아내는 것 같다. 키노트를 다 보고나서 아이언맨이 생각나는 건 왜 일까. 키노트를 리뷰한 유투버 아토님의 말을 응용하며 글을 마칠까 한다.

'구글이 지구 정복할 날이 머지 않았다.'




키노트 풀버전을 보고 싶으신 분들은 다음 링크를 참조하시길 바란다. 영화 한편에 맞먹는 1시간 43분의 긴 영상이지만 시간내서 볼 가치가 있다.

https://www.youtube.com/watch?time_continue=28&v=TQSaPsKHPqs


[ 사진 출처 : unsplash ]

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari