brunch

You can make anything
by writing

C.S.Lewis

by 서진호 Dec 11. 2016

한눈에 보는 실리콘밸리 AI 트렌드(1)

제1 부 - 페이스북, 바이두, 우버, 아마존, 오픈 AI

지난주 실리콘 밸리뿐만 아니라 전 세계 IT 기업들이 약속한 듯이 인공지능에 관련된 소식들을 발표했습니다. 따라서 이 번주는 글이 길어서 2편으로 나누어서 현재 인공 지능 수준이 어디까지 왔는가 공개된 내용으로 한눈에 살펴볼 수 있도록 한 번 정리해 보았습니다. 


페이스북의 얀 르쿤이 설명하는 인공지능이란?

최근에 인기리에 끝난 HBO 오리지널 시리즈, 웨스트 월드나 SF 영화의 단골손님의 격인 인공지능을 페이스북 인공지능 연구소장인 얀 르쿤이 이해하기 쉽게 머신러닝에 대하여 6편의 동영상과 프레젠테이션 도표로 설명하였습니다. 

중고교의 수준의 수학을 공부했다면 쉽게 이해될 수 있는 머신 러닝의 개념과, 최근에 자율 주행이나 이미지 디텍션과 같은 컴퓨터 비전에 사용할 때 저것이 사람인지 신호등인지 강아지를 식별해주는 딥 러닝에 대한 정의과 개념을 설명했습니다. 

예를 들어, 딥 러닝을 사용할 때 하나의 이미지에서 여러 개의 개체들을 인식하기 위해 여러 개의 레이어를 인식할 수 있는 후면 증식(Back Propagation) 개념과, 그것들의 인식률을 머신이 스스로 학습(Training)할 수 있도록 수학적인 계산해 주는 기울기 하강(Gradient Descent) 개념 등을 볼 수 있습니다.  


페이스북 AI 코드: https://code.facebook.com/pages/1902086376686983


마크 저커버그의 개인비서, 자비스 공개 

아이언맨에 나왔던 로봇 개인 비서인 자비스(Jarvis)를 개인 프로젝트로 개발하겠다고 천명했는데, 크리스마스 전 드디어 마크 저커버그가 이것을 공개해서 브런치에 업데이트를 안 할 수가 없었습니다. 첫 번째 동영상에 보듯이, 자비스의 목소리는 모건 프리먼으로 밝혀져 화제가 되었고, 스마트폰을 보면서 위아래로 하면 집안의 불이 커지거나 꺼지게끔 컴퓨터 비전을 이용한 제스처 인식이 돋 보였습니다. 


마크 저커버그는 이 자비스 개발을 100시간 정도 소요가 되었다고 했는데, 하루에 2시간 정도 코딩했을 때 가정한다면 50일 정도 걸린 셈입니다. iOS에서 오브젝티브 C 언어를 사용했으며, 음성 인식 라이브러리와 페이스북의 메신저 프레임워크와 오픈 소스로 공개된 얼굴 인식, 자연어 처리까지, 그 외 집안의 전등, 카메라, 토스트기, 스포티파이 음악 앱 등등을 포함하고 있습니다. 


더욱더 흥미스러운 것은, 자비스가 프리실라 첸의 인터뷰에서 한 사람(마크)의 목소리만 인식하도록 코딩되어 있어 마크 저커버그가 소파에 앉아 실시간으로 급히 수정하는 장면이나, 자비스가 인식하지 못해 실수를 연발하는 장면이 포함되어 재미를 더 하고 있습니다. 


향후 홈 오토메이션에서의 인공지능이 어떠한 역할을 해 줄 것인가에 대한 간단한 데모를 통한 인사이트를 보여줄 수 있는 동영상이라고 말할 수 있으나, 그냥 개발 덕후가 한번 데모를 만들어 본 것이라고 이해하면 더욱더 재미있을 것입니다.  또한 모든 남편들에게 이렇게 코딩하라고 닦달하지 말기를 바랍니다 :) 


마크 저커버그의 자비스 첫 번째 동영상 : https://youtu.be/SHNyfG0YPqA  



앤드류 응 교수, 머신 러닝을 갈망하는 책

스탠퍼드 컴퓨터 공학 부생이 아니라면, 많은 소프트웨어 개발자들이 코세라(Cousera)를 통해 앤드류 응 교수의 '머신 러닝' 강좌를 접했을 텐데요, 현재 바이두 인공 지능 연구소장으로 재임하고 있고 있는 전 스탠퍼드 머신 러닝 교수인 앤드류 응 소장이 "Machine Learning Yearning" 책을 출판할 계획에 있습니다. 

제가 몇 장을 살펴본 결과, 전체적인 챕터 구성은 좋으나 일반 MBA 경영 전략서와 달리 컴퓨터 전공을 한 CTO나 CIO, PM 들과 같은 하이테크 오디언스가 아니라면 다소 내용이 어려울 수도 있겠다고 생각이 들었습니다. 그래도 머신 러닝을 통해 기술적 의사 결정(Technical Decision Making) 할 수 있는 전략서로 한 번쯤 읽어 볼만하지 않을까 합니다. 여러분들도 직접 살펴보고 피드백을 할 수 있으니 아래의 URL에 가셔서 전자메일을 등록하시면 Draft를 받아 보실 수 있습니다.


머신 러닝 책 뉴스 레터 : http://www.mlyearning.org/ 


로봇이 운전하는 궁극의 드라이버, 우버 AI 랩스

요즘 실리콘 밸리 테크 기업들 중에 머신 러닝에 대하여 R&D 연구센터를 만들어 투자하지 않는 기업이 없습니다. 이미 펜실베이니아에서 무인 택시를 시범 운영하고 있고, 무인 트럭인 오토(Otto)를 합병하여 버드와이저 맥주 무인 수송에 성공한 우버가 여기에 빠질 순 없지요 ^^ 


지난주 월요일, 우버 CEO인 트레비스가 자신의 페이스북 페이지를 통해 뉴욕 타임스 기사를 링크하면서 그동안 지오메트릭 인텔리전스를 합병한 소식을 전하며 새로운 "우버 AI 랩스"가 건립했다는 소식을 전했습니다. 우버는 로봇이 운전하는 궁극의 드라이버를 목표로 하고 있는 데, 우버의 경쟁자인 완전 자율 주행을 꿈꾸는 테슬라의 오토파일럿을 따라잡는 동시에, 무인 택시와 트럭의 소프트웨어 핵심 기술인 컴퓨터 비전과 딥 러닝 메커니즘을 더 발전시켜 자사의 퓨처 테크날리지로 선도해 나고자 하는 의지를 강력하게 내뿜고 있습니다. 


우버 AI 랩스 : https://newsroom.uber.com/ailabs/ 


Re: Invent 행사에서 발표한 AWS 인공지능 API  

AWS는 해마다 11월 초순에 라스 베이거스에서 "Re:Invent"라는 개발자 및 파트너를 위한 컨퍼런스를 개최하고 있습니다. 올해도 3일 동안 AWS의 새로운 클라우드 서비스 플랫폼을 선보였는 데, 그동안 개발자들이 그토록 원했던 AWS Lambda의 C# 언어(. NET 코어)를 직접 지원하는 것에 많은 박수를 받았습니다. 그리고 트렌에 맞게 아마존 클라우드 인공지능 SaaS(Service-As-a-Service) API 들을 발표했습니다.  


첫 번째로 “레코니이션(Rekognition)”라는 이름으로 이미지 인식 서비스를 내놓았습니다. 이것은 구글이나 마이크로소프트와 같은 업체에서 먼저 내놓았는 데, 가격은 얼마나 되는지 알려 주지 않았습니다. 어떤 사물이나 장면 등을 사용자에게 인식하게 해 주는 데, 이미지 안에 무엇이 있는지 어떤 상태로 있는지 정확히 알려 줍니다.  

두 번째로 "아마존 폴리( Amazon Polly)"는, 텍스트를 음성으로 바꾸어주는 서비스입니다. 특히, 24개 언어들과 47개 남성과 여성의 목소리를 지원하며, 동형이 원어를 지원합니다. 예를 들어, ‘I live in Seattle’와  ‘Live from New York’의 경우, "live"는 철자는 똑같지만 명사와 동사의 쓰임새에 따라 발음이 달라는 지는 경우를 지원해줍니다.  

세 번째로 "렉스(Lex)"는, 아마존의 알렉사 서비스에서 가져와 멀티-스태프의 대화 등을 할 수 있는 대화형 애플리케이션을 만들 수 있도록 해 줍니다. 렉스 콘솔을 통해 개발자들이 웹이나 모바일 앱에서 일종의 봇을 만들 수 있는데, 로봇이나 드론, 장난감 등을 컨트롤할 수 있는 워킹 스트리밍 메커니즘을 제공하고, 페이스북 메신저와 슬랙, 트윌 리오와 같은 다른 외부 서비스와도 통합할 수 있도록 제공해 준다고 합니다.  


아마존 렉스 : https://aws.amazon.com/lex/


머신 러닝의 스케일 업을 위한  Open AI의 유니버스 플랫폼

스타트업 창업자들에게는 YC 컴비네이터의 공동 설립자로 잘 알려진 샘 얼터먼이 페이스북 타임라인을 통해 Open AI의 Universe 플랫폼을 공개했습니다. 참고로 OpenAI는 일론 머스크가 AI를 한 기업이 독점적으로 폐쇄형 형태로 가지는 것에 대해 반발하여 Stripe CTO와 몇몇 스탠퍼드 인공지능 박사들로 구성하여 만든 비영리 연구 단체 회사입니다. 여기에 샘 얼트만이 공동 의장으로 맡고 있어서 Universe 플랫폼을 소개하게 되었습니다.


유니버스(Universe) 플랫폼도 알파고(Alpha Go)처럼 RL(Reinforcement Learning) 계의 알고리즘을 사용하고 있습니다. 그러나 이 블로그에 의하면, 알파고는 바둑(Go)에서만 적용하고 있어서 머신 러닝을 적용하기에는 일반적(General)이지 못하다고 합니다. 그래서, Universe의 목표는 하나의 싱글 AI 에어전트를 통해 바둑뿐만 아니라 아타리 게임, 시뮬레이션 등등 다양한 게임이나 분야에서 머신 러닝을 스케일-업(Scale Up) 하는 데 그 목표를 두고 있다고 합니다. 


이 밖에 최근에 마이크로소프트 리서치 해리 셤 박사와 OpenAI 플랫폼을 Microsoft Azure 클라우드 서비스하여 스케일 아웃(Scale-Out)을 논의한 것으로 알고 있습니다. 개인적으로는 올해 1월에 샌프란시스코에서 개최된 OpenAI 그룹의 첫 미팅을 나갔는 데, 그땐 이론적인 RL 알고리즘의 논문 등을 발표하여 Open AI 플랫폼으로 무엇을 응용할 수 있을까 한눈에 들어오지 않았는 데, 비로소 유니버스 플랫폼을 통해 Open AI 플랫폼이 널리 사용되지 않을까 기대합니다.


Open AI의 Universe 홈페이지 : https://openai.com/blog/universe/


글을 이어면서...     

머신 러닝의 초보자들을 위해 적은 글로서 여러 테크 기업들의 머신러닝을 접목한 플랫폼과 서비스를 소개했는 데 도움이 되셨는지요? 다음 글에서는 딥마인드, 구글, MS, IBM, 애플 편을 소개하도록 하겠습니다. 

  



매거진의 이전글 초보자를 위한 텐서플로1 노트북
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari