brunch

You can make anything
by writing

C.S.Lewis

by 리플러스 May 09. 2019

구글 IO 2019 - AI기반 프로젝트 세션 따라잡기

구글 IO 2019 AI기반 구글의 사회적 공헌 프로젝트 세션 내용정리



안녕하세요, 리플러스입니다.


이번 구글 IO 2019 업데이트 내용들을 영상마다 하나하나 정리해드리고있습니다. 영어가 안되시는 분들도, 디자이너들도 이해하시게 쉽게 내용을 정리했으니 천천히 읽어보시길 바랍니다. 







이번에 다룰 내용은 구글 개발자 키노트 중, 40분짜리. 구글이 AI 기반으로 어떤 사회적 공헌을 했는지. 개별 프로젝트들에 대한 설명 내용입니다




구글 IO 2019 - AI를 통한 구글의 사회적 공헌 프로젝트 세션 영상

https://www.youtube.com/watch?v=i2GCdjyn2tE






이번에 진행할 내용은 AI 기반 - 앰비언트 인텔리전스로의 전환에대한 내용입니다. 해당내용을 선택한 이유중 가장 큰 이유는... 다른 세션들이 기존에 진행한 assistance 관련 내용이랑 너무 많이 겹치거나 핵심내용이없는 - 질질 늘여놓은 토크쇼기준인 경우가 많아서 패스했구요. 혹은 너무 앱개발관련내용이 많이들어가서 (예: 구글 ar 맵) UI 디자이너가 보더라도 별다른 인사이트에 별 도움이 안된다고 판단했기 때문입니다.



차라리 ai 기반 서비스를 키노트에서자세하게 나오지않았던 부분을 파고들어서 패시브 적인. 환경속으로 녹아든 - 앰비언트 인텔리전스 개념을 다뤄보는게 - 네이버쪽에서도 강조한 키워드와 비슷해서. 이부분을 알아두실 필요가 있다고 판단했습니다.



https://www.naverlabs.com/


네이버랩스 또한 앰비언트 인텔리전스 .환경속에 녹아들어 자연스럽게 - 생활의 일부가되는 ai 기술에 대해 표방한 내용을 2018 네이버 컨퍼런스에서 소개한바있습니다. 공간. 환경과 연결되는 관련내용이고. 이게 구글의경우는 범위가 더 거대하다고 보시면될거같네요. 




PS. 이번영상은 전반적으로 소리크기가 작으니. 소리를 키워서 들으셔야할것 같습니다.







발전한 AI 기술로 뭘 할 수 있을까






첫 시작은 ai 기반의 기존 기능들로 - 사진속에 특정 키워드나 피사체가 등장한 내용을 찾아주는 사례를 이야기합니다. 이정도 기술적 발전이 이뤄졌고, 사진속의 작은 대상마저도 상세하게 분석하는게 가능해졌기 때문이죠. 뭐 여기까진 대단할 내용은 없습니다. 간단한 기술적인 기반을 설명하고. 






실제 인도에서 의과의사가 부족해서 12만 7천명의 환자들중 45%의 환자가 - 진단 이전에 시력을 잃는다는 이야기로 - 세계에서 일어나는 비극이나, 문제들을 이야기하기 시작합니다.





거대한 홍수나 - 태풍. 파리 테러관련된 내용을 이야기하는데. 이때 발생한 글로벌한 정보처리량의 상승을 수치로표기해둔것입니다. 구글검색으로 실황을 확인하거나 구글 지도로 개별 위험지역을 지도로 체크하고 파리 관련 테러의 경우는 유튜브중계를 통해서 상황을 확인한거죠. 







머신러닝을 기반으로 한 재난경보 / 예보


 

그래서 구글이 진행한것중 하나가 이런 위험지역에대한 정보 표기에 대한 내용이고. 이런 위험관련 정보를 더 효율적으로 / 미리 예측하기위한 프로젝트를 ai 기반으로 진행하고자한내용을 이야기해주네요. 





ai적인 부분외에도 컨텐츠를 한데모아서 허리케인 등장시에는 오피셜 업데이트란을 따로만들고. 관련 태풍의 진척방향이나 강도에대한정보를 한데모아서 큐레이션하는데 -  실제 발표자의 딸이 그 지역에 살고있었고. 정보를 보고 어서 그 지역을 떠나기를 권유했던 경험담을 기반으로 이야기를 진행해줍니다. 





기존 기상정보 예측 정보만 갖고는 이런 대략적인 정보밖에알수가없고. 실제 위험한 지역에 내가있는건지. 아니면 그냥 오차범위라 잘못아는건지. 이런부분을 알수가없고. 이부분을 ai 기반 데이터 머신러닝 + 기존 홍수정보들을 모아서 시뮬레이션을 해주는 내용을 이야기합니다.







위성사진과 지도정보. 그리고 여기에서 합성된 이미지를 기반으로 범프맵을 추출해내고 (튀어나오고 들어간 정도를 이미지 기반으로 높낮이를 역예측 + 계산해냄)  그걸기반으로 실제 지형에가까운 형태의 모델링을 구현하고서. 시뮬레이션을 진행헀다고 합니다.





요걸기반으로 phatna라는 지역에서 실제 시뮬레이션결과를 실제상황과 비교해본결과 약90%정도의 정확도를 보였다고하네요. 놀랍습니다






인도의경우 국가의 재해통재센터같은게 구비가되어있질 못하니 이부분을 구글이 ai기반으로 개별 사용자들에게 현재 그 지역이위험하며. 어디로 피해야할지. 어디까지가 위험지역인지 등을 실시간으로 체크해주는 컨텐츠를 개인 위치에맞게 큐레이션을 해준거죠.








구글의 사회적 공헌 AI 프로젝트 : 임팩트 챌린지




또한 이런식으로 캘리포니아의 학생들이 ai 기반으로 산불예측을 해서 '산불이 시작되기전에 확인해주는 디바이스를 만들기도했는데 여기에 텐서플로우를 사용했다는 이야기고요. 이런 사회적 서비스를 위한 - 문제해결에 구글클라우드와 텐서플로우. 머신러닝이 쓰이는 케이스에대한 내용을 쭉 설명합니다. 




https://www.google.org/our-work/google-impact-challenge/

 

실제 사이트를 가보시면 대학생들의 산불 예측 시스템이나 다른 프로젝트들을 선정해서 상을준 모양인데요. 그중에 몇가지를 살펴보면. 빈민촌에가까운 곳에 웹교육을 실천해서 - 지역마다 개별 비즈니스 사이트를 개발하게 교육을 한 케이스가 있고. 2년간 5천명의 학생을 도왔고 그결과 25000개의 비즈니스 관련 기술들을 학생들이 만들고, 구축하게됐다는 얘기도 있습니다.




https://impactchallenge.withgoogle.com/bayarea2014/charities/hack-the-hood


이런식으로 구글의 사회적 공헌 프로젝트에 대한 내용을 다루는 사이트인데. 이번엔 기반주제가 ai였다는 거라고 보시면 될거같습니다.




그리고 이번에 선정된 실제 ai 프로젝트 진행의 목록인듯한데요. 이부분은 추후에 제가 따로 내용을 찾아서 어떤 프로젝트였는지 체크를 해보겠습니다. 이런 작업들을 통해서 - 구글 스타트업 캠퍼스.로 어떤 좋은 결과들을 만들어냈는지에대한 목록들이네요






재해를 미리 예측해, 미리 대비하기



이게 기존에 개발자 키노트에서 마지막에나왔던 -  농작물 기근문제를 ai 기반으로 해결하기위한 기반얘기로보이고요.





이런 기근을 미리 예측해서 국제 금융기구에서 기근해결을 위해 '미리 예측데이터를 전달하고' 여기에대한 금융지원을 시작해서 - 미리 계획을짜고. 기근해결을위한 실행을 빠르게 잡아. 피해를 줄이는 쪽에 사용이됐답니다. 대단하네요.





홍수 예측 시스템에 머신러닝을 기반으로해서 - 기존 지질학자나 전문가들을 머신러닝팀을 추가해 문제해결을 위한 자체 프로젝트를 진행하기도 했단 얘기구요.








이번 구글 IO를 빛낸 AI 기반 프로젝트들




이후에는VUI. 어시스턴트 대화에대한 내용에서 - ai 팀이했던 일을 자랑하는데 하나의목적이라해도 다양한 자연어처리를 통해 - 하나의목적으로 인식하는 작업을 ai 기반으로 처리했다.는거랑





스마트 답장부분에대한 부분도 - 맥락인식이랑 연관되어서 ai기반으로 처리했고. 







실제 메일답장을 할때에도 - 관련 맥락을 바로 예상해서. 텍스트 입력 도중에 - 밝은 회색으로 추천되는 텍스트 맥락을 입력해주거나. 제안해주는 스마트 컴포즈 기능도 소개를 해주네요.







그외에는 구글렌즈에서 텍스트 실시간 번역 / 음성출력하는 부분에대한 건데. 키노트에서 나왔던 내용이죠. 또한 라이브자막부분을 처리하는 내용도 나오고요. 






발음이나 언어구사가 매우 불편한 사람. 혹은 사투리가심하거나 한 사람의 언어조차도 인식할수있는거. 이부분에대해서도 연구를 진행했다고하고요. 좌측이 기존 음성인식이고 우측이 개선된방식에대한 부분인데 실제 인식률이 매우 좋습니다.





기존에얘기드렸듯이 결국 인공지능 스피커나. 다른 vui쪽은 - 얼마나 발음을 제대로 이해하는가. 저가형 마이크로도 - 멀리서 얘기해도. 어디까지 인식이가능한가의문제인데 그부분을 자기들이 잘 해내고있다. 그부분을 계속 애기해주는거네요. 








구글 듀플렉스 기반 AI - 부정확한 맥락이나 중의적 대화인식




이후에는 구글 듀플렉스. - 음원에 맞게 자동입력. 인식. 연결하는 과정과 대화까지 ai가해주는 내용에대해서 얘기하는데. 그중 정확하지않은 맥락이나. 중의적표현등을 걸러내는 내용이 나옵니다. 이건 사실 2018년 io쪽에서 나왔던 내용이죠.







구글 IO 2018 - 듀플렉스 기반 레스토랑 예약 (AI 대화)

https://www.youtube.com/watch?v=WPzu6W2rWNs


레스토랑에 전화를 걸어서 - 오후5시에 자리있냐고 - ai가 질문을 하는데 중국인인지 한국인인지. 아시아계 여성이 어눌한 말투로 ' 5명 ? -혹은 5시? / 4시? 4명?같이 헷갈리게 애매한 표현을 하는데. 그 과정에서 어시스턴트 ai는 제대로 맥락을 확인하고. 예약을 진행합니다. 이런 부분에대한 처리도 자기들이 해냈다. 결국 그얘기네요.






AI 기반 자동응답 / 텍스트를 통한 음성 출력


이후에는 컬스크린관련 기술에서. 텍스트기반 + 목소리로 자동 응답을해주는 이 부분을 기술적인 부분보다는 - 키노트에서했던 얘기를 좀더 장황하게 -설명하네요












요  내용같은경우는 정확히는 '자동응답'이아니라. 대화가불가능하거나. 목소리를 낼수없는 사람이 개별 응답에대한 내용을 텍스트 + 목소리 출력으로 전화를 하게해주는 개념이라고 보시면 될거같습니다. 혹은 직접 입력해서 전달해도 되는거고요. 그 경우에도 자동 텍스트 출력을 해줍니다.






이번 내용을 정리하자면 



1. 우리가 ai로 대단한거 많이하고있다 대단하지?

2. 음성기반으로 원하는 사진만 골라낼수도있고 /  의료기관이 해내지못하는 부분을 보조해내거나, 재해도 미리 체크할수있고 딥러닝기반으로 정확한 재해 예측 / 기근예측도 해냈다

3. 개별 사회가 맞닥뜨린 문제들이나, 재해 예방. 사회적 문제해결에도 구글이 손을 뻗어서 도와주고있다 (우리 착하지?)

4. 구글 ai 임팩트 챌린지에서 이런내용 더볼수있고, vui 관련기술, 우리 ai 팀이 열심히 해내서 다 나온거다? 

5. 다양한 자연어 맥락인식 / 스마트 답장 / 메일 맥락인식 + 문장추천 / 웹사이트 간편 tts / 구글렌즈 텍스트 실시간 번역 

6.   음성출력 / 라이브 자막생성 / 뭉게진 언어발음 인식 / 구글 듀플렉스 기반 음성인식도 우리가했음!

7. 자동 ai 비서 응답 모드나 / 말 못하는 사람 위해서 텍스트 기반 입력 + 출력도 우리가 해냈다. 구글은 참 착하고, 다른 사회적 문제도 해결하는 멋진 회사다.





이번 세션은 전반적으로 사회적 정의나 - 구글이해야할 사명같은걸 얘기하는거라. 좀 붕떠있긴하네요;; 이외에 추가로 더 숨겨진 프로젝트가 있거나 상세하게 얘길해줄줄알았는데. 홍수예측 시스템을 제외하면 거의 키노트에있는 내용을 좀 길게 늘여서 말한 수준입니다. 다른 세션들은 이거보다 심하게 토크위주거나. 안드로이드 기반 개발위주의얘기라서. 다루지않았습니다.






이 내용은 UI 디자인 연구소 - 단톡방에 올려진 자료를 정리하여 만들어진 컨텐츠입니다.

저희 단톡방은 잡담이 불가능한 방입니다. 단톡방에 들어오시려는 분은 - 이용안내문을 꼭 확인해주세요!




단톡방 이용안내

https://brunch.co.kr/@clay1987/113


매거진의 이전글 구글 IO 2019 - 구글 어시스턴트 세션 따라잡기
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari