brunch

You can make anything
by writing

C.S.Lewis

by 리플러스 Oct 17. 2020

구글, Search on 2020 내용 요약

구글의 큰그림이 담겨있는 신기술 공개영상을 풀어서 정리해드립니다



시작하는 글


구글이 최근 Search on 2020이라는 내용의 발표를 했습니다. 그리고 그 안에 구글 I/O 2020에 공개하지못한 핵심 기능들을 많이 넣어뒀더군요. 미래 IT 생태계에 큰 영향을 줄만한, 굵직한 내용들이 있어. 그 내용들을 풀어서 정리해봤습니다.





영상링크

https://youtu.be/ZL5x3ovujiM








1. 상점 / 장소별 복잡도 안내기능 추가


지도내 / 장소에대해서 얼마나 사람이 붐비는지 시간별 업데이트. 일반 샵 외에도 특정 휴양지 / 일반 장소도 포함. 스마트폰 GPS 기반으로 인원이 붐비는 시간을 측정하여 반영한것으로 보임.









카트에 스마트폰 수십개를 GPS를 켜고, 구글맵에 가상 정체를 만든 실험내용

https://www.funshop.co.kr/Story/FuntennaView/15347








2. AI 기반 전화예약 기능 상용화 시작 (Duplex)


어시스턴트 기반 예약 전화 / 내용확인 가능. 








3. 검색엔진 텍스트 - 심한 오타에도 변경제안 강화


영상 내에서 dinner near me 를 dibber bear me로 검색해도 정상결과가 나옴. 게다가 이 과정이 1천분의 3초 (0.003초) 내에 이뤄진다고함.









4. 맥락검색 강화를 위해 - 모든 웹페이지를 AI분석 / 태그화


검색의 '맥락'을 추가 키워드로주기 위해, 모든 사이트의 전체 맥락을 태그화


https://youtu.be/ZL5x3ovujiM?t=1173




영상 속 시나리오 예시

1. A라는 사람은 운동 기구를 사고싶다

2. 근데 A가 원하는게 작은 규모거나 / 고급 제품이거나 / 저렴한 제품이거나. 이중에 뭘 원하는지 구글이 어떻게알까??




여기에 대한 해답

-  사용자에게 검색의 '맥락'을 추가 키워드로 던져주는걸 더 강화할것. 

-  관련 모든 웹페이지들의 맥락을 읽어서, 그 페이지가 '운동기구' 이면서 - 저렴한 제품 위주인지. '운동기구' 중에 - 프리미엄인지 / 좁은 공간위주인지. 자동 태깅을 할것.





작품을 분류하기위해 일일히 태그작업을 하는 넷플릭스 사례

https://biz.chosun.com/site/data/html_dir/2019/05/09/2019050901303.html





검색어 분류를 위한 맥락 인식의 사례 (네이버)

https://d2.naver.com/helloworld/1264836


말 그대로 개별 아이템에 붙이던 것을 더 늘려서 - 페이지 전체로 확대하겠다는것.









5. 기자들의 통합 저작도구, 구글 저널리스트 스튜디오



-  PDF 속 문자도 인식해 오프라인 자료 검색 기능 제공

-  워싱턴포스트 등 여러 뉴스사와 문서정보 공유

-  관련파일 저장 / 연관내용 스크랩 / 기사작성 도구 포함






이게 잘 풀린다면 / 구글은 뉴스를 모아서 수집 + 정리 하는게아니라. 사람들이 모아둔 폴더 / 검색데이터를 기반으로 '어떤 뉴스가 나올지 예측'하는 레벨이 가능하게됨. 일반인 검색이아니라 '작성하는 기자, 리포터들'의 기준이기때문에.



1. 구글내 시즌별 /상황별 주요검색어

2. 구글내 시즌별 /상황별 기자들 검색어, 정보



이 두가지 상관관계를 분석해서 뉴스기사가 나오는 프로세스를 배우려고 오픈한 서비스로 볼수도있음. 





구글의 뉴스료 지급 관련 내용도 여기와 연관이 있을 것으로 보임

https://www.beinews.net/news/articleView.html?idxno=34156







6. 구글 렌즈 관련 전문검색 내용 강화 


오프라인의 문서 검색시 수식 등 전문지식들도 검색해 관련 컨텐츠로 연결









7. 구글 검색 - 교육용 3D AR기능 강화 


 검색어를 교육이나 3d 구조도형태로 전달. 기존에 비해 더 다양한 컨텐츠들이 3D / AR기반으로 검색, 사용이 가능해짐. 











8. 구글 Data commons (관공서, 공신력 있는 기관의 데이터를 모아  압축통계 제공)


미국 내 특정 학술 / 전문 키워드를 검색했을 떄. 데이터나 통계를 정리하여 그래프, 등의 압축적인 결과로 보여줄 예정. 








9. 구글 이미지 상품 추천 검색 / 빅데이터 기반 연관아이템 자동연결


-  구글 이미지 검색시 비슷한 패션 및 연관패션 검색 가능

-  연관 패션에 필요한 관련 아이템도 바로 검색 가능한 형태

-  구글 렌즈에도 해당 기능이 바로 연동 가능할것으로 보임









10. AR + HDR 이미지 기반 차량 정보 검색시 바로 노출  


차량 제조사가 별도사이트를 만들고 개별 체험사이트를 만드는게아니라. 구글검색에서 바로 제품색상 / AR기반 체험, 확인가능. 




HDR 이미지 기술 (3D의 반사, 색상변화 등을 주변 배경에 맞춰서, 실제처럼 처리하는 기술)을 적용해, 내 집앞에서 실제 차량이 어떻게보이는지도 확인 가능.



-  구글 검색에 입점하는 형태일 것으로 보이며

-  추후 차량 자체 체험 사이트 제작이 더 줄어들 것으로 예상.







11. AR기반 길찾기 + 주변 비즈니스 정보 노출


-  2019년에 스틸샷 이미지만 공개되었던 AR기반 길찾기가 개선된 모습으로 공개됨

-  주변 비즈니스 정보 노출하는 규격도 훨씬 자연스러운 모습으로 등장











12. 어시스턴트에서 콧노래로 음원 찾는 기능 추가


-  사용자가 입력한 음정에 유사도를 기반으로 관련 노래를 찾아주는 기능

-  유사도 기반의 매칭이라, 정확도는 높지 않을 것으로 추정










구글 신기능 관련 정보를 좀 더 알고싶다면, 다음 링크를 확인하세요 (거의 일일 업데이트되는 곳)

https://9to5google.com/


매거진의 이전글 UI 디자이너는 꼭 봐야하는 해외 포탈급 서비스들
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari