카메라로 비추면 끝? 구글 ‘서치 라이브’의 등장

by 아이엠

어제 컴퓨터가 고정 나서 지금 수리를 보낸 상태이다. 그런데 오늘 아주 기가 막힌 뉴스를 봤다. 구글이 스마트폰 카메라로 비추는 화면을 AI가 실시간으로 보면서 대화하는 ‘서치 라이브(Search Live)’ 기능을 전 세계에 출시했다는 소식이다.


순간 이런 생각이 들었다. ‘어제 같은 일이 생겼을 때, 내가 이걸 켜서 본체 안을 비춰줬다면?’ 기사님이 “아마도...”라며 머리를 긁적일 때, AI는 카메라 렌즈를 통해 배선 상태나 부품 모델명을 식별하고 전 세계 실시간 데이터를 뒤져서 “저기 덜 꽂힌 선 보이죠? 그거 때문이에요”라고 콕 집어 말해줬을지도 모른다. 이제 텍스트로 상황을 설명할 필요도 없다. 그냥 보여주면 끝이다. 실시간 라이브 번역도 가능하다고 한다. 이제 진짜 AI와 소통하는 거 같은 느낌이다.


우리는 그동안 문제를 해결하기 위해 끊임없이 말을 다듬어 왔다. 증상을 설명하고, 상황을 정리하고, 상대가 이해할 수 있도록 최대한 논리적으로 풀어냈다. 하지만 이 과정에는 항상 오차가 존재했다. 내가 본 것과 상대가 이해한 것은 같지 않았기 때문이다.


그런데 ‘서치 라이브’ 같은 기술이 등장하는 순간, 이 간극 자체가 사라진다. 설명이 아니라 ‘현장’이 전달되기 때문이다.

이 변화는 단순하게는 편의성 문제뿐만 아니라 문제 해결의 방식 자체를 바꿀 수 있다.


이전까지 문제 해결은 경험 -추측 -확인의 흐름이었다. 기사님이 “아마도…”라고 말할 수밖에 없었던 이유도 여기에 있다. 경험을 기반으로 가장 가능성이 높은 원인을 좁혀가는 방식이다. 하지만 이제는 관찰 -데이터 매칭 -즉시 판단으로 바뀔 가능성이 있다. AI는 눈으로 본 정보를 그대로 데이터와 연결해 버린다. 추측의 단계가 사라지는 것이다.


여기서 중요한 변화는 하나 더 있다. ‘누가 더 많이 경험했는가’도 중요하지만 같은 수준으로 ‘누가 더 많은 데이터에 연결되어 있는가’가 중요해질 가능성이 많다는 것이다.


어제 그런 일이 있었고, 그 순간 ‘이랬으면 좋겠다’고 막연히 떠올렸던 장면이 있었다. 그런데 바로 다음 날, 그와 거의 같은 방식의 기술이 이미 등장했다는 기사를 보게 됐다. 결국 변화는 먼 미래의 이야기가 아니라, 이미 우리의 바로 앞까지 와 있는 현재의 문제인 듯하다.


변화가 너무 빠르다.


[자료 출처]

https://www.aitimes.com/news/articleView.html?idxno=208435