구글 AI Studio의 조용하지만 강력한 업데이트

by 윤명희

요즘 내 피드를 열 때마다 AI 관련 소식이 쏟아진다.

구글, 오픈AI, 앤트로픽까지... 거인들의 전쟁이 날마다 치열해지는 느낌이다.

그중에서도 눈에 띄는 소식 하나.


구글이 AI 스튜디오에 조용히, 그러나 강력한 업데이트를 진행했다는 것.

'조용히'라고 표현한 이유는 공식 발표 없이 숨겨진 기능으로 추가됐기 때문이다.

새 소식란에 달린 작은 'new' 라벨을 클릭하면 '스트림 실시간 섹션'으로 연결된다고 하는데,

이게 바로 Gemini의 실시간 멀티모달 처리 기능과 연결된다고 한다.

Chat-Google-AI-Studio-05-17-2025_08_29_PM.jpg @testingcatalog

지금은 Flash 2.0 모델이 돌아가고 있지만, 곧 Flash 2.5로 업그레이드될 가능성이 크다. 이게 왜 중요할까?

영상, 이미지, 음성을 실시간으로 분석하고 생성하는 능력. 생각해보면 정말 막강하다.

예전에는 AI에게 뭔가를 물어보려면 텍스트로 질문하고, 텍스트로 답변받는 과정이 전부였다.

그러다 이미지를 인식하고, 음성을 이해하는 단계로 발전했지만 여전히 각각은 별개의 과정이었다.

이제는 다르다.

캠에 비친 물체를 보여주며 "이게 뭐야?"라고 물어보면 실시간으로 인식해 답해주고

"이걸 활용한 요리법 알려줘"라고 하면 즉시 레시피를 제안해주는 세상이 온다.

단순한 기술 업그레이드가 아니라 우리가 AI와 상호작용하는 방식 자체가 바뀌는 것이다.


백엔드에서도 중요한 변화가 있었다.

웹 검색과 코드 실행이 이제 동시에 가능해졌다.

Stream-Google-AI-Studio-05-18-2025_04_36_PM.jpg @testingcataloge

이전에는 둘 중 하나만 선택해야 했는데, 이제는 AI가 정보를 찾으면서 동시에 코드도 실행할 수 있게 된 것.

개발자로서 이 변화의 의미는 크다.

"이 데이터를 분석해줘"라고 요청하면 AI가 웹에서 관련 정보를 찾고,

동시에 코드를 작성해 결과를 보여줄 수 있으니까.


구글은 여기서 한 발 더 나아가 에이전트 시스템도 개발 중이다.

X(구 트위터)에서 진행한 개발자 대상 설문에서 코딩 에이전트 도입 가능성을 언급했는데,

오픈AI의 Codex처럼 코드 자동화 기능을 도입하려는 움직임으로 보인다.

이 모든 기술이 하나로 모이면 어떻게 될까?

실시간으로 주변 환경을 인식하고,
필요한 정보를 웹에서 찾아오며,
그에 맞는 코드를 자동으로 실행하는 AI.


구글 I/O 행사에서 이 모든 것이 공식적으로 발표될지는 아직 모른다.

하지만 한 가지 확실한 건, 구글이 AI 기술의 통합과 자동화에 올인하고 있다는 점이다.

AI 시대에 우리는 효율만 쫓다 길을 잃을 수도 있다.

하지만 이런 기술적 진보가 단순히 효율만을 위한 것은 아니다.

미디어를 실시간으로 이해하고 반응하는 AI는 장애인의 일상을 도울 수도 있고,

언어 장벽을 넘어 소통할 수 있게 해줄 수도 있다.

중요한 건 이 기술을 어떻게 활용할 것인가에 대한 우리의 선택과 창의성이다.

구글의 이번 업데이트는 효율을 높이는 동시에 새로운 가능성의 문을 열었다.

이제 그 문을 통과해 어떤 세상을 만들지는 우리의 몫이다.


#구글AI스튜디오 #Flash모델 #실시간AI #멀티모달AI #구글IO




이글은 https://www.testingcatalog.com/google-readies-upgrade-to-stream-realtime-feature-in-ai-studio/ 을 바탕으로 작성되었으며, 해당 글의 이미지와 함께 전해드립니다.

keyword
작가의 이전글Nvidia의 새로운 비전 - AI 인프라 제국을 건설