AI의 모든 것, Google I/O 2025

디자이너의 역할은 이제 무엇일까

by Kimdoyeon


Google I/O 2025에서는 AI 기술이 제품 제작, 디자인, 커뮤니케이션, 검색 경험 전반에 걸쳐 어떻게 변화를 이끌고 있는지 다각도로 조명했습니다. 구글의 AGI(범용 인공지능) 비전을 중심으로, 프로덕트 디자이너의 시선과 함께 주목할 만한 핵심 발표 내용으로 정리했습니다.




1. AI 영상, 이젠 오디오까지 자동화

VEO3 엔진과 Flow : Google이 새롭게 선보인 영상 제작 플랫폼 Flow는 VEO3 엔진을 기반으로 영상과 음성은 물론 배경음, 효과음까지 하나의 워크플로우 내에서 자동으로 생성할 수 있도록 설계된 도구입니다.


주요 기능

텍스트 기반 영상 생성: 사용자가 텍스트 프롬프트 (예: "밤하늘을 나는 고양이와 초현실적인 도시 배경")를 입력하면, AI가 이를 바탕으로 영화 같은 고품질의 짧은 영상을 생성합니다.

장면 빌더(Scenebuilder): 생성된 장면을 편집하고 확장하여 자연스러운 연속성과 일관된 캐릭터를 유지하면서 더 긴 영상을 만들 수 있습니다.

시각 자산 생성: 필요한 캐릭터나 배경 이미지가 없을 경우, Imagen을 활용하여 즉석에서 시각 자산을 만들어낼 수 있습니다.

Flow TV: Veo로 생성된 다양한 클립, 채널 및 콘텐츠를 탐색하여 창작 영감을 얻을 수 있으며, 클립별로 사용된 프롬프트와 기법도 확인할 수 있어 학습 도구로도 활용됩니다.


사용 조건 및 제약

Google AI 울트라 구독 필요 (월 125달러)

영상 생성 시 VEO3 엔진 사용 크레딧 필요 (1달러당 약 100크레딧, 영상 1개당 150크레딧)

현재는 미국 지역에서만 이용 가능

한국어 음성 미지원, 일부 장면에서 시선처리와 싱크 오류 발생


사용자 후기 요약

영상 내의 자막이 나오는 오류가 발생함.

영상 간의 시선 처리 어색, 싱크가 조금씩 엇나가는 부분도 존재함

아직까지 사용자의 디테일한 디렉션에 조금은 부족

초기 단계지만 제작 프로세스에 대한 큰 변화를 가져다줄 것으로 보임





2. 검색의 진화

쿼리 팬아웃 및 개인화 검색 흐름 : Google 검색은 이제 단순한 키워드 중심에서 벗어나, AI 기반 고급 추론과 개인화 기능을 접목하며 구조적인 재편에 들어섰습니다.


핵심 기능

쿼리 팬아웃(Query Fan-out) : 복잡한 질문을 하위 쿼리로 자동 분해하고 동시에 분석

AI 개요(Summary) : 사용자의 질문에 대해 맥락을 고려한 종합적인 요약 제공

개인화 추천 기능 : Gmail, 캘린더 등을 분석해 관련된 장소, 이벤트, 일정 추천

연속형 검색 흐름 : 이전 검색과 연결된 자연스러운 후속 질문 가능 (대화형 UX)


시사점 : 검색 기능을 기획할 때 단순 키워드 매칭이 아닌 문맥 기반 반응 설계가 더욱 중요해지고 있습니다.




3. Gemini 2.5 Pro 및 AI 기반 제작 도구

Google은 최신 AI 모델인 Gemini 2.5 Pro를 발표하며 디자인과 개발 전반에 걸쳐 실시간 자동화 및 생성 기능을 강화하고 있습니다.


핵심 기능

UI 생성 및 코드 자동화

사용자 명령에 따른 실시간 화면 구성 제안

Android/iOS용 Gemini 앱 출시 → Canvas를 통한 45개 언어 시각화 및 문서 변환 지원


확장 사례 : Google Robotics

Google은 Gemini 모델이 로보틱스 분야로 확장되고 있음을 공개했습니다. 로봇은 사용자의 지시에 따라 물체를 조작하고, 새로운 작업에도 유연하게 적응할 수 있도록 훈련 중이며 이는 인간의 의도를 실시간으로 해석하고 반응하는 능력으로 이어집니다.


활용 가능성 : 반복적인 레이아웃 설계, 구성 실험, 데이터 기반 UI 제작에 매우 적합하며, 디자인-개발 간 협업 효율성 또한 크게 향상될 수 있습니다.




4. 실시간 번역 및 XR 기반 사용자 경험


XR 스마트 안경

Android XR 스마트글라스 발표: 디스플레이 내장 되어 주변 정보 제공, 내비게이션, 시각 정보 시각화

연결성: Wi-Fi, Bluetooth 등을 통해 인터넷이나 다른 기기와 연결 가능

젠틀몬스터와의 협업으로 웨어러블 UX 확장


실시간 번역 기능 (Google Meet)

Google Meet에 실시간 번역 기능 추가 → 회의 중 다국어 소통 가능

화상회의 중에 사용자가 말하는 내용을 다른 언어로 즉시 번역하여 상대방에게 전달할 수 있다.

이는 언어 장벽을 허물고 글로벌 커뮤니케이션을 촉진하는 데 기여할 것으로 기대된다.


디자인 시사점: 다국어 UX 흐름, AR/XR 기반 정보 디자인, 실시간 인터페이스 반응성 등이 향후 디자인 설계에서 필수 고려 요소가 될 것입니다.




5. 생성형 미디어 도구 및 스토리텔링

브랜드 콘텐츠, 제품 데모, 사용자 인터뷰 등의 시각화 작업을 더욱 빠르게 구현할 수 있도록 지원하는 다양한 생성형 AI 도구가 발표되었습니다.


주요 기능

Imagine 4: 고품질 이미지 및 텍스트 생성 지원

V3 비디오 모델: 오디오-비디오 동기화 향상

Flow 기반의 영화형 콘텐츠 제작 기능 제공




6. 사회적 가치 실현을 위한 AI 기술

Google은 기술을 실제 사회적 문제 해결에 적용하기 위한 다양한 프로젝트를 병행하고 있습니다.



주요 사례

Firesat: 산불 조기 감지 및 확산 예측 시스템

Astra: 시각장애인을 위한 실시간 시각 해석 AI

드론 배송 시스템: 재난 시 긴급 보급 및 구호 활동 자동화




마무리하며

이번 Google I/O를 통해 다시금 느낀 것은 좋은 UX란 기술을 기반으로 사람과 더 가까워지는 경험을 설계하는 일이라는 점입니다. 기술이 정교해질수록 오히려 사용자 맥락에 대한 섬세한 이해와 반응성 있는 설계가 더욱 중요해져 보입니다. AI 기능을 도입을 넘어 사용자의 감정, 맥락, 상황을 더 정교하게 이해하고 대응할 수 있는 UX 흐름을 설계하는 데 집중이 필요해 보입니다.


AI는 학습된 데이터에 기반하기 때문에 과거의 편향을 그대로 반영하거나 특정 집단을 배제하거나 왜곡할 가능성이 있습니다. 따라서 기술이 사용자를 이해하고 존중하도록 설계해야 하며 데이터의 신뢰성, 다양성, 포용성을 고려한 시스템 설계가 필수적인 것으로 보입니다. 기술은 수단이고 사용자와의 관계를 어떻게 설계할지는 디자이너의 몫이지 않을까 싶습니다.


글을 마치며 Gemini 2.5 Pro, Flow와 같은 구글의 도구를 빠르게 활용해 봐야겠습니다.




Google I/O 영상 보러 가기

더 자세한 내용을 원하신다면 아래의 Google I/O 2025 발표 영상을 보시는 것도 추천드립니다.

https://www.youtube.com/live/o8NiE3XMPrM?si=ekY4o-CIO8gOATO_


keyword