AWS 서밋 후기: AI 세션 & 부스
LA에서 AWS Summit 2025가 열린다고 해서 다녀왔다. 한국에서도 항상 가보고 싶었으나 평일이라 못갔는데, 딱 쉬는 날에 진행되서 다녀왔다. 아침부터 저녁까지 진행되고, 마지막에 한 시간 정도 네트워킹 하는 시간이 있는데. 나는 오후에 가서 둘러보고 네트워킹은 거의 못했다. 아침부터 갔어도 재밌었을 것 같아서 조금 일찍 갈 걸 후회됐다.
AWS이니까 너무 기술적이고 어렵지 않을까 걱정했는데 생각보다 들을만 했다. 필요한 지식에 따라 레벨을 나눠뒀는데, 배경지식이 별로 없는 사람들도 충분히 이해할 수 있는 세션들이 많았다.
크게 두 가지로 나누어져 있었다. (1) AWS에서 진행하는 강연 (2) AWS를 사용하는 기업들의 소개 부스. 전자를 기대하고 갔으나 의외로 후자가 재밌었다.
데모를 포함하여 AWS를 어떻게 사용할 수 있는지, 프로덕트와 유즈 케이스에 대해서 설명을 해준다. Silent Session이라고 하여 앞에서 발표를 하면 헤드폰을 통해서 듣는 형식으로 진행이 된다. 한 장소에서 4개의 세션이 동시에 진행되고 있었다.
내가 들은 세션은 이미지 생성에 관한 것이었다. Amazon에서 판매하는 상품의 이미지를 가지고 광고 동영상을 생성하는 방법을 보여줬다. 기획자가 프로덕트와 유즈케이스에 대해 설명하면, 엔지니어가 그 기술에 대해서 설명을 했다.
1. 이미지는 어떻게 생성이 될까?
이미지 생성하는 유닛, 텍스트 생성하는 유닛, 등을 '빌딩블록'으로 하여 동영상을 만들어낸다고 했다. 각각의 빌딩 블록을 조립하여 워크플로우를 만들고, 그 워크플로우를 반복하여 동영상을 생성하는 것이다. 그럼으로써 (1) 효율적으로 비디오를 생성할 수 있고 (2) 고객의 니즈에 맞춰 변경할 수 있고 (3) 시각적으로 만족스러운 동영상을 만들어낼 수 있다고 설명했다. 구체적인 내용은 솔직히 못알아들었다 (ㅠ_ㅎ)
AI를 사용함에 있어서 그들이 얻은 교훈은 (1) 프로덕트를 만들 때 오프라인에 대한 투자도 함께 되어야 한다. (유저 리서치를 열심히 해야한다는 뜻으로 이해했다) (2) 전체 프로세스를 나누어 빌딩 블록으로 만들어두면 유연하게 설계할 수 있다. (3) 반복적인 작업을 위하여 람다를 사용하는 게 효율적이다. (4) 비디오를 생성할 때는 렌더링 작업이 오래 걸려 AWS Forgate를 사용하는 것이 좋다.
2. Creative Studo 데모를 보여줬다.
(1) Creative Studio에서 상품id를 검색한다.
(2) 데이터베이스에 있는 이미지를 불러오면, 그 중 사용할 것을 선택한다.
(3) 프롬프팅을 통하여 추가하고자 하는 내용을 작성한다.
(4) 여러 가지 이미지가 생성된다.
(5) 추가 프롬프팅으로 이미지를 수정 할 수 있다.
동영상도 이와 비슷하게 만들어지는데, 개인적으로는 아직 스케일이 잘 맞지 않고 '불쾌한 골짜기'에 있다는 생각이 들었다. 또한 영상 길이가 최대 5초라는 것도 아쉽게 느껴졌다. 하지만 간단하게 많은 상품의 광고를 만들 때에는 유용하겠다는 생각이 들었고, 기술이 발전하며 현재 불가능한 것들도 추후에는 가능해지지 않을까 싶었다. 또한 그림자 기술은 꽤나 뛰어나다고 생각했다.
AI를 사용하여 서비스를 제공하는 회사들이 많이 있었다. 스타트업부터 큰 회사까지 한 번에 만나보기 좋은 자리였다. 데모를 구경하기도 하고, 궁금한 점이 있으면 직접 물어볼 수 있었다. 흥미롭게 봤던 회사들 몇 군데를 소개하고자 한다.
1. Data Dog
DataDog은 데이터를 수집하고 한눈에 볼 수 있도록 대시보드를 제공하는 회사다. 예전에 일할 때 Tableau나 Data Story를 사용했는데, 주로 마케터나 PM이 활용했다. 반면 DataDog은 엔지니어까지 폭넓게 사용하며, 간단하게 로그를 확인할 수 있다는 점이 가장 큰 특징이었다. 특히 AI Recommendation 대시보드를 통해 데이터에서 이상 징후를 자동으로 감지해주어 제품 개선 아이디어를 얻을 수 있고, 서버 이슈 발생 시 가능성 높은 원인을 추정해줘 문제 해결에도 유용할 것 같았다.
최근 흥미로웠던 기능 중 하나는 데이터 로그 수집 방식이었다. 예전에는 보고자 하는 영역에 직접 코드를 심어야 했지만, 이제는 사용자가 실제로 이용한 화면 영상을 수집해 로깅 없이도 행동을 파악할 수 있다. DataDog 역시 이 기능을 제공하며, 해시태그로 영상을 요약해주고, 특히 사용자가 실망 했을 가능성이 높은 구간을 표시해주는 점이 인상적이었다. 다만 기존 로깅처럼 통계적으로 한눈에 보기보다는 개별 사용자 단위로 확인해야 하고, 서비스 전반에 적용하면 로딩 속도나 비용 부담이 커질 수 있다. 그래서 크리티컬 패스 위주로 적용해보면 좋을 것 같다.
2. Intel AI
부스에 전시된 로봇이 눈길을 끌었다. 기존 로봇은 내부에 컴퓨팅 기능을 넣어 설계하지만, 이 로봇은 외부 클라우드에서 연산을 수행하고 로봇은 출력만 담당한다고 설명했다. 이 방식은 GPU 사용을 최소화할 수 있고, 로봇을 다양한 크기로 설계할 수 있다는 장점이 있다고 했다. 컴퓨터에 프롬프트를 입력하면 로봇이 그에 맞춰 인사를 하거나 걸어다니는 등의 동작을 수행했다. 아직 상용화 단계는 아니었지만, AI의 새로운 활용 가능성을 제시했다는 점과 로봇과 결합했다는 점이 무척 흥미로웠다. 같이 간 친구가 기술적인 질문을 많이 해서 설명을 오래 들었는데 솔직히 나는 절반도 이해하지 못했다....ㅎㅎ
3. AWS X F1
AWS에서 실제로 F1과 협업하여 레이싱카에 센서를 부착하여 데이터를 수집하고 그를 통해 훈련을 하고 있다고 했다. 부스에서 소개하고 있는 것은, 그에서 영감을 받아(?) 만들어진 F1 자동차 게임이었다. 화면에 손가락으로 그림을 그려 직접 게임 맵을 만들 수 있고, 프롬프트를 입력해 글자나 음성으로 난이도를 조정하거나 배경 화면을 지정, 원하는 요구사항도 설정할 수 있다. 수정이 끝나면 ‘맵 생성’ 버튼을 눌러 자신이 만든 맵에서 카트라이더처럼 경주를 즐길 수 있다. 이 게임은 AI를 활용해 맵을 개인화하고, 맵에 사용할 이미지를 자동 생성한다고 했다. 다만 컷당 필요한 이미지 수가 많아 보여 상당한 컴퓨팅 파워가 필요할 것 같았다. 아직 퀄리티가 높다고 느껴지진 않았지만, AI를 게임 산업에 접목한 흥미로운 사례였다.
AI 마네킹으로 글을 마무리 하고자 한다. 마네킹에게 말을 걸면 대답을 해주는데, 그 대답이 꼭 사실은 아닌 것 같았다.ㅋㅋ