CES 리뷰: 핵심 키워드와 주목해보면 좋을 사례들
최근 1월 12일, 라스베가스에서 2024 CES가 열렸습니다. 날잡고 관련 기사들을 찾아보니 올해 선정된 키워드 아래 재밌는 컨셉 디자인, 좋은 인사이트들이 많더라구요. 특히 UX 디자이너로써 흥미로운 그리고 앞으로의 사용자 경험이 기대되는 시나리오가 많았습니다. :-)
CES는 Consumer Electronics Show(소비자 가전 전시회)의 줄임말로, 세계 최대 규모의 ICT(Information Technology + Communication) 융합 전시회입니다. 수많은 제품 프리뷰와 시장을 선도하는 기업들의 제품 제안이 이어지는데요, 매년 1월에 라스베거스에서 열리고 있습니다.
2024 CES 리뷰를 시작하기 앞서, 작년 2023 CES가 선정했던 핵심 키워드를 짧게 돌아볼게요. 지난 CES의 핵심 키워드는 [메타버스], [모빌리티], [헬스테크], [ESG], [게임] 이었습니다. 예측했던대로 관련 많은 제품들이 출시됐어요. 특히 2023 CES 발표 이후 생성형 AI가 고도화됐기에, 각 분야 기업들은 AI 기술을 적극적으로 활용하여 혁신에 속도를 더했습니다.
❶ 메타버스 [XR 기술을 활용한 다양한 서비스 등장]
XR, AR 기술을 활용한 다양한 서비스가 등장할 것이라는 전망
서비스로서의 메타버스: Metaverse as a Service라는 용어가 처음으로 제시
실제 이런 전망으로 Apple Vision Pro는 ‘공간 컴퓨팅’ 개념을 제시
❷ 모빌리티 [자동차 OS 경쟁]
거대한 스크린과 자율주행 시스템을 탑재한 전기차
그 안에서 승객들이 보내는 시간을 어떻게 사로잡을지를 경쟁하는 시대가 온다는 전망
Car information System과 이를 탑채한 콘셉트카를 제안
빅데이터 기업들도 주목하는 산업으로, Apple: Car play와 Google: Android Auto 대표적 케이스
❸ 헬스테크 [원격 진료 & 피트니스 테크]
관련 다양 기술 접목, VR과 같은 메타버스 기술 연계
스마트워치, 스마트밴드 등 디바이스 위주로 전개
단순 건강 상태 모니터링을 넘어 특정 질병을 검사하거나 사전에 감지해내는 기술
삼성, 아마존, 구글의 스마트홈 경쟁: 다양한 스마트홈 디바이스의 표준 규격인 매터Matter 등장
예상하셨다시피, 올해의 CES 핵심 keyword는 인공지능이었습니다. AI는 빅테크 중 특히 소프트웨어를 다루는 기업들의 전유물이라는 인식이 강했어요. 하지만 CES 현장에서는 다양한 디바이스, 하드웨어에도 인공지능이 스며든 모습을 확인할 수 있었습니다. 인공지능과 전혀 관련 없어보이는 기업도 AI를 활용해 혁신적인 디자인을 제안한 케이스도 있었죠.
디바이스는 인공지능 실행을 위한 [수단]이 되고,
인공지능은 [서비스] 그 자체가 된다.
그래서 DaaS (Device As A Service), HaaS (Hardware As A Service)와 같은 용어가 등장했습니다. 디바이스와 하드웨어에도 인공지능이 탑재됨으로써, 이제는 모든 것들이 '서비스'가 되는거죠.
CTA 게리 샤프로는 "모든 산업 분야에 AI 기술이 적용된다" 말했습니다. 생성형 AI가 출현한 이후, AI는 영역을 가리지 않고 모든 곳들에 스며들고 있어요. 2024 CES 기조 연설 라인업과 내용만 봐도, 올해 테크 트렌드 핵심이 무엇이며 어떤 방향으로 나아갈지 짐작할 수 있습니다.
① 화장품 회사 로레알은 뷰티와 인공지능 테크 분야를 결합함으로써 B2C 측면의 고객 경험 혁신을 제안했습니다. 사용자의 성향과 상황에 맞춰 즉석에서 인공지능이 색상을 조합해주는 Smart Tint, 인공지능을 활용한 파운데이션 및 보습제 제안 등 생성형 AI를 활용한 고객 맞춤 경험에 대한 이야기를 나눴습니다.
② 개인적으로 굉장히 흥미로웠던건 인텔과 퀠컴의 '생성형 AI 반도체'에 대한 이야기인데요, 온디바이스 AI(On Device AI)의 시대가 올 것이라는 전망입니다. 온디바이스 AI란 디바이스 역량만으로 구현하는 인공지능 기술로, 인터넷 연결 없이도 PC와 노트북, 스마트폰과 같은 디바이스에서 인공지능 서비스를 제공합니다. 온디바이스 AI가 실현된다면 우리는 비행기 모드에서도 ChatGPT와 대화를 나눌 수 있는거죠.
+ ③ 이 외에도 마이크로소프트(Microsoft)가 MS office에서 작동하는 개인형 생성형 AI 비서 '코파일럿'을 비롯해 여러 생성형 AI를 선보이는가 하면, 아마존(Amazone)은 인공지능이 우리 주변에 있는지 없는지 모를 정도로 자연스럽게 스며될거란 뜻의 'Ambient AI' 테마를 제안했습니다.
Ambient AI라는 용어가 흥미롭습니다. 지난 3~4년동안은 'Calm-Tech' 키워드가 화두였죠. 참고로 캄테크(Calm-Tech)란 조용하다는 뜻의 Calm과 기술을 뜻하는 Tech의 합성어로, 평소에는 조용한 상태로 있다가 사용자가 필요로 할 때 각종 서비스를 제공하는 기술을 뜻합니다.
Calm-Tech 동향과 AI가 자연스럽게 결합된 것 같습니다. 이제 AI는 우리 일상에서 뗄레야 뗄 수 없는 존재이고, 우리가 인식하지 못할 정도로 자연스럽게 그리고 폭넓은 영역에서 스며들테니까요.
작년에도 핵심 키워드로 선정됐던 모빌리티와 헬스, 그리고 다시 부상한 푸드테크가 올해의 키워드입니다. 개인적으로 앞 두 키워드가 재밌더라고요. 그래서 해당하는 자세한 컨셉 사례를 가져왔습니다.
❶ 모빌리티
전기차를 중심으로 AI를 결합한 OS와 자율 주행 시스템 경쟁이 가속화될 전망입니다. Car Information system을 제안했던 기업들이 AI를 어떤 방식으로 결합 중인지 찾아보셔도 재밌으실겁니다.
LG전자가 제안한 Concept Car을 살펴볼까요. LG는 자동차를 '개인화한 디지털 공간'으로 재정의합니다. 자동차는 더 이상 단순 운송 수단이 아닌, '사용자가 놀고, 머물고, 일하는 [나만의 공간]이 된다'는 비전입니다. LG 전자의 강점인 디스플레이에 인공지능을 결합함으로써, 고객 니즈에 맞춰 변형 가능한 차량 공간 경험을 제안했어요.
❷ 헬스케어
작년 헬스테크에 이은 올해 헬스 케어분야도 흥미롭습니다. 대표적으로 삼성이 제안한 '봇핏'이 있는데요, 봇핏은 의료용 보행 보조 로봇으로 거동이 불편한 노년층을 도와주는 보조 기구입니다. 근래에 출시할 계획인 것 같은데, 많은 시니어들에게 도움이 되면 좋겠습니다.
AI와 관련해서 주목할만한 전망, 프로젝트 사례입니다. 앞에서 언급했던 온디바이스 AI와도 이어져서 조금 자세히 다뤄보고자 합니다.
생성형 AI가 급격히 발달하면서, 입력 방식과 작동 방식 두 측면에서 큰 특징을 보이고 있습니다. ① 멀티모달[입력 방식의 변화]과 ② AI 에이전트의 등장[작동 방식의 변화] 인데요.
① 멀티모달 [입력 방식의 변화]
키보드와 마우스를 통해 기계에게 업무를 지시하던 것을 뛰어넘어, 주변 사물이나 사용자의 음성을 인식하는 멀티모델 기술을 바탕으로 인간과 기계가 '대화'하리라는 전망입니다. 이제는 손가락이 아닌 목소리나 주변 인프라로 모든 것을 제어하는 거죠.
② AI 에이전트의 등장[작동 방식의 변화]
나만의 에이전트 '커스텀 Chat GPT', 올해 삼성에서 출시한 S24에 탑재된 생성형 AI '가우스'. 앞으로는 이런 AI 에이전트가 우리의 일상 많은 것들을 대신 진행해줄거라 예상됩니다.
예를 들어 여러분들이 친구들과 신년 모임을 계획 중에 있다 가정해봅시다. 그렇다면 지도 앱을 켜서 식당을 찾아보고, 식당 예약 앱으로 예약 가능 일자를 확인한 뒤, 메신저로 친구들과 일정을 조율합니다. 일정이 픽스되면 다시 식당 앱을 이용해 예약할테고요. 보기만 해도 번거로운 이 과정을 이제는 AI 에이전트가 알아서, 쉽게 해줄겁니다. 그저 "어떤 친구들과 신년회를 하려는데, 6명이 갈 수 있는 식당을 예약하고 관련 정보를 누구누구 친구들에게 보내줘."라 요청하면 끝이죠.
이렇게 입력 방식과 조작 방식이 모두 바뀌다보니, 지금과 같은 디바이스 폼팩터가 더 이상 필요없어질지도 몰라요. CES 2024에서 선보여진 래빗Rabbit의 [AI 디바이스 R1], 리와인드Rewind의 [AI 팬던트], 휴메인Humane의 [AI Pin]이 그렇죠. 스마트폰이나 노트북과는 전혀 다른 폼팩터의 디바이스들입니다.
① Rabbit_ AI 디바이스 RI
R1은 손바닥 안에 들어오는 자그마한 크기의 인공지능 비서로, 신용카드 세로 길이보다 작습니다. 사용자의 음성 지시를 인식하여 업무를 진행하는 원리로, 사람들이 다양한 앱에서 일상적으로 하는 행동들을 학습해 명령을 수행합니다. Rabbit은 해당 제품과 함께 LAM(Large Action Model)이라는 '초거대 행동 모델'이란 개념도 제안했는데요, 이는 LML(Large Multi Model, 대형 멀티 모델)을 변형해 만든 용어입니다.
LLM(Large Language Model)은 초거대 '언어' 모델입니다. 인간의 언어를 학습하고 모방하죠. 그 다음 단계가 LML(Large Multi Model)입니다. 언어(텍스트) 뿐만 아니라 이미지까지도 학습해요. 그리고 여기에서 더 나아가 제안된 개념이 바로 LAM(Large Action Model)입니다. 음성, 이미지 외에도 인간의 행동까지 학습하여 모방하는거죠.
이제는 필요한 작업을 수행하기 위해, 스마트폰에서 각기 다른 용도의 앱을 찾아다닐 필요가 없습니다. 사용자의 PC와 스마트폰 사용 기록을 연동하여 이용자가 직접 조작했던 기능을 학습한 AI가 대신 수행할거예요.
② Rewind_ AI 팬던트
휴대할 수 있는 목걸이 형태의 AI 팬던트로, 사용자가 말하는 것과 듣는 것을 모두 텍스트로 암호화하여 보관합니다. 그래서 이후 내가 어떤 말을 했는지, 혹은 어떤 정보를 들었는지 궁금할 때 곧바로 도움을 받아 찾아볼 수 있어요.
③ Humane_ AI Pin
브로치 형태의 AI 디바이스 핀으로, 초소형 웨어러블 디바이스입니다. 레이저 프로젝트를 활용하여 사용자 손바닥이나 주변 물체의 표면에 최대 40cm의 디스플레이를 투사합니다. 메인 조작 방식은 음성이고, 손동작을 카메라가 인식하거나 터치패드가 있는 기기를 터치하는 방법으로도 조작 가능합니다. 해당 디바이스는 자체 AI 에이전트가 아닌, 오픈 AI GPT 4를 활용하고 있습니다.
원채 Tech쪽으론 관심이 없던 저입니다. 그런데 어라라.. 이 무지막지한 육각형 인재 추구 사회, 나날히 빨라지는 역량 상향 평준화 업계에서 기술에 관심 갖지 않으면 디자이너로써 살아남기 힘들 것 같더라고요. 그래서 근래 '아니 그냥 없어요' 였던 기술 분야에 대한 관심을 '조금 있어요'로 넓혀가는 중입니다.
관련 기사나 영상을 찾아보기 전엔 너무 어렵고, 쇠 냄새 나는 이야기라 생각했는데.. 막상 이것저것 찍먹해보니 신기하고 재밌는 기술들이 많네요. CES는 말로만 많이 들었지, 이렇게 직접 열심히 찾아본 건 처음입니다. 그 덕분에 제 알고리즘은 쇠냄새나는 기술로 지배당했고요. 앞으로도 재밌는(UX 디자이너로써) Tech insight나 동향이 있다면 글감으로 가져올게요. 아, 그리고 Tech 입문자에게 추천해주실만한 아티클이나 컨퍼런스를 알고계신다면 슬쩍 알려주세요. 그럼 안농!