AI, 10년 전 CES에서도 존재감만큼은 '확실'
매년 1월 초 미국 라스베이거스에서 열리는 세계 최대 IT 박람회인 CES(국제전자제품박람회)는 그야말로 전 세계의 모든 산업·IT 관련 최신 기술과 담론이 총 집결하는 곳이라고 해도 과언이 아니다. 당연히 AI에 대한 각종 논의들과 비전 제시도 숱하게 이뤄져 왔다. 올해도 예외는 아니다. 특히 '피지컬 AI', '에이전트 AI' 등 다양한 방식으로 심화된 AI가 실질적으로 인간의 생활 전반을 편리하게 할 수 있는 모습이 곳곳에서 실현돼, AI를 통한 변화가 먼 미래가 아닌 어쩌면 지금 이 순간일 수 있다는 것을 보여줬다.
그런데 이는 사실 10여년 전 이미 예고된 시나리오라고도 할 수 있다. CES에서 AI 얘기가 본격적으로 나오기 시작한 것이 올해로 11년째다. 그 이전에도 알음알음 AI에 대한 논의는 있었지만 2016년 아마존, 엔비디아, IBM 등이 본격적으로 AI와 관련된 공격적인 메시지를 CES에서 내놓으면서 전 세계 산업들의 AI에 대한 주목이 시작됐다. 물론 10년이 넘는 기간 동안 AI를 논의하는 방식은 기술 측면에서도 많이 달라졌고, 실제 구현된 방식도 많이 바뀌었다. 하지만 바꿔 말하면, AI라는 기술이 어떤 방식으로든 우리 삶에 잠재적으로 큰 영향을 미칠 수 있다는 것을 전 세계 주요 산업 관계자들이 계속해서 공감해 왔다는 의미가 아닐까.
2016년, 한국에서는 이세돌과 알파고 간 대국으로 AI 열풍이 분 해였다. 그리고 AI가 뜰 조짐은 이미 그 해 CES에서 나타났다. IBM과 엔비디아 등이 자신들의 비전을 소개하면서 AI가 단지 기술의 영역이 아니라 실제 비즈니스 용도로 널리 활용될 수 있음을 강조했다. 이 때만 해도 CES 주최측이 내세운 주요 키워드는 사물인터넷(IoT), 스마트카, 가상현실(VR), 드론, 웨어러블 등이었다. 하지만 이들 기술의 수준을 끌어올릴 수 있는 인프라적 기술로 AI가 종종 언급됐다.
구체적인 사례를 보자. IBM은 '코그너티브 비즈니스(Cognitive Business)'를 언급하며, 사람처럼 데이터를 이해·학습·추론하는 컴퓨팅 기술을 각종 기기에 적용한다면 각종 비즈니스 환경에서 새로운 가치를 창출할 수 있다고 주장했다. IBM이 전면에 내세우지는 않았지만 사실상 AI에 대한 전망이다. 엔비디아는 자율주행차 전용 슈퍼컴퓨팅 플랫폼 '드라이브 PX 2'를 내놓으며 그 중심 기술로 딥러닝을 기반으로 한 AI를 내세웠다. 자동차 스스로 주변 상황을 인식하고 안전한 경로를 따라 운영하도록 하는 콘셉트다.
그 와중에 존재감을 키운 서비스가 있었으니, 바로 아마존 '알렉사'다. 2014년 미국에서 처음 선보인 AI 음성 비서인 알렉사는 2016년 CES에서 여러 제품에 탑재됐다. 아마존이 알렉사와 관련해 직접 부스를 차리지는 않았지만, 다양한 서드파티 업체들이 알렉사와 연동한 스피커, 조명, 보안 카메라 등을 선보였고 자동차 업계에서도 포드가 알렉사를 활용한 스마트 카를 공개했다. 물론 당시에는 AI 자체보다는 IoT, 스마트홈 등의 관점에서 많이 화제가 됐지만 'AI 비서'인 알렉사의 역할이 절대적인 것은 맞았다.
알렉사의 존재감은 2017년 더욱 커졌다. 이 시기 CES는 빅테크 기업들의 'AI 음성 비서' 경쟁이 치열하게 펼쳐지던 장이었다. 삼성전자 스마트싱스, 구글 어시스턴트 등이 일제히 자신들의 AI 비서를 중심으로 엮인 생태계를 보여줬다. 하지만 가장 많은 제품에 탑재된 것은 알렉사였다. LG전자, 포드, 화웨이, 레노버 등 유수의 기업들이 자사 하드웨어에 알렉사를 탑재했다. 알렉사가 탑재된 AI 스피커 '아마존 에코'가 인기몰이를 하고 있는 가운데 글로벌 기업들도 더욱 똑똑한 기기를 만들기 위해 AI 비서의 가능성을 CES를 통해 시험해 본 것이다. 이에 복수의 IT 전문매체들은 올해 CES의 진정한 승자가 아마존이라고 평가했다.
AI 음성 비서는 이 시기 그야말로 혁신의 중심이었다. 현재 상황을 나타내는 다양한 정보를 깔끔하게 보여주고, 사람이 지시하는 각종 명령을 수행하는 모습에 열광했다. 비록 지금의 생성 AI와 비교하면 이해할 수 있는 질문의 범위가 좁았고 상호작용도 제한적이었지만, 당시만 해도 모두를 놀라게 하는 데 부족함이 없었다.
그리고 10년 뒤, CES 2026에서도 여러 기업들이 앞다퉈 AI가 적용된 각종 제품과 서비스 등을 소개하고 있다. 핵심 키워드는 '피지컬 AI', '에이전트 AI'로, 생성 AI를 계기로 크게 발전한 AI를 어떻게 생활 속의 편리함으로 잘 융합할지에 대한 담론이 주로 오간다. 그런데 잘 살펴보면, 10여년 전 CES에서 언급되던 AI와 공통점이 상당히 많다. 이를 정의하는 단어와 이를 설명하는 방식은 많이 바뀌었지만, 결국 10여년 전에 생각했던 AI에 대한 기대감들이 현재까지 이어지는 게 아닐까 싶다.
먼저 '피지컬 AI'를 보자. 피지컬 AI의 정의는 광범위하지만, 상당 부분은 로봇과 자율주행차를 아우르는 개념으로 쓰인다. 사람처럼 행동하는 로봇에, 사람처럼 말하고 듣는 생성 AI를 결합한다면 정말 그럴듯한 휴머노이드 로봇을 구현할 수 있다. 그런 점에서 보스턴다이내믹스의 산업용 휴머노이드 로봇 '아틀라스'와 LG전자의 가정용 휴머노이드 로봇 '클로이드'가 눈길을 끌었다. 확실히 이전에 출품된 로봇들보다 더욱 많은 행동과 작업을 해 내는 모습을 시연하면서다. 그러나 이를 구현할 수 있었던 발판은 10년 전에도 소개됐던 각종 로봇들이다. 당시에도 사람의 명령을 이해하고 수행하는 로봇이 있었고, 이를 거름삼아 발전해 더욱 사람과 비슷해진 로봇이 올해 다시 등장한 것이다.
자율주행차 쪽에서는 엔비디아가 AI 추론을 기반으로 자율주행을 하는 솔루션 '알파마요'를 공개해 주목받았는데, 상술했듯 엔비디아는 CES 2016에서도 딥러닝을 기반으로 한 자율주행 기술을 선보인 바 있다. 알파마요는 완전히 새로운 기술이 아니라, 엔비디아가 10년이 넘는 기간 동안 진행한 개발의 산물인 것이다. 특히 추론을 통해 "왜 이런 판단을 했는지"를 알 수 있도록 하는 데 주안점을 뒀다. 최근 생성 AI 성능이 좋아진 결정적인 요인이 추론 성능 강화임을 생각하면 큰 의미가 있다.
에이전트 AI 역시 마찬가지다. AI가 사용자 개인의 다양한 요구를 세부적으로 맥락을 파악해 이해하고, 실질적인 문제 해결에 나서야 더 큰 가치를 창출한다는 주장이 다시금 강조됐다. 이번 CES에서는 스마트폰, PC·노트북, 냉장고·TV 등 각종 가전제품에 자연스럽게 탑재된 에이전트 AI가 우리의 일상과 업무 환경에 자연스럽게 통합돼 일상의 불편함을 해소하는 모습이 소개됐다. '일상의 AI 동반자'라는 비전을 제시한 삼성전자가 대표적이다. 엔비디아 '네모트론' 모델과 같이 이를 더 잘 구현하기 위한 특화된 제품도 소개됐다.
그런데 '음성 비서(Agent)'라는 표현에서 알 수 있듯, 2016년과 2017년에도 AI가 주목받았던 이유는 결국 이와 맞닿아 있다. 각종 기기들이 음성 비서를 통해 사용자들의 더욱 다양한 지시를 수행할 수 있다는 것을 보여줬기 때문이었다. AI가 말만 해도 알아서 척척 해 주는 모습이 신기했고, 실질적으로 편리함을 제공할 수 있겠다 싶었던 것이다. '에이전트 AI'라는 말은 없었지만 이 때도 그러한 개념은 이미 구현된 셈이다. 10년의 시간 동안 이는 훨씬 고도화됐고, 그렇기에 더욱 능동적인 명령 수행이 가능하게 된 것이다.
2016년~2017년 한창 IT 기업들이 AI 스피커를 우후죽순으로 내놓았던 때가 생각난다. 아마존과 구글, 마이크로소프트 등은 물론 통신 3사, 네이버, 카카오 등이 경쟁적으로 AI 스피커를 출시하며 치열한 경쟁을 펼쳤다. 다양한 스마트 기기와 연결돼 음성으로 각종 지시를 할 수 있고, AI가 먼저 사용자에게 유용한 정보를 브리핑도 해 준다는 점에서 얼리 어답터들을 중심으로 인기를 끌었다. 그러나 한계도 뚜렷했다. 완전히 사람처럼 대화를 나누거나 능동적으로 지시를 이해하지는 못했고, 조용한 곳이 아니면 음성인식 성능도 썩 좋지 않아 질문을 못 알아듣는 경우도 많았다. 결국 AI 스피커 시장은 급격히 쪼그라들었고 신제품도 나오지 않고 있다. 그리고 AI 스피커의 기능 중 상당 부분은 챗GPT와 같은 대화형 AI 서비스가 대체하게 됐다.
AI의 발전상을 두고 생각해 보면 AI 스피커는 일종의 과도기적 제품이었다. 생성 AI가 AI 전체의 패러다임을 바꿔 버리면서 이제 AI와의 상호작용을 정말로 사람처럼 할 수 있게 됐다. 간편하게 스마트폰만 있어도 사용이 가능하기 때문에 굳이 스피커라는 폼팩터가 중요하지 않게 됐다. 여기에 기기 내부에 자체적으로 AI를 탑재하는 '온디바이스 AI' 기술도 발전하면서 굳이 스피커가 아니더라도 개별 기기에 최적화된 AI 기능을 보다 효율적으로 구현할 수 있는 길도 열렸다. 가령 삼성전자 스마트싱스, LG 씽큐 등에 결합된 생성 AI를 통해, 여기에 연동된 여러 기기들로 각종 명령을 수행할 수 있게 된 것이다. 스피커라는 하드웨어는 사라졌지만, 결국 스피커를 통해 구현하고자 했던 목적은 달성한 것이다.
이렇듯 2016년과 2026년 사이 AI는 정말 빠르게 발전했고, 그러면서 보다 우리 일상 속으로 깊이 침투하는 데 성공했다. 앞으로도 AI의 발전은 계속될 것이고, 일상에서 AI가 녹아드는 정도도 더욱 짙어질 것이다. 그 방식이 지금과 또 어떻게 달라질 것인지는 알 수 없다. 하지만 의외로, 예나 지금이나 발전의 큰 방향 자체는 크게 달라지지 않을 것이다. 10년 전에도 '피지컬 AI'와 '에이전트 AI'의 기본 개념은 시연됐고, 결국 AI가 인간의 생활 전반을 보다 편리하고 효율적이며 윤택하게 만들 것이라는 기대감은 여전하기 때문에.