AI는 사람이 질문을 던지면 답을 만들고, 문장을 이어 붙이며, 개념을 조합한다.
요즈음 우리는 그 능력에 감탄하지만, 동시에 어딘가 가상세계 혹은 비현실적인 느낌도 받는다.
AI는 세상을 이해하는 것처럼 보이지만, 사실 현실 세상에서 직접 생활하고 있지 않기 때문이다.
PC나 스마트폰 화면에서만 존재하는 지능은 결국 현실을 제한적으로 이해하고, 우리의 삶을 크게 바꾸지 못한다는 한계가 있다.
이 한계가 본격적으로 변화하기 시작한 것은 불과 몇 년 전이다.
AI가 더 이상 말로만 존재하지 않고, 현실을 인식하고 판단하며 움직이기 시작했다. 사물을 잡고, 옮기고, 균형을 잡고, 충돌을 피하는 지능. 우리는 이 것을 Physical AI라고 부른다.
말하는 AI와 행동하는 AI는 다른 세계에 산다. LLM 기반 AI, 즉 Chat GPT나 제미나이등은 사람이 질문을 해야 비로소 AI가 반응한다. 사람의 질문이나 명령 혹은 서술이 없다면, AI는 전혀 스스로 반응할 수 없다.
입력은 언어이고 출력도 언어다. 그래서 LLM(대형언어모델)이라고 한다. 물론 이미지나 동영상 등 멀티모달등이 있지만, 맥락은 동일하다. 그림이나 동영상 등도 언어의 변형 모델일 뿐이다.
반면 Physical AI는 사람의 질문이나 명령 서술을 기다리지 않는다.
주변 환경이나 세계가 변하는 순간, 그것이 곧 입력이 된다. 온도와 무게, 마찰과 거리, 속도와 관성. Physical AI에게 이 물리적 신호들은 모두 즉각적으로 처리돼야 할 현실이다. 여기에는 지연이 허용되지 않는다. 판단이 늦는 순간, 그것은 오류가 아니라 사고가 된다.
그래서 Physical AI는 아무리 똑똑해도 느리면 쓸 수 없고, 아무리 정확해 보여도 예측 가능하지 않으면 위험하다. 이 지점에서 우리는 인간과 로봇의 차이를 다시 보게 된다.
인간은 유리잔을 잡을 때 계산하지 않는다. 떨어뜨리면 깨질 것을 이미 알고 있고, 뜨거운 물체를 만지면 반사적으로 손을 뺀다. 너무 세게 밀면 넘어진다는 감각도 몸에 배어 있다. 이것은 논리적 추론의 결과가 아니다. 몸 전체에 축적된 물리적 직관이다. 수많은 실패와 통증, 관찰이 만들어낸 암묵지다.
로봇에게 이 능력을 학습시키는 일은 생각보다 훨씬 어렵다. 센서를 더 다는 것으로 해결되지 않는다.
문제는 감각을 하나의 의미 있는 세계 모델로 통합하는 능력에 있다.
Physical AI가 마주한 가장 높은 장벽은 언어도, 계산도 아니다. ‘이건 깨질 것 같다’는 느낌, ‘이건 위험하다’는 직관을 갖게 만드는 일이다.
하지만 로봇은 현실에서 쉽게 실패할 수 없다. 넘어지면 부서지고, 잘못 잡으면 파손된다. 실패의 비용이 너무 크다. 이 딜레마를 가장 정면에서 풀고 있는 기업이 엔비디아다.
엔비디아는 Physical AI를 똑똑하게 만들기 전에, 실패해도 되는 세계부터 만들었다. 빛과 재질, 질량과 마찰, 충돌과 관성까지 포함한 가상의 물리세계인 엔비디아 옴니버스에서 로봇은 수천, 수만 번 유리잔을 떨어뜨리고, 넘어지고, 미끄러지고, 잘못 잡는다.
이 가상 세계의 목적은 현실을 완벽히 복제하는 데 있지 않다. 현실에서 치명적인 실패를 미리 제거하는 것이다. 물론 가상과 현실은 다르다. 스크린 골프와 필드 골프의 차이처럼, 마찰과 재질, 예외 상황에는 언제나 오차가 남는다. 그럼에도 불구하고 생명과 안전이 걸린 기술에서 가상 학습은 선택이 아니라 의무다. 다만 그것을 과신하는 순간, 위험은 다시 커진다.
Physical AI라는 말이 산업의 언어로 분명히 자리 잡은 계기는 2025년 CES였다. 당시 엔비디아 젠슨황은 AI의 다음 단계를 설명하며, 언어를 다루는 AI를 넘어 현실 세계에서 움직이고 행동하는 AI를 명확히 지목했다. 그것은 기술 소개라기보다 방향 선언에 가까웠다.
그리고 1년 뒤 이번 CES 2026에서 현실이 되었다. 사람들의 발길이 멈춘 곳은 더 잘 말하는 AI가 아니라, 직접 움직이며 현실과 부딪히는 로봇과 자율 시스템 앞이었다.
이 변화는 현대자동차의 전시에서 상징적으로 드러났다. 관람객들이 가장 오래 머문 곳은 차량 내부가 아니라 현대자동차 계열사인 보스턴 다이나믹스의 Physical AI 아틀라스 앞이었다.
아틀라스는 아직 Phyical AI라고 하기에는 부족하다. LLM 대화도 없다.
하지만, 걷고, 뛰고, 균형을 잡는 그 움직임은 분명한 메시지를 던졌다. AI의 다음 경쟁력은 얼마나 잘 말하느냐가 아니라, 얼마나 안정적으로 움직이느냐라는 사실이다. 현대차가 로봇을 전면에 내세운 이유는 분명했다. 자동차 이후의 산업 전략, 즉 움직임 그 자체를 지배하는 Physical AI에 대한 선택이었다.
테슬라의 옵티머스 역시 같은 흐름 위에 있다.
테슬라는 옵티머스를 가정용으로 앞세우지 않는다. 대신 자사 공장과 물류 현장처럼 환경이 정리된 공간을 전제로 한다. 여기서 중요한 점은 옵티머스의 두뇌가 아직 LLM 중심이 아니라는 사실이다.
판단은 제한적이고, 행동은 빠르며, 무엇보다 예측 가능성이 우선된다. 이것은 기술 부족이 아니라 의도적인 설계다. 생명과 안전이 걸린 영역에서 비결정적인 사고를 중심에 두는 것은 아직 산업적으로 감당할 수 없기 때문이다.
Physical AI가 현실로 내려오면서 반도체 산업의 축도 함께 이동하고 있다.
AI는 여전히 데이터센터에서 학습되지만, 그 가치가 실현되는 곳은 에지, 즉 현장이다. 자율주행 차량과 로봇은 클라우드에 물어보고 움직일 수 없다. 그 자리에서 보고, 그 자리에서 판단해야 한다. 그래서 테슬라는 범용 GPU 대신 자율주행과 옵티머스를 위한 전용 에지 AI 반도체를 직접 설계했다. 이 칩의 목표는 고성능이 아니라, 지연 없는 판단과 전력 효율, 그리고 안정성이다.
이 지점에서 삼성전자의 역할이 다시 중요해진다. 에지 AI 시대의 반도체는 미세공정 하나로 승부가 나지 않는다. 전력과 발열, 신뢰성, 장기 공급 능력까지 포함한 현실 적응력이 핵심이 된다. AI 시대의 진짜 반도체 전쟁은 데이터센터가 아니라, 물리 세계의 끝단에서 벌어진다.
Physical AI의 진화가 생각보다 느리게 보이는 이유는 기술이 부족해서가 아니다. 가장 큰 이유는 검증과 책임의 문제다. 언어 모델은 틀리면 다시 질문하면 된다.
그러나 Physical AI는 한 번의 판단이 넘어짐이 되고, 충돌이 되고, 사고가 된다. 이 차이는 단순한 위험도의 문제가 아니라, 되돌릴 수 있느냐의 문제다. 그래서 Physical AI의 발전 속도는 언제나 기술이 아니라, 검증과 책임의 속도에 의해 제한된다.
Physical AI가 현실에 들어오는 순간, 기술보다 먼저 마주치는 것은 책임의 공백이다. 로봇이 판단했을 때 그 판단의 책임은 누구에게 있는가. 칩을 설계한 기업인가, 소프트웨어를 만든 개발자인가, 아니면 그 로봇을 현장에 배치한 운영자인가. 이 질문은 아직 명확한 답을 갖고 있지 않다. 그래서 기업들은 기술보다 한 발 뒤에서 움직이고, 국가는 기술보다 더 느리게 반응한다.
Physical AI는 로봇의 문제가 아니라 곧 도시와 사회의 문제가 된다. 로봇이 늘어날수록 공간은 누구를 기준으로 설계될 것인가. 사람의 보행 속도에 맞춰진 도시가 로봇의 동선과 충돌하기 시작하면, 우리는 기술이 아니라 공존의 규칙을 다시 만들어야 한다. Physical AI는 결국 ‘기계가 얼마나 똑똑한가’가 아니라, 사회가 얼마나 준비돼 있는가를 시험한다. 온디바이스 형태의 Physical AI 충돌의 위험이 언제나 존재한다. 각 AI의 목적이 개별적이기 때문에 결국 일정한 범위 규제와 자율성에 대한 사회적 통제가 불가피하다.
사람들은 종종 Physical AI와 LLM의 결합을 두고 Super AI의 등장을 상상한다.
하지만, 현실은 훨씬 복잡하고, 훨씬 느리다. 사고와 행동을 모두 맡길 수 있는 지능은 기술적으로도, 사회적으로도 아직 허용되지 않는다. 지금 우리가 보고 있는 것은 전능한 하나의 지능이 아니라, 역할이 분리된 여러 지능이 조심스럽게 연결되는 과정이다. Physical AI의 미래는 초월이 아니라 조율에 가깝다.
즉 현실적으로는 LLM과 Physical의 완벽한 결합이 아니라, 산업이나 공동체의 필요에 따른 에지형 Phyial AI나 SLM(소규모 언어모델) 방식의 특화된 Physical AI가 가까운 미래에 많이 활용될 것이다.
즉 성형수술하는 Physical AI처럼 말이다.
결국 Physical AI가 우리에게 던지는 질문은 기술 그 자체가 아니다. 악의적인 AI가 등장할 것인가가 아니라, 규칙 없는 자율성을 어떻게 다룰 것인가다. 그리고 진짜 가능성은 전능한 하나의 지능이 아니라, 겸손하게 설계된 분산 지능에 있다.