모두가 놓친 (듯한) 샘 알트만의 '시그널'
* 이 글은 AI 전문 뉴스레터 '튜링 포스트 코리아'에 게재한 글의 일부입니다. AI 기술, 스타트업, 산업과 사회에 대한 이야기에 관심이 있으시면 '튜링 포스트 코리아' 구독해 주세요.
지난 주 애플의 WWDC 2025이 있었죠. 여기서 가장 화제(?)가 되었던 Liquid Glass가 발표되었지만, AI 기능으로 무장한 Siri는 연기될 거라는 소식이 들린 이후로, 애플에 대한 사람들의 실망과 비난이 거세지고(?) 있는 것 같습니다 - ‘AI 대신 UI를 줬다’는 소리도 있는 걸 보면요. 어쨌든, 문득 든 생각이 있는데요:
“어쩌면, 애플 인텔리전스 (Apple Intelligence)의 진짜 목표는 - 다시 말해서, 애플의 AI 전략에 있어서 가장 중요한 핵심은 - 외부의 거대 모델을 쓰는게 아니라, 애플 디바이스 자체를 소형의 데이터 팩토리로서, 그리고 소비자용 AI 에이전트 플랫폼으로 바꾸고 포지셔닝하는데 있는 건 아닐까?”
하는 겁니다. Siri 출시가 연기된 건 그 자체로 문제이긴 합니다만, 그런 초점 자체는 꽤 그럴 듯한 아이디어이긴 합니다.
그렇게 본다면, 애플은, Agentic AI를 개발하고 배포하는 방식을 타사들과는 많이 다른 방식으로 뒤흔들려고 할 거라고 예상할 수 있습니다. 온디바이스 모델을 개발자들에게 개방해서, 클라우드에서 돌지 않고, 사용자의 데이터를 외부로 보내지도 않고, 오픈AI 키도 필요없는, 완전히 새로운 유형의 앱 생태계가 열리게 될 수 있습니다. ‘모델’은 운영체제(OS)에 내장되어 있고, ‘실행 환경 (Runtime)’은 사용자의 소유인 거죠.
그런데, 이런 접근 방식을 한다면, 중요한 질문 하나가 생깁니다:
‘개발자가 모델에 접근할 수 있다면, 보안은 어떻게 처리되나?’
이 질문은 두 가지 측면으로 나눠서 생각해 볼 수 있을 것 같습니다.
일반 개발자가 애플의 독점적 모델에 질문을 던지거나, 노트를 요약하게끔 하거나, 텍스트를 생성하게끔요청을 할 수는 있지만, 모델의 메모리, 가중치(Weights), 사용자의 컨텍스트(Context)를 본다든가 하는 건 불가능합니다. 애플이 컨텍스트 레이어를 비공개로 유지하기 때문이죠.
이 구조에서, 기기는 하나의 실행 환경 (Runtime)으로 작동해서, 개발자가 프롬프트를 보내면 모델이 응답하지만 모델의 상태(State)는 기기 내부에만 머물고 개발자가 접근할 수 없습니다.
이런 방식은 ‘클라우드 API’하고는 많이 다르죠. 클라우드 API 환경에서는 개발자가 모든 로그를 수집하고 분석할 수 있지만, 애플의 방식에서는 모든 상태가 기기 내부에 완전히 고립된 상태로 남아있는 거니까요.
만약에, 어떤 개발자가 런타임을 악용하려고 한다면 - 예를 들어서, 모델을 속여서 개인정보를 유출하거나, 사용자의 허락없이 외부 도구를 호출하게 한다거나 - 애플은 OS 수준 또는 앱 심사 단계에서 그런 행동을 차단할 수 있습니다.
완벽하지는 않겠습니다만, 개인이 선택해야 할 프라이버시 팝업에 기대기보다, 소프트웨어 레벨에서 제어를 걸 수 있다는 점에서 보안에 대한 통제가 더 체계적이라는 생각이 듭니다.
사실상 더 큰 위험은 기술이 아니라 행동 패턴에 있다고 봅니다. 개발자들이 여러 가지 이유로 결국 이렇게 로컬에서 작동하는 모델을 다시 클라우드 중심으로 되돌리려는 시도를 하고 싶은 경우는 없을까요? 예를 들어서, 로컬 모델의 출력 결과를 클라우드 서비스에 넘겨서 연쇄적으로 처리한다든지, 외부 API를 통해서 모델의 추론 결과를 프록시(Proxy) 형태로 다루려 한다든지 하는 방식들 말이죠.
이럴 때 정책(Policy)과 UX 기본 설정(Default)이 중요해집니다. 그리고 애플은 이 부분에서 강력한 영향력을 갖고 있죠 - 온디바이스에서 끝나는 워크플로우를 유도할 수 있고, 접근을 남용하는 앱에는 제재를 가할 수도 있습니다.
그래서, 지금 한창 시작되고 있는 ‘에이전트 전쟁 (Agent Wars)’, 그 전장이 생각보다 빠르게 클라우드에서 디바이스로 옮겨갈 수 있다는 생각이 듭니다. 가장 중요한 건, 개발자와 사용자 간의 이익과 방향을 얼마나 합치시킬 수 있느냐, 어떤 에이전트 플랫폼과 생태계가 그걸 이뤄내느냐에 있을 것 같습니다.
이 변화가 실제로 어떻게 펼쳐질지는 좀 더 지켜봐야겠습니다만, 애플의 이번 선택, 다시 한 번 ‘소형 모델의 중요성’을 강조하는 신호로 보이는 이유입니다.
샘 알트만이 지난 6월 10일 ‘The Gentle Singularity’라는 블로그 포스트를 올렸습니다. 이 글에 대한 기사나 다양한 피드백들이 인터넷에 많으니 해당 내용이 궁금하신 분은 참고하시면 되겠습니다만, 간단히 요약하자면 “이미 우리는 기술적인 특이점의 Event Horizon을 지났고, 그 이후의 도약이 시작되었다. 인류는 디지털 초지능 (Digital Superintelligence)을 구축하는 단계에 가까워졌다”고 말하고 있습니다.
그런데, 이 글이 어쩌면 사실은 ‘디지털 초지능의 특이점’에 대한 이야기가 아닐 수도 있고, 오픈AI, 그리고 샘 알트만이 꿈꾸는 완전한 Cyber-Physical Ecosystem에 대한 비전을 군데 군데 숨겨둔 이야기가 아닐까 생각해 봤습니다.
이 글을 찬찬히 들여다보면, '사람들(People)', 'AI', '진보(Progress)', '로봇(Robots)' 등의 용어가 가장 빈번하게 사용되거든요. 이렇게 빈번하게 등장하는 단어의 조합이 가지고 있는 함의(Implication)은, 오픈AI의 계획이 단순히 소프트웨어적인 AI에 있는게 아니라 ‘물리적인 세계와의 통합’에 있다는 거라고 봅니다.
오픈AI는 최근에 조니 아이브의 하드웨어 스타트업 IO를 65억 달러 정도에 인수했죠. 당연히 앞으로 오픈AI 발 하드웨어 기기 개발 소식이 들려올 겁니다. 사실, 오픈AI는 아주 초기부터 하드웨어, 로봇에 많은 관심을 가진 회사였습니다 - 중간에 로보틱스 연구 부서를 폐쇄하긴 했지만요. 최근에 1X Technology라든가 Figure AI 같은 휴머노이드 로봇 회사에 투자하기도 하면서, 본격적으로 로보틱스 분야, 하드웨어 분야에 복귀한 모양새를 취하고 있습니다.
이런 점들을 잇다 보면, 오픈AI의 전략이 LLM(두뇌), 웨어러블/하드웨어, 그리고 로봇 시스템이 서로 연결되어서 ‘진정한 특이점’을 구현하는 Cyber-Physical Ecosystem을 형성하는데 있다라고 상상해 보는게, 어쩌면 당연한 것 같습니다. 여기서 웨어러블/하드웨어는 사람과 로봇 사이에서 센서/액츄에이터 역할을 하면서 가속화되는 지능 환경에 사람이 지속적으로 참여하게끔 하고, 로봇의 학습에 필요한 물리적인 데이터셋을 제공하면서 점진적으로 시스템이 통합되는 특이점을 만들어내겠다는 생각이 아닐까 합니다.
이런 확장된 비전은, 실현이 가능할 뿐 아니라 생각보다 가까이 있을지도 모릅니다. 엔비디아의 CEO 젠슨 황은 ‘Physical AI’ 시장이 2027년에 이미 약 50조 달러 규모의 시장이 될 거라고 이야기했는데, 여긴 자율주행차, 휴머노이드 로봇, 로봇 기반의 팩토리 등이 포함될 거라고 해요. 또, 스페인의 스타트업 Multiverse Computing은 AI 모델 성능을 저하하지 않고도 모델 사이즈를 최대 90%까지 축소할 수 있는 기술을 개발해서, 웨어러블 같은 소형 기기에서 AI를 빠르고 저렴하게 실행할 수 있는 가능성을 열어가고 있습니다.
물론, 물리적 세계와 사이버 세계를 연결하는 수많은 프로젝트들이 다양한 난관을 겪겠지만, 궁극적으로 샘 알트만은 LLM을 넘어선 Cyber-Physical Singularity에 도달하기 위한 생태계를, 그래서 로봇이 물리적 작업을 수행하고 사람은 보다 창의적인 활동에 몰입할 수 있는 미래를 구상하고 있는 게 아닐까 생각해 봅니다.