ISO/IEC 42001이 요구하는 것, 그리고 아직 정의되지 않은 것
스마트폰 이후의 다음 인터페이스는 무엇일까.
스마트 글래스일 수도 있고, 이어러블일 수도 있으며, 전혀 다른 형태의 웨어러블일 수도 있습니다.
그러나 본질은 디바이스의 이름이 아닙니다.
변화의 핵심은 '상시 동작하는 개인 AI 에이전트의 등장'입니다.
AI는 더 이상 질문을 기다리는 도구에 머물지 않습니다. 장기 맥락을 축적하고, 반복 패턴을 학습하며,
개인의 판단 흐름을 이해하는 구조로 이동하고 있습니다. 무엇을 검색했는가가 아니라,
어디에 시선을 멈추었는지, 어떤 상황에서 판단이 지연되었는지를 읽어내는 방향으로 진화하고 있습니다.
이 변화는 개인화의 차원을 바꾸고 있습니다.
스마트폰 시대의 개인화는 행동 기반이었습니다.
클릭, 검색, 구매, 체류 시간과 같은 의식적 행위가 데이터가 되었습니다.
그러나 상시 동작하는 개인 AI 시대의 개인화는 인지 기반으로 이동합니다.
장기 기억, 감정 패턴, 판단 리듬이 데이터가 됩니다.
이 지점에서 하나의 질문과 마주하게 됩니다.
AI는 언제 ‘추천’을 넘어 ‘개입’이 되는 것일까요.
시야에 떠오르는 정보, 감정 상태에 맞춘 메시지, 맥락 기반 제안은 모두 유용해 보입니다.
그러나 판단을 돕는 순간과 판단의 방향을 미묘하게 유도하는 순간은 생각보다 가깝습니다.
그 경계는 기술의 정밀도 문제가 아니라, 설계의 문제입니다.
최근 국제적 논의도 이 지점과 맞닿아 있습니다. ISO/IEC 42001은 AI 관리 시스템의 수립을 요구하며,
인간 감독(Human Oversight)과 책임 체계의 명확화를 핵심 요소로 제시합니다.
이는 중요한 진전입니다.
AI를 단순한 기술이 아니라 관리 대상 시스템으로 정의했다는 점에서 의미가 있습니다.
그러나 여전히 공백은 존재합니다.
표준은 책임 구조와 프로세스를 정의합니다. 위험 식별, 통제, 감사 체계를 요구합니다.
하지만 상시 동작하는 개인 AI 시대에 더 중요한 질문은 따로 있습니다.
AI가 개입하는 ‘그 순간’의 판단 상태는 어떻게 다루어지고 있는가.
우리는 결과를 감사하고, 성능을 측정하며, 오류를 분석합니다. 그러나 승인 직전의 상태,
개입이 이루어진 맥락, 판단 이전의 조건은 거의 기록되지 않습니다.
상시 동작하는 개인 AI는 이 공백을 더욱 확대시킵니다.
AI가 어떤 감정 상태 위에서 제안을 올렸는지, 어떤 맥락 위에서 개입했는지,
그 개입이 어떤 판단 흐름을 가속했는지.
이것이 기록되지 않는다면, 거버넌스는 결과 관리에 머물 가능성이 높습니다.
AI 시대의 경쟁은 성능 경쟁을 넘어 신뢰 경쟁으로 이동하고 있습니다. 누가 더 정확한가가 아니라,
누가 더 책임 있게 멈출 수 있는가의 문제입니다.
상시 동작하는 개인 AI 시대의 거버넌스는 세 가지 질문으로 압축됩니다.
무엇을 수집할 수 있는가
언제 개입할 수 있는가
어디에서 멈춰야 하는가
첫 두 질문에 대해서는 표준과 가이드라인이 점차 정교해지고 있습니다.
그러나 마지막 질문, ‘멈춤의 설계’는 여전히 추상적입니다.
AI가 할 수 있는 범위를 넓히는 일보다,
AI가 하지 않아야 하는 조건을 구조화하는 일이 더욱 중요해지고 있습니다.
상시 동작하는 개인 AI는 편의를 극대화할 것입니다. 그러나 멈춤의 조건이 설계되지 않는다면,
개인화는 정밀해질수록 오히려 위험해질 수 있습니다.
ISO 기반 AI 관리 체계는 분명 출발점입니다. 그러나 그것만으로 충분하지 않습니다.
관리 체계를 넘어, 개입 이전의 상태를 어떻게 정의하고 기록할 것인가에 대한 설계가 필요합니다.
상시 동작하는 개인 AI 시대는 기술의 문제가 아니라 구조의 문제입니다.
이제 질문은 분명합니다.
AI가 무엇을 할 수 있는가가 아니라,
AI가 언제 멈춰야 하는가.
그리고 그 멈춤을 어떻게 설계할 것인가.
기업은 이제 AI 성능 도입 여부를 논의하는 단계를 넘어,
개입 조건과 멈춤 조건을 구조화할 준비가 되어 있는지 점검해야 합니다.
이는 기술 선택의 문제가 아니라 거버넌스 설계 역량의 문제입니다.
이 역량이 곧 AI 시대 기업의 신뢰 자산이 될 것입니다.
The creamunion corp.
CX Strategy Director 정연석