brunch

AI 비서는 인간의 손끝을 닮는다

by dionysos

<말보다 손끝이 먼저 안다>


AI 비서가 처음 등장했을 때, 우리는 말을 걸었습니다.

“Hey Siri.” “OK Google.” “Alexa.”


그들은 우리의 명령을 기다리는 존재였습니다. 하지만 지금, AI는 말보다 먼저 반응합니다. 아직 앱을 열기도 전에 “오늘 일정은 이렇습니다.” “밖은 추워요, 겉옷 챙기세요.” 이미 손끝의 움직임, 터치의 속도, 화면 머무는 시간을 읽어우리가 무엇을 하려는지 감지하고 있습니다.


AI 비서는 이제 ‘명령을 수행하는 존재’에서 ‘기분을 읽는 존재’로 진화하고 있습니다. 이건 기술의 발전이 아니라, 감각의 진화입니다. AI가 인간의 손끝을 닮아가고 있는 것이죠.



<시대 변화 – 명령에서 감응으로>


1️⃣ 대화 중심 → 예측 중심 (Talk → Predict)

초기의 Siri, Google Assistant는 음성 명령에 반응하는 구조였습니다.

하지만 Copilot, Gemini, Bixby, Xiao AI는 사용자의 일정, 위치, 행동 패턴을 기반으로 ‘예측형 제안’을 수행합니다. 이제 비서는 “무엇을 말하느냐”보다 “무엇을 느끼느냐”에 반응합니다.


2️⃣ 명령형 → 감응형 (Command → Respond)

예전엔 명령(press/click)이 입력이었다면, 지금은 손끝의 압력, 스크롤 속도, 시선의 정체 같은 미세 신호들이 입력이 됩니다.

즉, ‘UI’가 아니라 ‘피부 인터페이스(Skin Interface)’로 진화 중입니다. Samsung Galaxy Voice Assistant는 손가락의 길이·속도에 따라 AI 반응음을 미세하게 조정하며 “감각적 일치감”을 제공합니다.


3️⃣ 보조자 → 공감자 (Assistant → Empathizer)

AI 비서는 이제 ‘도와주는 존재’를 넘어 ‘함께 느끼는 존재’로 진화합니다.

지금 바로 작가의 멤버십 구독자가 되어
멤버십 특별 연재 콘텐츠를 모두 만나 보세요.

brunch membership
dionysos작가님의 멤버십을 시작해 보세요!

성공하는 PO가 되기 위해 글을 쓰고 있습니다.

124 구독자

오직 멤버십 구독자만 볼 수 있는,
이 작가의 특별 연재 콘텐츠

  • 최근 30일간 19개의 멤버십 콘텐츠 발행
  • 총 126개의 혜택 콘텐츠
최신 발행글 더보기