누비 조끼를 입은 로봇 앞에서
작년 중국 최대 명절인 춘절 행사에서 누비 조끼를 입고 춤을 추는 유니트리 로봇을 본 적이 있다. 유연하고 매끄러운 동작으로 춤을 추는 모습은 감탄을 자아내기에 충분했다. 하지만 행사가 끝나고 퇴장하던 로봇이 환호하는 관객을 갑자기 타격하는 장면을 목격하며 내 생각은 달라졌다. 놀랐을 관객의 모습과 함께, '로봇 시대는 아직 멀었구나' 하는 생각이 스쳤다.
따뜻해 보이던 누비 조끼와 대조적으로, 관객을 향하던 기계손에서 나는 형용할 수 없는 공포를 느꼈다. 영화 속 로봇이 인간을 공격하고, 사람들이 비명을 지르며 도망 다니던 디스토피아적 장면이 현실로 다가온 듯했다.
로봇이 갑자기 이상한 행동을 한 이유는 무엇이었을까. 정확한 원인은 공개되지 않았지만, 전문가들은 몇 가지 가능성을 이야기한다. 관객의 움직임을 감지하는 센서가 오작동했거나, 로봇의 경로 계획 알고리즘이 주변 환경을 잘못 해석했을 수 있다. 또는 군중의 열기로 인한 전파 간섭이 제어 신호를 교란했을 가능성도 있다.
이처럼 로봇의 오작동은 단일한 원인이 아니라 센서, 알고리즘, 통신, 소프트웨어가 복잡하게 얽힌 시스템의 어느 한 고리가 끊어지면서 발생한다. 사람이 착각을 하듯 AI도 잘못된 판단을 내릴 수 있지만, 그 이유는 생각보다 훨씬 다양하고 기술적이다.
이 문제는 AI가 언어나 이미지를 처리하는 소프트웨어 영역에 머물 때와는 차원이 다르다. 텍스트 생성 AI가 그럴듯한 거짓 정보를 만들어내는 '할루시네이션'은 화면 속 오류로 끝난다. 하지만 로봇이나 자율주행차처럼 물리적으로 움직이는 '피지컬 AI'의 오류는 사람의 몸에 직접 닿는다. 논리 세계의 실수가 물리 세계의 사고로 직결되는 것이다.
피지컬 AI: 논리로 구축하는 안전의 가드레일
그렇다면 어떻게 안전한 피지컬 AI를 구현할 수 있을까.
현재 가장 널리 쓰이는 방식은 이중 구조다. AI의 유연한 판단을 활용하되, 전통적인 제어 공학의 엄격한 논리로 그 판단을 감시하게 한다. AI가 물리 법칙에 어긋나는 명령을 내리더라도, 하위 제어 시스템이 수학적으로 검증된 규칙에 근거해 그 명령을 즉각 차단하는 방식이다.
예를 들어, "사과를 집어 바구니에 담아줘"라는 명령에 AI가 벽을 통과하는 경로를 제안하더라도, 제어기는 "로봇의 좌표와 벽의 좌표는 겹칠 수 없다"는 기하학적 규칙을 들어 그 명령을 거부하거나 수정한다. 자율주행차가 정지 신호를 무시하려 할 때 제어 시스템이 강제로 멈춰 세우는 것도 같은 원리다. AI의 확률적 판단 위에, 깨뜨릴 수 없는 규칙의 층을 하나 더 얹는 것이다.
교육, 공존을 위한 필수 조건
최근에는 한 걸음 더 나아가 학습 단계부터 안전을 심는 방식이 주목받고 있다. 강화학습 과정에서 로봇이 사람 근처에서 위험한 동작을 할 경우 강력한 벌점을 부여하고, 이 경험을 시뮬레이션에서 수억 번 반복하게 한다. 규칙으로 막는 것이 아니라, 로봇 스스로 '사람 주변에서는 조심해야 한다'는 것을 체득하게 만드는 방식이다.
교실에서 아이들을 가르쳐온 나는 이 과정이 낯설지 않다. 지식을 가르침과 동시에 도덕을 가르치는 일. 칼의 사용법을 알려주되, 타인을 해쳐서는 안 된다는 금기를 심어주는 일. 수업 중 다른 친구를 방해하지 말 것, 조별 활동에서는 협동할 것. 이런 가드레일은 반복을 통해 비로소 몸에 밴다. 로봇도 다르지 않다. 수억 번의 가상 경험을 거치며 세상을 배운다.
결국 기계의 오작동을 막는 것이 기술의 영역이라면, 그 기계와 안전하게 공존하는 법을 설계하는 것은 인간의 몫이다. 그리고 그 설계의 본질은, 오래된 교육의 언어와 닮아 있다.
누비 조끼를 입고 춤추던 그 로봇이, 언젠가는 관객에게 주먹이 아닌 따뜻한 손을 내밀 수 있기를 바란다. 그것이 우리가 함께 만들어가야 할 미래의 진짜 풍경이 아닐까.
덧붙이는 글 : 오래전부터 품어왔던 질문들에 답을 찾아가는 과정을 에세이 형태로 담았습니다. 공부하는 마음으로 쓴 글인 만큼, 가벼운 읽을거리로 봐주시면 감사하겠습니다.