3장 현재까지의 로봇들
저수준 계획은 고수준 계획에서 생성된 하위작업(subtask)을 실제 로봇의 제어명령(Control Command)으로 변환하는 단계입니다. 즉, "무엇을 할지"를 정하는 고수준 계획에서 내려온 명령을 "어떻게 움직일지"로 구체화하는 과정입니다. 이 단계는 크게 두 영역으로 나뉩니다.
모션 플래닝(Motion Planning) : 로봇이 실제로 이동하거나 물체를 조작할 때의 경로를 계획
제어(Control) : 계획된 경로를 실제 물리적인 동작으로 구현
두 과정은 연속적으로 수행되거나, 경우에 따라 병렬적으로 동작하기도 합니다. 저수준 계획은 로봇의 하드웨어, 기구학적 제약, 센서 반응 등 물리적 특성과 밀접한 영역을 다룹니다.
- 로봇 동작 유형별 저수준 계획
저수준 계획은 로봇의 동작 특성에 따라 접근 방식이 다릅니다.
고수준 계획에서 내려온 하위 목표(subtask)를 실제 경로(Path)나 동작(Motion)으로 변환하는 단계입니다. 여기서는 대표적인 4가지 접근법을 소개합니다.
- RRT (Rapidly-exploring Random Tree)
RRT는 무작위 샘플링 기반으로 공간을 빠르게 탐색하며 목표 지점까지의 경로를 찾는 알고리즘입니다. 로봇의 초기 위치에서 출발하여 무작위로 점을 생성하고, 가장 가까운 노드에서 그 점을 향해 가지(branch)를 확장해 나무(Tree) 구조를 형성합니다.
활용예시:
자율주행 차량의 장애물 회피 경로
드론의 이동궤적 개획
로봇팔의 충돌 없는 조작
장단점 요약
- PRM (Probabilistic Roadmap)
PRM은 환경 내에서 무작위 샘플링한 점들을 노드로 구성한 그래프 기반 탐색법입니다.
먼저 공간에서 충돌 없는 노드들을 샘플링
노드 간 연결을 통해 '로드맵(roadmap)'을 구축
시작점과 목표점을 추가하고 최적 경로를 탐색
활용예시:
공장 내 이동 로봇의 반복 경로 계획
로봇 팔의 작업 경로 재사용
정단점 요약
- 모방 학습 (Imitation Learning)
모방 학습은 인간이나 전문가의 행동을 관찰 및 기록해 학습하는 방식입니다. 로봇은 사람이 수행한 동작 데이터를 보고, 그 정책(policy)을 신경망으로 학습합니다.
활용 예시:
사람의 물체 조작 시연을 학습한 협동 로봇
자율주행 차량의 운전 데이터 기반 경로 학습
장단점 요약
- 강화 학습 (Reinforcement Learning)
강화 학습은 보상(Reward)을 기반으로 스스로 행동 정책을 학습하는 방식입니다. 로봇은 환경과 상호작용하며 보상을 극대화하도록 동작을 조정합니다.
활용 예시:
보행 로봇의 균형 유지 학습
드론의 장애물 회피 및 궤적 최적화
로봇 팔의 물체 조작 시 동적 제어
장단점 요약
RRT/PRM → 탐색 기반 (planning-based)
모방/강화 학습 → 학습 기반 (learning-based)
이 4가지 기법이 현대 로봇 제어의 근간을 이룹니다.
- 모델 예측 제어 (MPC: Model Predictive Control)
MPC는 시스템의 미래 상태를 예측하고 일정 시간 구간 내에서 최적의 제어 입력을 계산하는 기법입니다. 드론의 자세 제어, 자율주행차의 속도 조절, 보행 로봇의 안정적 이동 등에 활용됩니다.
장단점 요약
모션 플래닝으로 생성된 경로를 실제 로봇의 물리적신호제어로 변환하는 단계입니다. 이 과정은 로봇의 관절, 모터, 힘 센서 등 하드웨어 레벨 제어와 직접 연결됩니다.
ⓐ 순운동학과 역운동학 (FK/IK)
순운동학(FK): 관절 각도를 입력 → 말단(End-effector)의 위치 계산
역운동학(IK): 목표 위치 → 필요한 관절 각도 계산
이 기법은 로봇팔, 보행로봇, 매니퓰레이터 등에서 필수적으로 사용됩니다. 정확한 위치제어가 가능하지만, 힘과 동적 거동을 고려하지 않기 때문에 정적 동작에 적합합니다.
ⓑ 임피던스 제어 & 어드미턴스 제어
이 두 제어 방식은 외력(힘)과 위치 반응을 동시에 다뤄 사람과의 안전한 상호작용을 구현합니다.
임피던스 제어(Impedance Control): 외력이 가해졌을 때, 로봇이 스프링/댐퍼 모델처럼 탄성있게 반응하도록 제어
어드미턴스 제어(Admittance Control): 힘 입력을 받아 위치 제어 명령으로 변환
활용 예시: 협동 로봇(Co-bot)의 작업 보조, 의료로봇, 사람-로봇 협업 환경 등
ⓒ PID 제어 (Proportional-Integral-Detivative Control)
PID 제어는 가장 기본적이면서 널리 쓰이는 피드백 제어 방식입니다. 목표값과 실제값의 오차를 바탕으로 비례(P), 적분(I), 미분(D) 값을 조합해 제어신호를 생성합니다.
활용 예시:
라인트레이서 로봇의 경로 제어
모터의 위치 및 속도 제어
드론의 자세 안정화
장단점 요약:
저수준 계획은 여전히 로봇의 신체를 움직이는 핵심 기술입니다. 최근에는 기반 모델과 결합하여, 사람의 개입을 줄이고 제어 안전성을 높이는 방향으로 빠르게 진화하고 있습니다.
앞에서 살펴본 인식과 제어 기술들은 로봇이 세상을 이해하고 움직이는 것이 핵심이었지만, 현실에서 로봇을 자율적으로 움직이게 하려면 여전히 한계가 있었습니다. 그 이유는 기존 접근이 대부분 규칙기반, 수동설계중심이었기 때문입니다.
전통적인 로봇 기술은 카메라, 센서, 제어 알고리즘을 정교하게 조합해 주어진 상황에서는 안정적으로 동작할 수 있도록 발전해 왔습니다. 하지만 이러한 기술만으로는 사람의 언어적 지시나 의도를 유연하게 해석하고 추상적인 목표를 스스로 계획을 바꾸는 능력을 구현하기 어려웠습니다.
즉, 기존 시스템은 '좌표로 정의도니 목표점'에는 강하지만, '자연어로 표현된 목표'에는 약했습니다. 예를 들어, "컵을 테이블 위에 올려놔"라는 지시는 좌표/물리제약/환경 인식이 결합된 복합적 이해가 필요한데, 기존 모델은 이를 언어적 수준에서 해석할 수 없었습니다.
이 한계를 넘어서기 위해 등장한 것이 파운데이션 모델입니다. 이 모델들은 단순히 센서 데이터를 처리하는 수준을 넘어, 언어/이미지/행동을 통합적으로 이해할 수 있는 의미 기반 인공지능(semantic intelligence)을 제공합니다.
파운데이션 모델과 기존 기술을 결합하면,
언어로 지시된 추상적 목표를 물리적 행동으로 변환하고,
사람이 모호하게 표현한 의도를 맥락 속에서 해석하며,
환경 변화에 맞게 자율적으로 판단 및 보정할 수 있습니다.
이제 로봇은 "센서 데이터를 처리하는 기계"가 아니라, "의도를 이해하고 스스로 행동을 계획하는 주체"로 발전하고 있습니다. 이제 다음장부터는 파운데이션 모델이 기존의 인식/제어구조와 어떻게 통합되고 그. ㅕㄹ과 로봇의 자율성이 어떻게 확장되는지를 구체적으로 살펴보려고 합니다.
©2024-2025 MDRULES.dev, Hand-crafted & made with Jaewoo Kim.
이메일문의: jaewoo@mdrules.dev
AI 에이전트 개발, 컨텍스트 엔지니어링 교육 컨설팅, 바이브코딩 강의 문의: https://bit.ly/4kjk5OB