AI는 더 이상 단순한 계산 기계가 아니다. 오늘날의 인공지능은 인간처럼 보고 듣고 생각하며 행동하는 지능형 에이전트(Intelligent Agent)를 지향한다. 이 글은 Russell과 Norvig의 『Artificial Intelligence: A Modern Approach』 제2장을 바탕으로, AI의 중심 구조인 ‘합리적 에이전트(Rational Agent)’를 통해, AI가 어떻게 세상을 인식하고, 판단하고, 학습하는지를 단계별로 쉽게 풀어본다.
1단계 – AI는 무엇을 보고, 어떻게 반응할까?
모든 에이전트는 두 가지 구성요소를 갖고 있다. 센서(Sensor)와 액추에이터(Actuator)다.
센서는 정보를 받아들이는 감각 기관이다.
인간의 눈·귀, 로봇의 카메라·거리 센서, 소프트웨어의 로그 분석기 등이 여기에 속한다.
액추에이터는 환경에 반응하는 행동 장치다.
인간의 손·발, 로봇의 바퀴·모터, 소프트웨어의 명령 실행 로직 등이 해당된다.
AI는 이 센서를 통해 지각(Percept)을 수집한다. 그리고 시간 순으로 축적된 지각들의 흐름(지각 시퀀스)을 바탕으로 행동을 결정한다.
에이전트 함수는 가능한 모든 상황(지각 시퀀스)에 대해 어떤 행동을 할지를 정의하는 수학적 규칙이다.
에이전트 프로그램은 이 규칙을 실제 코드로 구현한 것이다.
예를 들어, 로봇 청소기는 센서를 통해 바닥 상태를 감지하고, 액추에이터로 청소하거나 이동한다. 감각 → 판단 → 행동의 기본 구조가 여기에 녹아 있다.
2단계 – '옳은 일'이란 무엇인가?
AI의 핵심은 합리성(Rationality)이다. 즉, 주어진 정보 내에서 가장 바람직한 행동을 선택하는 것이다. AI는 다음 기준에 따라 행동의 옳고 그름을 판단한다:
결과론적 평가: 행동의 결과가 얼마나 바람직했는가?
성능 측정(Performance measure): 행동이 목표에 얼마나 부합했는가?
현실의 AI는 모든 정보를 알 수 없다. 이런 불완전한 정보 환경에서 합리적인 추론이 필요하다. 이를 위해 AI는 전지성(Omniscience) 대신 합리성을 추구한다. 전지성은 이상적이지만 불가능하며, 합리성은 가능한 것 안에서 최선을 다하는 것이다.
여기서 중요한 개념이 자율성(Autonomy)이다. AI는 설계자의 지식에만 의존하지 않고, 자신이 수집한 경험과 데이터를 바탕으로 학습(Learning)하여 더 나은 결정을 내릴 수 있어야 한다.
3단계 – PEAS: AI의 무대를 설계하다
AI가 세상과 소통하고 의미 있는 결과를 만들어내기 위해서는 그가 활동하게 될 ‘무대’가 명확히 정의되어야 한다. 바로 그 무대를 설계하는 틀이 PEAS 모델이다. PEAS는 다음 네 요소의 약자다:
Performance (성능 기준)
AI가 ‘잘 작동했는지’를 판단하는 척도다. 예를 들어, 자율주행차라면 사고 없이 도착했는가, 연비는 얼마나 좋았는가, 주행 시간은 적절했는가 등이 성능의 기준이 된다. 이 기준이 불분명하면 AI는 어떤 방향으로 나아가야 할지도 모른다.
Environment (작동 환경)
AI가 실제로 상호작용하는 세계, 즉 무대다. 자율주행차에게는 도로, 신호등, 보행자, 날씨 등이 이에 해당한다. AI는 이 환경 안에서 정보를 수집하고, 움직이며, 실수를 겪기도 한다. 이 환경이 정확히 정의되지 않으면 AI의 반응도 엉뚱해질 수 있다.
Actuators (행동 수단)
AI가 판단을 실제 행동으로 옮기는 ‘도구’들이다. 자율주행차의 경우, 핸들, 브레이크, 가속기, 방향지시등 등이 여기에 속한다. AI는 이들을 통해 외부 세계에 영향을 미친다. 즉, '행동의 팔과 다리'라고 할 수 있다.
Sensors (감각 수단)
AI가 세상을 인식하기 위해 사용하는 ‘감각’이다. 자율주행차의 경우, 카메라, 라이다, GPS, 거리 센서 등이 해당된다. 이 감각이 흐리면, 잘못된 판단으로 이어질 수 있다. 인간에게 눈이 중요한 것처럼, AI에게도 센서는 존재의 출발점이다.
이 네 가지 요소는 단순한 기술 구성요소가 아니라, AI가 ‘무엇을 인식하고’, ‘어떤 기준으로 판단하며’, ‘어떻게 행동에 옮길 것인지’를 명확히 규정해 주는 프레임이다. 만약 이 요소 중 하나라도 빠지거나 부정확하다면, AI는 엉뚱한 목표를 향해 움직이거나, 정보를 잘못 해석하고, 위험한 결과를 낳을 수 있다. 즉, PEAS는 AI의 작동 조건을 구체화하고, 그 활동이 목적 있는 방향으로 흐르도록 돕는 설계도인 셈이다. AI에게 '현실'은 주어지는 것이 아니라, PEAS를 통해 ‘설계되는’ 것이다.
4단계 – AI는 어떤 세상에 살고 있을까?
AI가 살아가는 세상은 단순히 데이터가 흐르는 공간이 아니다. 그것은 매 순간 변화하며, 예측할 수 없는 요소로 가득한 복합적이고 다층적인 무대다. 예를 들어, AI는 어떤 상황에서도 완전한 정보를 가질 수 없다. 모든 것이 눈에 보이는 '완전 가시 환경'은 이상에 가깝고, 실제 대부분의 환경은 일부만 보이는 '부분 가시 환경'이다. 이것은 마치 안개 속에서 방향을 잡아야 하는 인간의 선택과도 비슷하다.
또한, AI는 혼자서 움직일 수도 있지만, 다른 에이전트들과 협력하거나 경쟁하는 상황에 놓이기도 한다. 이처럼 ‘단일 에이전트’냐, ‘다중 에이전트’냐에 따라 전략이 달라진다.
환경의 성격 또한 문제다. 같은 행동이 항상 같은 결과를 낳는 ‘결정론적 세계’와 우연과 변수로 인해 결과가 달라지는 ‘비결정론적 세계’는 AI의 예측 능력을 전혀 다르게 만든다.
더불어 AI는 시간이 멈춘 정적인 환경뿐 아니라, 계속 변하는 동적 환경, 혹은 환경은 그대로지만 점수만 바뀌는 반동적 환경에서도 유연하게 대응해야 한다.
그리고 현실은 ‘이산적인 순간들(discrete moments)’로 구성되기도 하고, ‘연속적인 흐름(continuous flow)’으로 이어지기도 한다. 그 사이에서 AI는 멈추지 않고 판단을 이어가야 한다.
이 모든 층위 위에, 환경의 법칙이 알려져 있는가, 모호한가 하는 문제도 놓여 있다. AI는 그 법칙을 스스로 파악해야 할지도 모른다. 즉, AI가 맞닥뜨리는 세상은 단편적인 수치나 코드의 집합이 아니다.
즉, ▲ 완전 가시 vs. 부분 가시, ▲ 단일 에이전트 vs. 다중 에이전트, ▲ 결정론적 vs. 비결정론적, ▲ 정적 vs. 동적 vs. 반동적, ▲ 이산 vs. 연속, ▲ 알려진 vs. 알 수 없는 등으로 이루어진 다차원적이고 살아 숨 쉬는 현실 그 자체다. AI는 이러한 환경 조건을 고려해 어떤 전략과 구조로 작동할지 결정해야 한다. 그렇지 않으면 실제 상황에서 끊임없이 오류를 낼 것이다.
5단계 – AI의 뇌 구조는 어떻게 진화했는가?
AI는 정해진 반응만 하던 시절을 지나, 점점 더 인간처럼 사고하고 판단하는 구조로 진화하고 있다. 그 구조는 다음과 같은 여섯 단계로 요약된다:
표 기반 에이전트: 가능한 모든 상황을 표 형태로 저장해 대응. 개념은 단순하나, 현실 환경에서는 경우의 수가 너무 많아 실용성이 떨어진다.
단순 반사 에이전트: 현재 상황에 즉각 반응. 처리 속도는 빠르지만 과거 정보를 고려하지 않아 같은 실수를 반복할 수 있다.
모델 기반 반사 에이전트: 과거 지각과 내부 모델을 통해 현재 상태를 추정하며 행동. 부분 가시 환경에서도 유용하다.
목표 기반 에이전트: 원하는 목표 상태를 정의하고, 그에 도달하기 위한 경로를 탐색하며 행동을 결정. 목표 지향적 사고가 가능하다.
효용 기반 에이전트: 다양한 선택지 중에서 가장 높은 만족도를 주는 결과를 선택. 상충하는 목표 간 조율과 미묘한 차이를 고려한 판단에 효과적이다.
학습 에이전트: 경험에서 피드백을 받아 자신의 행동 방식을 조정하고 개선한다. 시행착오를 통해 더 나은 성능을 스스로 학습하며, 환경 변화에 적응하는 능력을 갖춘다.
요약하면, AI는 이제 기억하고 추론하며, 학습을 통해 자율적으로 발전하는 존재로 진화하고 있다.
AI는 인간처럼 될 수 있을까?
AI는 단순한 계산 기계가 아니다. 센서를 통해 감각하고, 지식을 통해 판단하며, 효용을 고려해 결정하고, 경험을 통해 스스로 학습한다. 그 모습은 점점 인간의 뇌 구조와 닮아가고 있다. 하지만 결정적인 차이도 존재한다. AI는 감정이 없기 때문에, 모든 가치 판단은 인간의 기준과 책임 아래 이루어져야 한다.
결론 – AI의 미래는 결국, 인간을 향해 있다
‘지능형 에이전트’는 단순한 기술이 아니다. 그것은 인공지능의 철학과 윤리, 그리고 현실을 대처하는 사고 구조의 중심이다. 우리는 AI가 인간처럼 느끼고, 행동하길 바라지만 그보다 더 중요한 것은 인간의 가치를 이해하고, 존중하는 AI다.
결국, 우리가 원하는 AI는 인간처럼 똑똑한 존재가 아니라 인간을 이해하는 존재일 것이다.
위 내용에 대하여 여러분은 어떻게 생각하세요. AI가 진짜 인간다워지는 길, 함께 고민해보고 싶습니다.
#AI철학 #지능형에이전트 #합리적에이전트 #인공지능진화 #AI와인간 #인간을닮은AI #AI윤리 #ArtificialIntelligence #PEAS모델 #AI학습