나의 개발자 남편이 어느날 저녁을 먹다 이야기를 꺼냈다.
"에이전트를 만드는 데 일일이 알려줄 게 너무 많아 번거롭고 귀찮아 죽겠어.
사람을 대신한다더니, 그날은 생각보다 빨리 오지 않을 것 같아"
그 이야기를 듣는데
자연스레 고개가 끄덕여졌다.
에이전트를 만들어본 사람이라면
누구나 한 번쯤 비슷한 지점에서 멈칫한다.
이 단순해 보이는 행동 하나를 위해,
왜 이렇게 구구절절한 조건과 설명을 보태야 하는 걸까.
자율적인 존재를 만들기 위해
역설적으로
가장 수동적인 인내의 시간을 견뎌야 하는 상황.
하지만 이 번거로운 과정이야말로
우리가 단순한 ‘챗봇’을 넘어
‘에이전트’의 시대로 가고 있다는 증거이기도 하다.
에이전트의 핵심은 말 그대로 자율성에 있기 때문이다.
"오늘 날씨 어때?"라는 공통적인 질문에
일반적인 챗봇은
“맑습니다”라고 대답한다.
하지만 에이전트는 다르다.
“비가 올 것 같네요.
오늘 외부 미팅이 있으신데 이동 시간이 길어질 수 있어요.
평소보다 20분 일찍 택시를 예약해 드릴까요?
빗길 운전은 번거로우실 테니까요.” 라고 답한다.
단순한 답변기가 아니라
상황에 맞춰 행동할 줄 아는 존재다.
나는 이런 에이전트를 만드는 일은
단순히 기능을 구현하는 코딩이라기보다,
아이에게 세상을 살아가는 법을 가르치는
‘훈육’에 가깝다는 생각이 든다
얼마 전, 에이전트에게
메일을 맡기며 “정중하게 써달라"고 요청했다.
돌아온 문장은
지나치게 격식을 차려
차갑고 딱딱했다.
그때 깨달았다.
내가 말한 ‘정중함’ 속에는
상대를 배려하는 태도와 말의 온도가 함께 들어 있었지만,
에이전트에게 정중함은
형식적인 표현의 나열에 불과했다는 것을.
아이에게
“예의 바르게 행동해라”라고만 말하면
낯선 어른 앞에서 기계적으로 인사만 한 뒤
멈춰버리는 것과 같다.
말의 '의도'까지
전해지지 않았기 때문이다.
단편적인 규칙만 가르칠 때
발생하는 문제는 또 있다.
"길을 건널 땐 손을 들어라"라는 규칙만 배운 아이는
차가 무섭게 달려오는 상황에서도
일단 손부터 번쩍 들고 도로로 뛰어들지 모른다.
아이에게는 '손을 드는 행위' 자체가 목적이 되어버렸기 때문이다.
반대로
“너의 안전이 가장 중요하다”라는
원칙을 배운 아이는 상황을 먼저 살핀다.
차가 멈추는지 확인하고,
운전자와 눈을 맞추며,
지금 건너는 것이 정말 안전한지 스스로 판단한다.
규칙이라는 껍데기가 아니라,
그 안에 담긴 '목표'를 이해했기 때문이다.
에이전트도 다르지 않다.
모든 경우의 수를 코드로 입력하는 일은 불가능하다.
그래서 인간은 에이전트에게
규칙 대신 목표를,
명령 대신 기준을 건넨다.
자율성은 그 울타리 안에서만 작동하기 때문이다.
또 하나의 닮은 점이 있다.
아이는 부모의 뒷모습을 보고 자란다고 한다.
에이전트 역시
인간이 제공한 데이터와
반복해온 선택의 궤적을 학습한다.
어떤 판단을 우선했고,
어떤 편의를 당연하게 여겼는지가
그대로 남는다.
그래서 에이전트는
인간의 명령을 닮기보다
인간의 누적된 판단을 닮아간다.
만약 내 에이전트의 판단이
어느 순간 불안하거나 편향되어 보인다면,
그것은 기술의 오류라기보다
나 자신의 태도가 투영된 결과일지도 모른다.
통제와 자율성의 균형도 마찬가지다.
에이전트에게 과도한 지침만 주면
에이전트 특유의 문제 해결 능력은 사라진다.
물론 통제는 필요하다.
하지만 그 통제는 '어떻게(How)' 에 대한
간섭이 아니라,
'무엇(What)'을 이룰 것인지에 대한
엄격한 기준이어야 한다.
모든 발걸음을 통제하려는 태도는
책임감처럼 보이지만,
실상은 믿지 못하겠다는 불안의 고백에 가깝다.
아이를 믿고
길을 내보내야 성장이 있듯,
에이전트에게도
목표라는 울타리 안에서의 자율을 허락해야
비로소 진정한 파트너가 된다.
결국 에이전트를 만드는 일은
기술의 진보를 따라가는 과정이 아니다.
내가 원하는 결과가 무엇인지 정확히 정의하고,
나의 안목을 되돌아보며 사고 체계를 다시 세우는 과정이다.
어쩌면 우리는 지금
AI라는 이름의 새로운 인격체를
키우고 있는지도 모른다.