AI들도 눈치가 필요해?

마음을 읽는 LLM과 기호 논리의 시너지

by 미미니

요즘은 AI 하나가 일을 하는 게 아니라, 여러 AI(에이전트)가 팀을 이뤄 문제를 해결하는 '멀티 에이전트 시스템(MAS)'이 대세입니다. 그런데 AI들이 서로 협력하다 보면 이런 문제가 생깁니다.


• A 에이전트는 지금 무슨 생각을 하고 있지?

• 내가 이 정보를 주면 저 에이전트가 오해하지 않을까?


사람은 상대방의 의도나 지식 상태를 추측하는 마음 이론(Theory of Mind, ToM)을 가지고 협력하는데, 과연 AI에게도 이런 능력을 심어주면 협동 효율이 좋아질까요? Evaluating Theory of Mind and Internal Beliefs in LLM-Based Multi-Agent Systems​ 라는 논문이 이 답을 찾았습니다.


에이전트들, 위기의 도시를 구해라


이 논문의 연구진은 LLM 에이전트에게 세 가지 강력한 인지 메커니즘 3종 세트를 장착시켰습니다.


1. 마음 이론: "내 파트너는 이런 정보를 알고 있고, 아마 이렇게 행동할 거야"라고 추론하는 능력

2. 내부 신념 (BDI 모델): "현재 상황은 이렇고, 나의 목표는 이거야"라는 확고한 자기 주관과 정보 정리 체계

3. 기호용 도구(Symbolic solver): 논리적인 오류를 잡아내기 위한 ASP(Answer Set Programming)라는 수학적 검증 도구


이들은 도시 자원 할당 문제라는 시뮬레이션을 만들었습니다. 여러 개의 AI 에이전트가 힘을 합쳐 도시의 자원을 적재적소에 배치해 도시의 건강 상태를 유지해야 하는 미션이죠.


마음만 읽는다고 다가 아니다


연구 결과가 꽤 반전입니다.


성능의 미묘한 조화: 단순히 '마음 이론' 기능을 추가한다고 해서 무조건 성능이 좋아지지는 않았습니다. LLM 자체의 성능(지능)과 이 인지 도구들이 어떻게 어우러지느냐가 핵심이었죠.

논리 검증의 중요성: 그냥 대화만 하는 것보다, 기호용 도구를 통해 논리적 검증을 거친 에이전트들이 훨씬 더 정확한 의사결정을 내렸습니다.

복잡한 상호작용: LLM이 똑똑할수록 이러한 인지 메커니즘을 더 잘 활용해서 시너지를 냈지만, 모델에 따라 오히려 인지 부하가 걸리는 경우도 발견되었습니다.


AI의 사회성 연구


이 논문은 AI가 단순히 명령을 수행하는 기계를 넘어, 서로의 의도를 파악하는 '사회적 존재'로 진화하는 과정을 보여줍니다.


하이브리드 AI: 딥러닝(LLM)의 유연함과 전통적인 논리(Symbolic Logic)의 정확성을 결합하는 것이 미래 AI 협업의 핵심임을 시사합니다.

설계의 중요성: 무작정 좋은 기능을 다 집어넣기보다, 에이전트 간의 '인지적 균형'을 맞추는 설계가 필요하다는 통찰을 줍니다.


마무리: AI의 사회성은 사람을 닮았다


AI에게 독심술과 논리력을 주었더니, 서로 더 잘 협력하게 되었지만, 무조건 만능은 아니니 똑똑한 설계가 필요하다는 걸 보여줍니다. 즉, AI들이 모여서 정치를 하거나, 복잡한 프로젝트를 수행하는 미래의 AI 사회를 미리 엿볼 수 있게 해주는 아주 흥미로운 연구입니다. 사람을 학습한 AI agent들은 사람과 많이 닮아 있는 걸까요?

매거진의 이전글AI가 일을 대신해 주면, 내 실력도 좋아질까?