협업하는 지능과 인간-AI 시너지
ChatGPT와 같은 생성형 AI가 일상에 깊숙이 들어오면서, 이런 질문을 종종 접하게 됩니다.
"AI를 잘 쓴다는 것은 무엇을 의미하는가?"
"똑같은 AI를 사용했음에도 결과물의 완성도가 달라지는 이유는 무엇인가?"
'유용한 프롬프트 팁'이나 '프롬프트 템플릿'과 같은 요령도 빠르게 효과를 볼 수 있는 방법일 겁니다, 하지만 2025년 발표된 논문 'Quantifying Human-AI Synergy'에서는 그보다 근본적으로 AI를 바라보는 관점과 태도에 주목합니다.
이 논문은 인간과의 협업 관점으로 AI의 성능을 바라보는 시도입니다. 연구는 667명의 데이터를 통해 AI와 협업으로 문제를 해결하는 능력은 혼자서(인간 단독, AI 단독) 문제를 잘 푸는 능력과 구분된다는 점을 통계적으로 밝혔습니다. 그리고 이 '협업 능력'의 중심에는 타인의 정신 상태를 추론하는 사회적 지능인 '마음 이론(Theory of Mind, ToM)'이 자리 잡고 있었습니다.
그동안 AI 모델의 성능 평가에 사용된 벤치마크는 인간의 개입을 배제한 채 AI 모델이 얼마나 문제의 답을 잘 찾는지를 측정했습니다. 이것은 모델의 절대적인 지식량 확인에는 유효하지만, 우리의 실제 AI를 활용과는 차이가 있습니다.
우리는 AI에게 질문과 답변을 주고받으면서 맥락을 보충하고 결과물을 다듬는 협업 과정을 거쳐 문제의 답을 얻습니다. 지능에는 독자적으로 측정할 수 있는 고정된 지식도 있지만, 타자와의 소통을 통해 공동의 목표를 향해 나아가는 '역동적 측면'도 존재합니다. 똑같은 AI 서비스를 사용하더라도 사용자마다 결과물의 품질이 다른 이유는, 바로 상호작용의 질적 차이 때문입니다.
여기서 한 가지 짚고 넘어가야 할 부분이 있습니다. 'AI와 협업하는 사회적 지능'이라는 말의 의미가 AI를 인격과 감정을 가진 타자로 대하라는 뜻은 아닙니다. OpenAI 창립 멤버였던 안드레 카파시(Andrej Karpathy)가 지적했듯, LLM은 인격을 가진 존재가 아니라 특정 시나리오를 재현하는 '시뮬레이터'에 가깝습니다.
카파시는 "LLM을 개체가 아닌 시뮬레이터로 생각하라"고 조언합니다. 단순히 "이 문제에 대해 어떻게 생각하느냐"고 묻기보다, "이 문제를 탐구하기에 적합한 전문가 그룹이라면 무엇이라 말하겠는가"라고 묻는 식이 더 효과적이라는 것입니다. 이 시뮬레이터가 '유능한 전문가'라는 경로를 따라 최적의 결과물을 내놓게 하려면 그에 맞는 정교한 신호가 필요합니다. 마음 이론(ToM)은 바로 그 경로를 이탈하지 않도록 신호를 보내는 기술입니다. 즉, 사회적 지능으로서 ToM 능력은 AI를 인격화하는 것이 아니라, 오히려 AI의 작동 방식을 시스템적으로 이해하고 이를 통제하는 고도의 활용 전략입니다.
연구진은 사용자의 프롬프트에서 나타나는 19가지의 ToM 신호를 분석했습니다. 협업 능력이 높은 사용자들은 나 자신의 상태, AI의 특성, 그리고 현재의 대화 맥락이라는 세 가지 차원을 동시에 고려하며 다음과 같은 패턴을 보였습니다.
지식 격차 탐지와 맥락 보완
사용자와 AI 사이의 정보 불균형을 인식하는 것입니다. "이 데이터는 내부 자료라 당신은 모를 수 있으니, 먼저 배경을 요약해 주겠다"는 식의 접근은 협업의 토대를 구축하는 필수적인 행위입니다.
시스템 특성에 맞춘 관점 취하기
AI가 텍스트 기반 시뮬레이터라는 점을 명확히 인식하는 능력입니다. 복잡한 공간 구조를 설명할 때 "도형의 위치 관계를 좌표 데이터 형식으로 변환하여 알려주겠다"고 제안하는 식의 역지사지가 성과로 연결됩니다.
비판적 조율과 이의 제기
AI의 답변을 수동적으로 수용하지 않고, "방금의 답변은 앞선 논리적 전제와 맞지 않는다"며 오류를 지적하거나 검토를 요청하는 주체적인 조율 행위입니다.
대화 과정에 대한 메타적 성찰
"우리가 지금 너무 세부 사항에 매몰되어 전체 그림을 놓치고 있는 것 같다"며 대화의 흐름 자체를 점검하고 소통의 효율성을 관리하는 기술입니다.
AI를 사용할 때 흔하게 보이는 모습 중 하나는 LLM을 '구글 검색창'처럼 대하는 태도입니다. 이것은 논문에서 경계하는 저수준 ToM의 전형적인 사례로, 상대(AI)를 인지적 주체로 활용하지 않고 오직 파편화된 정보를 찾아주는 기계로만 간주하는 태도에서 비롯됩니다.
시스템 역량에 대한 오해
구글 검색은 저장된 데이터를 찾아주는 '색인 도구'이지만, LLM은 앞선 대화를 바탕으로 다음 단어를 예측하며 논리를 구성하는 '추론 엔진'입니다. 검색하듯 단답형 키워드만 던지는 것은, 마치 숙련된 상담가에게 백과사전의 단어 하나만 읽어달라고 요청하는 것과 같습니다. 시스템의 고유한 역량을 무시한 채 도구의 잠재력을 스스로 제한하는 행위입니다.
'이심전심'의 함정
충분한 배경을 설명하지 않고서 "내 말의 의도를 AI가 당연히 알 것"이라고 착각하는 것입니다. AI는 말하지 않으면 모릅니다. 배경 설명 없이 다짜고짜 결과물만 요구하는 방식은 소통의 불일치를 낳고, 결국 "AI는 쓸모없다"는 잘못된 확증 편향으로 이어집니다.
AI의 역량을 과소 평가한 단순 질문이나, 맥락도 없이 질문을 던지는 태도에 머물러 있는 한, AI라는 거대한 시뮬레이터의 기능을 겉핥기식으로 소비하게 될 뿐입니다.
이 연구가 우리에게 던지는 함의는 다양합니다. 그 중에서 '지능'을 바라보는 관점에 초점을 둘 수 있습니다. 전통적으로 지능은 개인이 소유한 내적인 역량(IQ)으로 정의되었습니다. 이후 지능의 범위는 주변 환경, 타자와의 상호작용을 통해 구성되는 '관계적 역량'과 '사회적 지능'으로 확장되었습니다. AI 활용이 일상화된 요즘, 상호작용을 조율하는 '관계적 역량'은 이 시대의 핵심 지능일 지도 모릅니다.
AI와 협업에 요구되는 지능은 단순히 정보를 많이 아는 것에 그치지 않습니다. 타자로서 기계를 정확히 이해하고, 맥락의 간극을 메우기 위해 자신의 언어를 어떻게 설계할 것인지 고민하는 능력이 더욱 중요해졌습니다. 우리가 AI와 협업하며 발휘하는 사회적 지능은 결국 우리가 수천 년간 공동체 속에서 타인과 협력하며 다듬어온 능력의 연장선에 있습니다.
AI는 검색 도구가 아니라 '협업의 파트너'입니다. 상황에 대한 깊은 이해를 공유하면서 협업을 조율하는 태도를 가질 때 비로소 진정한 시너지가 발생합니다. 이러한 인식의 전환은 AI 시대의 인간이 자신의 고유한 가치를 증명하는 방식이자, 기술과 공존하며 더 높은 차원의 지능을 만들어가는 필수적인 태도가 될 것입니다.