brunch

AI 확산의 열쇠, 힌트는 기술보다 사람에게 있다

성공적인 인간-AI 협업을 위한 새로운 신뢰 공식

by Kay

조직 내 AI 활용도를 높이기 위해 많은 시도가 이루어지고 있다. HRD 부서에서는 전 직원을 대상으로 한 영상 콘텐츠 학습을 독려하고, 짧은 시간 동안 AI를 활용해 뭔가를 만들어 보는 프롬프톤을 진행한다. 조직문화에서는 '팀 노래 만들기'처럼 구성원들에게 알리고 참여시키기 위한 말랑말랑한 활동을 하기도 한다. 그리고 여기에 더해 온라인이든 오프라인이든 AI 리터러시 교육도 진행하고 있다. 여기에서 끝이 아니라 조직 내외부의 성공적인 유즈케이스(Use Case)를 발굴하고 확산하는 활동도 병행된다.


하지만 이러한 노력은 이 활동에 참여해 시쳇말로 ‘AI 맛을 본' 소수의 개인에게는 영향을 미치고 있을지 모르겠으나, 그 효용을 직접 경험하지 못한 절대다수의 구성원은 변화에 동참하지 않는다. AI 활용은 일부의 전유물로 남고, 조직 전반의 확산은 더디게 진행되고 있는 것이다.


Türkü Erengin 등이 진행한 연구 “You, Me, and the AI: The Role of Third-Party Human Teammates for Trust Formation Toward AI Teammates”는 조직 내 AI 활용 확산을 위한 기존 활동들을 연결하고 확산시킬 결정적인 힌트를 제공한다. 이 연구는 직원이 AI 팀원을 신뢰하는 과정이 단순히 개인과 AI 간의 1:1 관계가 아님을 입증했다. 직원은 자신의 '동료'(제3자)가 AI를 얼마나 신뢰하는지를 관찰하고(신뢰성 인식 및 신뢰 행동), 이를 모방하여 자신의 AI 신뢰도를 결정한다.


이들의 발견은, 이 사회적 영향력이 무조건적이지 않다는 점이다. 연구는 직원이 만약 그 동료를 유능하지 않거나 신뢰할 수 없다(untrustworthy)고 인식할 경우, 그 동료가 AI를 칭찬하든 비판하든 그 의견이나 행동이 완전히 무시된다는 것을 보여주었다. 오직 직원이 그 동료를 유능하고 신뢰할 수 있다(trustworthy)고 인식할 때만, 동료의 영향력을 기꺼이 받아들여 자신의 AI 신뢰도를 높였다.


이는 AI 확산 전략에 강력한 시사점을 준다. AI 활용 확산을 위해 조직은 단순히 기능 교육이나 유즈케이스 전파에만 그칠 것이 아니라, 조직 내 동료들의 신뢰를 받고 있거나 모두가 인정할 만한 성과를 내고 있는 핵심 동료들을 AX 전환의 Change Agent로 활용하는 전략을 고민해 볼 필요가 있다.


어쩌면 AI 기술에 대한 이해와 활용을 위한 장벽을 허무는 것은 경영진의 공식적인 메시지나 그럴싸한 상품을 내세운 프롬프톤 행사가 아닐 수 있다. 그것은 바로 내가 평소 유능하다고 인정하는 내 옆자리 동료가 AI를 능숙하게 사용하고 긍정적으로 평가하는 '한마디'가, 수십 편의 교육 영상보다 더 강력한 변화의 동력이 될 수도 있을 것 같다.




You, Me, and the AI: The Role of Third-Party Human Teammates for Trust Formation Toward AI Teammates


Erengin, T., Briker, R., & de Jong, S. B. (2024). You, Me, and the AI: The Role of Third‐Party Human Teammates for Trust Formation Toward AI Teammates. Journal of Organizational Behavior.


1. 이 연구를 3줄로 요약하면?

본 연구는 '제3자' 인간 팀원이 AI 팀원을 신뢰하는 정도가 동료 직원의 AI 신뢰 형성에 미치는 영향을 탐구한다. 이러한 사회적 영향은 동료 직원이 그 '인간' 팀원을 얼마나 신뢰할 수 있는지에 따라 달라진다. 연구는 온라인 실험(비물리적 AI)과 인센티브 기반 관찰 연구(물리적 AI 로봇)를 통해 이 효과를 검증한다.


2. 저자는 왜 이 연구를 진행했는가?

AI가 단순한 도구를 넘어 조직 내 능동적인 팀원으로 통합됨에 따라, 인간과 AI 간의 신뢰 형성이 중요해졌다. 그러나 기존 연구는 주로 인간-AI '양자 관계(dyad)'에 초점을 맞추었으며, 팀 내 다른 '제3자'(다른 인간 동료)가 AI 신뢰 형성에 미치는 영향은 간과해왔다. 본 연구는 이러한 제3자의 사회적 영향을 탐구하여 기존 연구의 공백을 메우는 것을 목적으로 한다.


3. 이 연구에서 중요하게 다뤄진 개념은?

인간-AI 팀워크 (Human-AI Teamwork): AI가 도구가 아닌, 인간과 함께 공동의 목표를 위해 상호 의존적으로 작동하는 '팀원'으로 간주된다.

신뢰 형성 (Trust Formation): AI에 대한 '신뢰성 인식(trustworthiness perceptions)'과 '신뢰 행동(trust behaviors)' 두 가지 핵심 요소로 구성된다.

제3자 효과 (Third-Party Effects): 핵심 직원(focal employee)과 AI 팀원 간의 관계가 아닌, 다른 '인간 팀원'(제3자)이 직원의 AI 신뢰에 미치는 영향을 의미한다.

사회인지이론 (Social Cognitive Theory, SCT): 개인이 사회적 환경(예: 동료)과의 상호작용을 통해 태도와 행동을 형성한다는 이론으로, 본 연구의 이론적 기반이 된다.


4. 저자는 어떤 방법을 사용했는가?

저자들은 두 가지 연구(Multi-study design)를 수행했다.

연구 1: 직장 경험이 있는 개인들을 대상으로 한 온라인 실험 연구(experimental vignette approach)이다. 비물리적 AI(disembodied AI, 예: 챗봇)에 대한 '신뢰성 인식'을 조사했다.

연구 2: 인센티브가 제공되는 관찰 연구(incentivized observational study)이다. 두 명의 인간과 한 대의 물리적 AI(embodied AI, 'Temi' 로봇)로 구성된 실제 3자 팀에서, AI에 대한 '신뢰 행동'(금전적 결정)을 측정했다.


5. 연구의 결과는?

두 연구 모두에서, 인간 팀원의 AI에 대한 신뢰(신뢰성 인식 및 신뢰 행동)는 동료 직원의 AI에 대한 신뢰에 강력한 긍정적 영향을 미쳤다. 하지만 가장 중요한 발견은, 만약 직원이 그 '인간' 팀원 자체를 신뢰할 수 없다고(less trustworthy) 인식할 경우, 이러한 긍정적인 영향력이 사라지거나(vanishes) 유의미하게 약화된다는 것이다.




1. 서론 (Introduction)


4차 산업혁명 동안 조직 내 AI의 역할은 근본적으로 변화했다. 초기 AI는 단순히 명령을 실행하는 도구였으나, 이제는 인간과 나란히 작업하는 능동적인 팀원으로 구현되고 있다. 조직들은 높은 성과를 달성하기 위해 인간-AI 팀을 보편적으로 도입하고 있으며, 이들은 이미 고객 응대, 제조, 창의적 브레인스토밍, 심지어 과학적 결과물 생산까지 다양한 작업을 수행한다. AI가 도구에서 팀원으로 변모함에 따라, AI는 기존 도구보다 더 큰 자율성, 주도성, 상호의존성을 보이며 직원과의 상호작용을 근본적으로 바꾸고 있다.


팀 내 AI 도입이 증가함에도 불구하고, 직원들은 종종 AI와 효과적으로 상호작용하는 데 실패한다. 성공적인 협업을 위해서는 직원들이 AI를 신뢰할 수 있다고 인식하고(신뢰성 인식, trustworthiness perceptions), AI의 행동에 기꺼이 취약성을 보이는 것(신뢰 행동, trust behavior)이 매우 중요하다. 신뢰 형성은 AI와의 상호작용을 형성하고, AI의 유용성 및 성능에 대한 인식, 그리고 궁극적으로 효율적인 사용에 영향을 미치는 핵심 요소이다.


AI 신뢰 형성에 대한 기존 연구는 신뢰의 선행 요인을 (1) 인간 신뢰자(human trustor), (2) AI 피신뢰자(AI trustee), (3) 맥락 또는 환경(context or environment)의 세 가지 범주로 분류했다. 대부분의 연구는 첫 두 범주, 즉 인간의 신뢰 성향, 국적, 성별 등이나 AI의 신뢰성, 인간다움(anthropomorphism) 등에 집중했다.

환경적 요인(세 번째 범주)에 대한 관심은 상대적으로 적었으며, 대부분의 연구가 인간-AI '양자 관계(dyad)' 내의 요인에만 초점을 맞췄다.

결과적으로, 인간-AI 팀 내의 관련 '제3자'(즉, 다른 인간 팀원)가 신뢰 형성에 미치는 영향에 대해서는 거의 알려진 바가 없다. 인간-인간 신뢰 연구에서는 개인이 동료와의 상호작용 및 관찰을 통해 누구를 신뢰할지 학습한다는 점이 이미 입증되었다.


본 연구는 인간-AI 상호작용이 발생하는 직접적인 사회적 환경(즉, 다른 인간 팀원)에 초점을 맞춘다. 우리는 사회인지이론(Social Cognitive Theory, SCT)을 적용하여, '인간 팀원'이 AI에 대해 가지는 신뢰성 인식과 신뢰 행동이 '핵심 직원'(focal employee)의 AI에 대한 태도와 행동에 영향을 미칠 것이라 제안한다.

SCT는 환경, 인지적 요인, 행동 간의 동적인 상호작용을 강조한다. 본 연구는 직원들이 환경(동료)의 태도를 맹목적으로 수용하지 않을 것이라 주장한다. 대신, 이러한 사회적 영향은 직원이 그 '인간 팀원' 자체를 얼마나 신뢰하는지에 따라 달라질 것이라고 제안한다.


본 연구는 신뢰 형성의 두 가지 핵심 요소인 '신뢰성 인식'(belief component)과 '신뢰 행동'(action component)을 분리하여 조사한다.

연구 1 (Study 1): 직장 경험이 있는 개인들을 대상으로 한 온라인 실험을 통해, 비물리적 AI(disembodied AI, 챗봇)에 대한 '신뢰성 인식'에 초점을 맞춘다.

연구 2 (Study 2): 인센티브가 제공되는 관찰 연구로, 두 명의 인간과 물리적 AI(embodied AI, 로봇)로 구성된 실제 팀에서 AI에 대한 '신뢰 행동'을 조사한다.

이러한 다중 연구 접근 방식은 신뢰 형성 과정의 두 가지 핵심 부분과 두 가지 다른 AI 형태에 걸쳐 '제3자 효과'를 탐구함으로써 현상에 대한 전체적인 탐구를 가능하게 한다.


본 연구는 다음과 같은 기여를 한다:

AI 신뢰 형성의 선행 요인에 관한 문헌을 발전시킨다. 특히, 기존의 양자 관계(dyad)를 넘어 '직접적인 사회 환경'(인간 팀원)의 역할을 조명한다.

사회인지이론(SCT)의 핵심 원칙을 인간-AI 신뢰 영역으로 확장한다. 즉, 직원이 동료(제3자)를 신뢰하는 정도가 환경적 영향(동료의 AI 신뢰)의 수용 여부를 결정하는 중요한 경계 조건임을 보여준다.

실무적으로, AI에 대한 낮은 신뢰 문제를 극복하고자 하는 조직에 인간 팀원의 사회적 영향을 관리하는 것의 중요성에 대한 새로운 통찰력을 제공한다.



2. 이론적 배경 및 가설 개발 (Theoretical Background and Hypotheses Development)


본격적인 논의에 앞서, 이 연구는 신뢰(trust)와 관련된 여러 변수를 구분한다. 신뢰 관련 변수에는 개인의 기질적 성향인 '신뢰 성향(trust propensity)', 상대방이 유능하고 정직하다고 인지하는 '신뢰성 인식(trustworthiness perceptions)', 그리고 상대방에게 기꺼이 취약성을 보이는 '신뢰 행동(trust behaviors)'이 포함된다.

본 연구는 이 중에서 신뢰 성향보다 더 가변적인, 즉 외부 영향으로 변화하기 쉬운 '신뢰성 인식'과 '신뢰 행동'에 초점을 맞춘다.

또한, 신뢰는 인지적 측면과 정서적 측면으로 나뉜다.

인지적 신뢰(성)(Cognitive trust(worthiness)): '신뢰도(reliability)'와 '의존 가능성(dependability)'에 기반한다.

정서적 신뢰(성)(Affective trust(worthiness)): '상호 간의 대인적 보살핌과 관심'에 기반한다.

본 연구는 인간-AI 팀 맥락에서 팀 성과, 기술 수용, AI 사용 등을 정서적 신뢰보다 더 강력하게 예측하는 인지적 신뢰(성)에 집중한다.


2.1 인간-AI 팀의 신뢰 동인 (Drivers of Trust in Human-AI Teams)

AI가 작업장에 통합되면서 직원들에게 새로운 차원의 불확실성이 발생했다. AI가 정교해지고 복잡한 사회적 역할을 맡게 됨에 따라, 인간 작업자들은 성공적인 협업을 위해 이 기술에 대한 태도와 행동을 재고해야 한다.

이 과정에서 신뢰(Trust)는 직원들이 새롭고 모호한 상황에서 AI와 협력하려는 의지를 형성하는 핵심 요소이다. 조직과 근로자의 중심 목표는 '신뢰 보정(trust calibration)'이다. 이는 AI 팀원의 실제 역량과 직원이 AI에 두는 신뢰 수준을 일치시키는 것을 의미한다. 신뢰 보정은 이 기술에 대한 과잉 의존 또는 과소 의존과 관련된 비용이 많이 드는 위험을 피하기 위해 필수적이다.

적절한 신뢰 수준은 팀 결속력 및 성과와 같은 바람직한 결과와 긍정적으로 연관된다. (잘 보정된) 신뢰를 보장하는 것은 역동적인 과정이며, 초기 신뢰성 인식에서부터 시간이 지남에 따른 행동적 신뢰 궤적에 이르기까지 다양한 요인의 영향을 받는다.

AI 신뢰 형성에 관한 연구들은 맥락과 AI의 형태(modality)에 따라 신뢰가 형성되는 방식이 미묘하고 다양함을 지적해왔다.

AI 피신뢰자가 물리적 형태를 갖추었는지(예: 휴머노이드 로봇) 아닌지(예: AI 소프트웨어 또는 챗봇)에 따라 신뢰가 달라질 수 있다.

신뢰 측정 방식(예: 자기 보고식 인식 vs. 금전적 결정 같은 행동) 또한 신뢰 평가에 영향을 미칠 수 있다.

중요한 것은, 인간-AI 팀 연구가 최근에서야 인간-AI '양자 관계(dyad)' 외에 더 많은 관련 당사자가 존재함을 인정하기 시작했다는 점이다. 이는 상호작용이 일어나는 '사회적 맥락'을 고려할 필요성이 커지고 있음을 시사한다.

인간-인간 신뢰 문헌에서는 신뢰 형성에 있어 사회적 환경의 중요성이 이미 잘 확립되어 있다. 하지만 인간-AI 팀 연구는 이와 관련하여 AI 시스템 배포자 등 주로 '외부'의 제3자 역할에 초점을 맞췄다.

따라서 본 연구는 인간-AI 팀의 신뢰 형성에 대한 더 깊은 이해를 위해, 직원의 즉각적인 사회적 환경, 즉 '인간 팀원(human teammate)'의 역할에 대한 면밀한 조사가 필요하다고 주장한다.


2.2 인간-AI 팀 신뢰 형성에 대한 사회인지이론적 관점 (A Social Cognitive Theory Perspective on Trust Formation in Human-AI Teams)

본 연구는 인간 팀원이 직원의 AI 신뢰 형성에 어떻게 그리고 왜 영향을 미치는지 설명하기 위해 사회인지이론(Social Cognitive Theory, SCT)을 활용한다.

SCT의 핵심은 인간의 행동이 (1) 인지적/개인적 요인(신념, 태도), (2) 환경(사회적 규범, 역할 모델), (3) 행동(실제 결정, 선택)이라는 세 가지 핵심 요소 간의 '세 가지 상호 호혜적 결정론(triadic reciprocal determinism)'에 의해 형성된다고 보는 것이다.

새로운 AI 기술이 팀원으로 도입되는 것은 불확실하고 익숙하지 않은 상황을 만든다. SCT에 따르면, 이러한 모호한 상황은 개인이 환경적 단서에 대한 민감도를 높인다.


신뢰성 인식은 고립되어 나타나는 것이 아니라 환경에서 이용 가능한 정보와 단서를 기반으로 역동적으로 발전한다. AI 기술처럼 피신뢰자의 신뢰성을 직접 평가하기 어려운 경우, 관련 타인(동료)으로부터의 정보가 특히 중요해진다.

직원들은 AI 팀원과 함께 일하는 모호한 상황에 직면했을 때, 지침을 얻기 위해 가까운 사회적 환경(인간 팀원)에 의존할 가능성이 높다.

만약 직원이 동료가 AI의 성실한 성과와 가치 있는 통찰력을 칭찬하는 것을 듣는다면, 직원 스스로도 AI를 더 신뢰할 수 있다고 보게 될 것이다.

또한, 동료와 유사한 태도를 채택하는 것은 사회적 불확실성을 완화하고 기대되는 사회적 규범에 자신을 맞추는 데 도움이 된다. 직원은 AI를 신뢰하는 것이 팀에서 기대되는 행동이라고 느낄 수 있다.

반대로, 동료가 AI의 역량이나 신뢰성에 대해 의구심을 표명하면, 직원은 AI에 대한 회의론이 더 나은 성과로 이어질 수 있다고 믿거나, AI를 의심하는 것이 팀 내 규범이라고 느껴 회의적인 인식을 채택할 수 있다.

이러한 논의는 신뢰 전이성(trust transferability) 개념과도 일치하며, 다음과 같은 가설로 이어진다.

가설 1a: 인간 팀원의 AI 팀원 신뢰성 인식은 직원의 AI 팀원 신뢰성 인식과 긍정적으로 관련된다.


SCT의 두 번째 핵심 차원은 환경이 '행동'에 미치는 영향이다. 이 이론의 핵심은 특정 상황에서의 행동이 종종 외부 사회적 힘에 의해 예측되고 규제된다는 것이다.

이는 개인이 두드러진 역할 모델(role model)을 관찰함으로써 태도와 행동을 습득할 때 발생한다. 관찰 학습(Observational learning)은 개인이 직접적인 경험 없이도 복잡한 행동을 신속하게 이해할 수 있게 하며, 이는 새롭고 모호한 상황(예: 인간-AI 팀)에 적응하는 데 특히 유용하다.

팀원은 직장에서 특히 두드러지고 즉각적인 역할 모델 역할을 한다. 신뢰 결정은 종종 매우 짧은 시간 안에 이루어지므로, 인간 팀원이 신뢰를 (보이지 않거나) 보이는 단 한 번의 사례조차 직원에게 중요한 행동적 참조점이 될 수 있다.

직원은 동료의 AI 신뢰 행동(예: AI의 권장 사항에 의존, 중요 정보 공유)을 관찰함으로써 영향을 받는다.

만약 인간 팀원이 중요한 업무 결정을 AI의 조언에 기꺼이 의존한다면, 이는 해당 행동이 팀 내에서 수용되거나 심지어 기대된다는 것을 보여준다.

반대로, 인간 팀원이 AI에 대한 낮은 신뢰를 보인다면(예: AI 기술을 활용하지 않음), 직원은 그 행동을 모방하여 AI를 덜 신뢰하게 될 것이다. 예를 들어, 로봇과 함께 고객을 응대할 때 동료가 중요한 고객을 로봇에게 맡기지 않고 직접 처리하는 것을 본다면, 직원 역시 AI에 대한 낮은 신뢰를 보일 수 있다.

이는 사회적 영향력이 신기술의 사용 행동을 형성한다는 기술 수용 연구와도 일치하며, 다음 가설로 이어진다.

가설 1b: 인간 팀원의 AI 팀원에 대한 신뢰(행동)는 직원의 AI 팀원에 대한 신뢰(행동)와 긍정적으로 관련된다.


2.3 인간 팀원 신뢰성의 조절 효과 (The Moderating Role of Human Teammate Trustworthiness)

SCT의 '세 가지 상호 호혜성' 원칙은 환경이 인지에 영향을 미칠 뿐만 아니라, (다른) 인지적 요인이 환경이 개인에게 미치는 영향을 조절할 수 있음을 시사한다.

SCT는 환경이 개인에게 미치는 영향이 그 사회적 환경의 특성(예: 환경 내 행위자에 대한 개인의 태도)에 크게 좌우된다고 본다. 특히 개인은 긍정적인 평판이나 위신을 가진 행위자(즉, 신뢰할 수 있는 사람)에 의해 더 쉽게 영향을 받는다.

따라서, 직원이 자신의 '인간 팀원'을 얼마나 신뢰할 수 있다고 인식하는지(즉, 인간 팀원의 신뢰성, human teammate trustworthiness)가 환경적 영향(가설 1a)의 핵심 경계 조건이 된다.

높은 인간 팀원 신뢰성: 직원들은 신뢰할 수 있는 동료를 모호한 상황(AI와의 협업)에서 신뢰할 수 있는 정보원으로 간주한다. 직원이 인간 팀원을 유능하고 신뢰할 수 있다고 본다면, 그 팀원의 AI에 대한 평가를 고려하고 채택할 가능성이 더 크다.

낮은 인간 팀원 신뢰성: 반면, 인간 팀원의 신뢰성에 의구심이 든다면, 그 팀원의 AI에 대한 평가는 직원의 판단에 큰 영향을 미치지 못할 것이다. 덜 신뢰받는 팀원은 영향력이 적다. 이 경우 직원은 AI에 대한 자신의 인식을 형성하기 위해 AI의 실제 역량이나 자신의 직감 등 다른 요인에 의존할 것이다.

따라서 이 관계는 다음과 같이 조절될 것이다.

가설 2a: 인간 팀원의 AI 신뢰성 인식과 직원의 AI 신뢰성 인식 간의 긍정적인 관계는 직원의 '인간 팀원 신뢰성 인식'에 의해 조절된다. 이 관계는 직원이 인간 팀원을 더 신뢰할 수 있다고(높게) 인식할 때 더 강해진다.


2.4 인간 팀원에 대한 신뢰의 조절 효과 (The Moderating Role of Trust in Human Teammate)

SCT의 역동적 상호작용에 따라, 환경이 개인의 행동에 영향을 미칠 뿐만 아니라 개인의 (이전) 행동이 환경에 반응하는 방식에 영향을 미칠 수 있다.

직원이 '인간 팀원'에게 (이전에) 신뢰를 보였는지 여부(즉, 인간 팀원에 대한 신뢰, trust in human teammate)가 그 동료가 AI에 보이는 신뢰 행동(가설 1b)을 따를지 여부를 결정하는 경계 조건이 된다.

높은 인간 팀원 신뢰(행동): 만약 직원이 과거에 특정 동료에게 높은 신뢰(행동)를 보였다면, 이는 두 사람 사이에 강력한 관계를 확립시켰음을 의미한다. 이 동료는 직원의 행동에 대한 '안내자' 역할을 할 더 나은 위치에 있게 된다. 과거에 신뢰했던 동료를 모방하는 것이 자신에게 긍정적인 결과를 가져올 가능성이 더 높다("모방 매력도, imitation desirability"가 높음).

낮은 인간 팀원 신뢰(행동): 반대로, 직원이 과거에 동료를 덜 신뢰했다면, 이는 그 사람의 행동을 따르는 것을 경계하게 만드는 경고 신호로 작용할 수 있다. 직원은 그 동료의 행동(AI 신뢰)을 따르는 것이 보상으로 이어지지 않거나 심지어 위험을 초래할 수 있다고 느낄 것이다. 이 경우, 직원은 AI를 신뢰할지 여부를 결정하기 위해 AI의 능력이나 투명성 등 다른 기준에 더 의존할 것이다.

따라서 이 관계는 다음과 같이 조절될 것이다.

가설 2b: 인간 팀원의 AI 신뢰(행동)와 직원의 AI 신뢰(행동) 간의 긍정적인 관계는 직원의 '인간 팀원에 대한 신뢰(행동)'에 의해 조절된다. 이 관계는 직원이 인간 팀원을 더 많이(높게) 신뢰했을 때 더 강해진다.



3. 본 연구 개요 (Overview of Present Studies)


본 연구는 '제3자 인간 팀원'이 AI 신뢰 형성 과정에 미치는 영향을 전체적으로 조사하기 위해 다중 연구 설계를 사용했다. 이 설계는 신뢰 형성의 서로 다른 측면(신뢰성 인식 vs. 신뢰 행동), 서로 다른 AI 형태(물리적 AI vs. 비물리적 AI), 그리고 서로 다른 과제 및 모집단을 포괄한다.

연구 1 (Study 1): 직장 경험이 있는 개인들을 대상으로 실험적 비네트(vignette) 접근법을 사용했다. 이 연구는 비물리적 AI(disembodied AI, 예: AI 챗봇)에 대한 '신뢰성 인식'(trustworthiness perceptions)에 미치는 제3자 효과를 검증하고 이러한 영향에 대한 인과적 지원을 제공하는 데 중점을 둔다. 또한, 연구 1의 결과를 복제하고 관찰된 결과 패턴에 대한 더 깊은 통찰력을 제공하기 위한 추가 보충 연구 및 견고성 검사 결과도 함께 보고된다.

연구 2 (Study 2): 생태학적으로 타당한 환경에서 '신뢰 행동'(trust behaviors)에 미치는 영향을 검증했다. 이 연구는 물리적 AI(embodied AI, 실제 AI 기반 로봇) 1대와 2명의 인간 참가자(학부 및 대학원 경영대 학생)로 구성된 3자 팀을 대상으로 인센티브가 제공되는 관찰 연구를 진행했다. 여기에는 금전적 신뢰 결정이 포함되었다.

연구진은 이러한 접근 방식을 통해, 가설로 설정한 제3자 효과가 다양한 맥락에 걸쳐 일반화될 수 있는지를 확인하고자 했다.



4. 연구 1 (Study 1)


연구 1은 제3자인 인간 팀원이 비물리적 AI(disembodied AI)에 대한 직원의 '신뢰성 인식'에 미치는 영향을 인과적으로 검증하기 위해 설계되었다.


4.1 방법론 (Methodology)

총 182명의 직장 경험이 있는 개인을 대상으로 데이터를 수집했으며, 이들은 유럽, 북미, 호주 등에서 모집되었다. 평균 연령은 29.8세였으며 58.8%가 여성이었다. 평균 업무 경력은 4.4년이었고, 참가자 중 54.9%는 풀타임, 23.6%는 파트타임으로 근무 중이었다.


연구는 2*2 혼합 요인 설계(mixed factorial design)를 사용한 실험적 비네트(vignette) 방식으로 진행되었다. 참가자 내(within-subjects) 요인은 '인간 팀원의 AI 신뢰성 인식'(높음/낮음)이었고, 참가자 간(between-subjects) 요인은 '직원의 인간 팀원 신뢰성 인식'(높음/낮음)이었다.


참가자들은 자신이 경영 컨설턴트가 되어 새로운 프로젝트 팀에 배정되었다고 상상하도록 요청받았다. 이 팀은 참가자 자신, 인간 팀원 '앤(Anne)', 그리고 AI 팀원 '로빈(Robin the AI)'으로 구성되며, 모두가 동일한 계층 수준에서 목표와 책임을 공유한다.

먼저, 참가자들은 무작위로 '신뢰할 수 있는 앤' 또는 '신뢰할 수 없는 앤'에 대한 설명을 담은 비네트를 읽었다(참가자 간 조작). 그 후, 앤이 AI 로빈에 대한 인식이 (높음/낮음에서 낮음/높음으로) 변화했음을 보여주는 두 통의 연속적인 이메일을 읽었다(참가자 내 조작).


핵심 종속 변수인 'AI에 대한 인지적 신뢰성 인식'은 맥앨리스터(McAllister, 1995)의 6개 항목 척도를 사용하여 측정되었다. 참가자들은 앤의 첫 번째 이메일을 읽은 후(Time 1) 한 번, 그리고 두 번째(의견이 바뀐) 이메일을 읽은 후(Time 2) 또 한 번, 총 두 차례에 걸쳐 AI 로빈에 대한 자신의 신뢰성 인식을 평가했다.


데이터는 관측치(Time 1, Time 2)가 개인(참가자) 내에 중첩(nested)된 구조를 가지므로, 이러한 데이터 구조를 설명하기 위해 다층 수준 모델링(multilevel modeling)을 사용했다.


4.2 연구 1 결과 (Results Study 1)

분석 결과, 참가자들은 인간 팀원 앤의 신뢰성(높음/낮음)을 의도대로 정확하게 인식했다. 또한, 앤의 AI에 대한 신뢰성 인식이 시간이 지남에 따라 증가했는지 혹은 감소했는지도 성공적으로 파악했음이 확인되었다.

가설 검증 결과, 가설 1a는 지지되었다. 인간 팀원(앤)의 AI 신뢰성 인식은 직원(참가자)의 AI 신뢰성 인식과 통계적으로 유의미한 긍정적 관계를 보였다. 즉, 앤(인간 동료)이 AI를 신뢰할 수 있다고 평가할 때 참가자 역시 AI를 더 신뢰할 수 있다고 인식했다.


또한, 가설 2a도 지지되었다. 직원의 '인간 팀원 신뢰성 인식'이 이 관계를 조절하는지 검증한 결과, 상호작용 효과는 유의미했다. 구체적으로, 앤을 '신뢰할 수 있다'고 인식한 참가자 그룹에서는, 앤의 AI 신뢰 인식이 참가자의 AI 신뢰 인식에 미치는 긍정적 영향이 매우 강력하고 유의미하게 나타났다. 하지만 앤을 '신뢰할 수 없다'고 인식한 참가자 그룹에서는, 앤의 AI 신뢰 인식이 참가자의 AI 신뢰 인식에 미치는 영향이 통계적으로 유의미하지 않았다(즉, 영향력이 사라졌다).


연구진은 두 가지 추가 분석을 수행했다. 실험 설계를 반대로(AI 신뢰 인식을 참가자 간, 인간 팀원 신뢰성을 참가자 내 요인으로) 바꾼 보충 연구에서도 동일한 결과 패턴이 복제됨을 확인했다. 또한, 'AI에 대한 정서적 신뢰성 인식'이나 'AI에 대한 신뢰 성향'과 같은 잠재적 교란 변수들을 통제한 후에도, 가설 1a와 2a의 결과는 동일하게 유지되었다.


4.3 연구 1 논의 (Discussion Study 1)

연구 1의 결과는 신뢰성이 제3자의 효과에 의해 형성된다는 핵심 가설을 뒷받침한다. 이는 인간 팀원의 인식이 직원의 AI에 대한 관점에 영향을 미치며, 이러한 영향력은 직원이 그 인간 팀원을 신뢰할 때 더욱 강화된다는 것을 보여준다.

하지만 연구 1은 다음과 같은 한계를 지닌다.

신뢰의 '믿음' 요소만 측정: 이 연구는 신뢰 형성의 '신뢰성 인식'(믿음) 측면에만 초점을 맞췄다. 신뢰의 '행동'적 측면(실제 행동)까지 확장할 필요가 있다.

비물리적 AI에 한정: 연구 1은 비물리적 AI(챗봇) 맥락에 국한되었다. 물리적 AI(로봇)에 대해서도 이 효과가 일반화되는지 확인할 필요가 있다.

제한된 외부 타당도: 참가자들은 실제 상호작용이 아닌, 가상의 시나리오(비네트)를 상상하도록 요청받았다.

이러한 한계점들은 연구 2의 설계로 이어진다. 연구 2는 신뢰의 '행동적' 측면을 다루고, '물리적 AI'를 사용하며, 실제 인센티브가 제공되는 '생태학적으로 타당한' 환경에서 제3자 효과를 검증하는 것을 목표로 한다.



5. 연구 2 (Study 2)


연구 2는 연구 1의 한계(가상 시나리오, 신뢰성 '인식'만 측정)를 보완하기 위해 설계되었다. 이 연구의 목적은 생태학적으로 타당한 환경에서, 실제 '물리적 AI'(로봇)를 대상으로 '제3자 효과'가 '신뢰 행동'(behavior)에 미치는 영향을 검증하는 것이다.


5.1 방법론 (Methodology)

네덜란드의 한 대학에서 경영대 학생 156명(총 78팀)을 모집했다. 참가자들은 3인 1조 팀(인간 2명, AI 1명)을 이루어 과제를 수행했다. 평균 업무 경력은 1.73년이었으며, 55.1%가 여성이었다.

이 연구는 시나리오나 영상이 아닌, 실제 AI 기반 로봇 '테미(Temi)'를 AI 팀원으로 사용했다. 테미는 OpenAI의 GPT-3 모델을 탑재하여 참가자들과 인간과 유사한 방식으로 자연어 소통이 가능했다.


연구는 통제된 실험실 환경에서 인센티브(추가 6유로)를 제공하는 관찰 연구로 진행되었다. 참가자들은 3인 1조 팀(인간 2명, AI 1명)의 일원임을 안내받았고, 테미는 스스로를 "여러분의 팀원"이라고 소개했다.

절차는 다음과 같이 진행되었다. 먼저, 참가자들은 AI(테미)와 3분간 개별 대화를 나눈 후 AI에 대한 '기초 신뢰(baseline trust)'를 측정했다. 이후 참가자들은 서로(인간 팀원)와 3분간 대화를 나누고 '인간 팀원에 대한 신뢰'를 측정했다.

핵심 조작으로, 참가자들은 방금 측정한 서로의 'AI에 대한 기초 신뢰' 수준 정보를 실험자로부터 전달받았다. 이 제3자(동료)의 정보를 받은 후, 참가자들은 AI(테미)에 대한 '최종 신뢰(final trust)' 수준을 다시 결정했다.

마지막으로, 신뢰 결정의 현실성을 높이기 위해 공항 보안 X-ray 사진 판독 과제를 수행했다. 최종 보상은 세 팀원(인간 2, AI 1) 모두의 성과에 기반하며, 참가자들이 결정한 '신뢰 할당량'에 따라 각자의 성과가 가중 적용되어 계산되었다.


연구 1과 달리, 연구 2는 설문이 아닌 실제 금전적 결정에 기반한 '행동적 신뢰(behavioral trust)' 조치를 사용했다. 신뢰는 "팀 보상에 대한 특정 행위자(자신, 인간 동료, AI)의 성과 의존도"를 0%에서 100% 사이로 할당하는 방식으로 측정되었다. 이는 해당 행위자의 능력에 기꺼이 자신의 보상을 맡기려는 '취약성'을 반영한다.

인간 팀원의 AI 신뢰 (독립 변수): 참가자가 동료의 정보를 받기 전에 AI(테미)에게 할당한 '기초 신뢰' 할당량(%).

인간 팀원에 대한 신뢰 (조절 변수): 참가자가 자신의 인간 팀원에게 할당한 신뢰 할당량(%).

직원의 AI 신뢰 (종속 변수): 참가자가 동료의 정보를 받은 후에 AI(테미)에게 할당한 '최종 신뢰' 할당량(%).

데이터가 2인 1조(dyad)로 중첩되어 있어 다층 수준 모델링을 사용했다. 특히, '기초 신뢰'를 통제 변수로 포함하는 '지연된 내생적 변화 모델(lagged endogenous change model)'을 사용하여, 제3자(동료)의 정보가 직원의 AI 신뢰를 '어떻게 변화시켰는지'를 분석했다.


5.2 연구 2 결과 (Results Study 2)

가설 1b는 지지되었다. 인간 팀원의 AI 신뢰(행동)는 직원의 (최종) AI 신뢰(행동)와 긍정적이고 유의미한 연관성을 보였다. 이는 직원이 자신의 기초 신뢰 수준을 통제한 후에도 유효했다. 즉, 동료가 AI를 신뢰하는 행동을 보이자 직원 역시 AI에 대한 신뢰 행동을 높였다.

가설 2b는 기각되었다. 직원의 '인간 팀원에 대한 신뢰(행동)'는 이 관계를 조절하지 못했다. 즉, 동료를 행동적으로 신뢰하는지 여부(보상 할당)가 동료의 AI 신뢰 행동을 모방하는 정도에 영향을 미치지 않는 것으로 나타났다.


연구진은 가설 2b가 기각된 이유를 더 깊이 파악하기 위해 보충 분석을 실시했다.

첫째, 조절 변수를 '신뢰 행동'(금전 할당)에서 연구 1처럼 '신뢰성 인식'(설문 척도)으로 변경하여 분석했다. 이 상호작용 역시 통계적으로 유의미하지 않았다.

둘째, 참가자들이 인간 팀원에 대한 '신뢰성 인식'을 매우 높게 평가하는 경향(평균 5.75/7점)을 보였다는 점을 확인했다. 즉, 신뢰성이 낮다고 응답한 참가자가 거의 없어(범위 제한) 상호작용 효과를 탐지하기 어려웠을 수 있다.

셋째, 이 문제를 해결하기 위해 더 정교한 유의성 영역(Johnson-Neyman) 분석을 활용했다. 분석 결과, '인간 팀원 신뢰성 인식'이 적어도 중간 정도 이상인 경우 (평균 기준 -1.21 표준편차 이상)에는 인간 팀원의 AI 신뢰(H1b)가 직원의 AI 신뢰에 긍정적인 영향을 미쳤다. 하지만 신뢰성 인식이 그보다 낮은 드문 경우에는 이 영향이 유의미하지 않았다.

보충 분석은 비록 가설 2b(행동적 신뢰 조절)는 기각되었지만, 가설 2a(인식적 신뢰성 조절)의 메커니즘은 연구 2에서도 잠재적으로 작동하고 있음을 시사한다.



6. 논의 (Discussion)


본 연구는 사회인지이론(SCT)에 기반하여, 직원의 사회적 환경, 즉 '인간 팀원'이 AI 팀원에 대한 '신뢰성 인식'과 '신뢰 행동'을 형성하는 데 결정적인 역할을 한다는 것을 보여준다.

연구 결과, 인간 팀원의 AI에 대한 인식 및 행동은 직원의 AI 신뢰에 긍정적인 관계를 보였다. 더 중요한 것은, 이러한 사회적 영향력은 직원이 그 인간 팀원을 '신뢰할 수 있다(trustworthy)'고 인식할 때만 유효했다. 직원이 인간 팀원을 적어도 중간 이상 신뢰할 수 있다고 인식할 때만, 직원은 동료의 AI에 대한 태도와 행동을 채택(모방)했다. 반면, 직원이 인간 팀원에게 보인 '신뢰 행동'은 이러한 관계를 조절하지 못했다.


6.1 이론적 함의 (Theoretical Implications)

본 연구는 인간-AI 팀의 신뢰 형성에 대해 다음과 같은 이론적 기여를 한다.

관점의 확장 (양자 관계에서 삼자 관계로): 대부분의 기존 연구가 인간-AI '양자 관계(dyad)'에 집중한 반면, 본 연구는 '삼자 관계(triadic)' 접근법을 취한다. 이는 AI 신뢰 형성에 있어 '제3의 인간 팀원'이라는 직접적인 사회적 환경의 역할을 강조함으로써 기존 연구를 확장한다.

신뢰 형성에 대한 전체론적 관점: 본 연구는 신뢰 형성 과정의 두 가지 핵심적이고 독특한 구성요소, 즉 '믿음의 요소'(신뢰성 인식, 연구 1)와 '행동의 요소'(신뢰 행동, 연구 2) 모두에서 제3자의 영향을 확인했다.

핵심 경계 조건 식별: 본 연구는 사회인지이론의 상호 호혜성 원칙을 적용하여, 직원들이 동료의 태도와 행동을 맹목적으로 따르지 않음을 규명했다. 직원의 인지(즉, '인간 팀원에 대한 신뢰성 인식')가 환경적 영향(동료의 AI 신뢰)이 자신에게 영향을 미칠지 여부를 결정하는 핵심 경계 조건으로 작용한다.

조절 효과의 구별: '신뢰성 인식'(인지적 요인)은 제3자 효과를 유의미하게 조절했으나, '신뢰 행동'(행동적 요인)은 그렇지 못했다. 이는 신뢰 형성에 대한 사회적 영향을 강화하는 데 있어, 행동적 요인보다 신뢰성 인식과 같은 인지적 요인이 더 안정적이고 중요한 역할을 할 수 있음을 시사한다.

연구 결과의 일반화 가능성: 연구 1(전문 직장인의 비물리적 AI 인식)과 연구 2(학생 팀의 물리적 AI 로봇 행동)의 결과를 통해, 제3자 효과가 서로 다른 AI 형태, 과제, 인구 집단에 걸쳐 일관되게 나타남을 보여주었다.


6.2 강점 및 한계 (Strengths and Limitations)

본 연구는 다중 연구, 다중 방법 접근법을 사용했으며, 특히 연구 2에서는 실제 AI(GPT-3 탑재 로봇)를 구현하여 생태학적 타당도를 높인 강점이 있다. 그럼에도 불구하고 다음과 같은 한계점을 가진다.

외부 타당도의 한계: 두 연구 모두 실제 현장(field context)이 아닌 통제된 환경(온라인 실험, 실험실)에서 수행되었다.

표본의 편향성: 연구 1(전문가)은 환경적 단서에 덜 민감할 수 있고, 연구 2(학생)는 더 민감할 수 있다. 특히 연구 2에서는 참가자들이 인간 팀원을 대부분 높게 신뢰하는 '범위 제한(range restriction)' 문제가 발생하여, 신뢰도가 낮은 동료의 영향을 관찰하기 어려웠고 이는 가설 2b 기각의 원인이 되었을 수 있다.

AI 모델의 한계: 연구 2에서 사용된 GPT-3는 데이터 수집 시점에서는 강력했으나, GPT-4o나 Claude 3와 같은 최신 모델보다 성능이 낮다. AI의 실제 성능은 신뢰에 큰 영향을 미치므로, 더 발전된 AI 모델을 사용했을 때 결과가 달라질 수 있다.

매개 메커니즘의 부재: 사회인지이론(SCT)을 이론적 틀로 사용했으나, '관찰 학습'이나 'AI 자기 효능감' 증가와 같이 이러한 영향이 발생하는 구체적인 심리적 메커니즘을 직접 측정하지는 않았다.


6.3 향후 연구 (Future Research)

본 연구의 한계를 보완하고 논의를 확장하기 위해 다음과 같은 후속 연구가 필요하다.

인식과 행동의 통합: 신뢰성 인식과 신뢰 행동을 별개의 연구가 아닌 단일 연구 내에서 조사하여, 제3자로부터 전달된 '인식'이 실제 '행동'으로 이어지는지(혹은 그 반대인지) 그 연쇄 효과를 검증할 필요가 있다.

신뢰 모델의 확장: 신뢰의 다른 차원(예: 능력, 호의, 진실성)이나 신뢰 과정의 다른 단계(예: 위험 감수 행동)에서도 제3자 효과가 동일하게 나타나는지 탐구해야 한다.

정서적 신뢰 탐구: 본 연구는 '인지적 신뢰'에 집중했다. (본문에 보고된) 보충 연구에 따르면, '정서적 신뢰' 역시 동료로부터 전이되었지만, 이 관계는 동료에 대한 정서적 신뢰성에 의해 조절되지 않았다. 이 차이점에 대한 심층 연구가 필요하다.

개인차 변수 탐구: AI에 대한 신뢰 성향, AI 사용 경험, AI 자기 효능감 등과 같은 개인의 특성이 제3자(동료)의 영향을 받아들이는 정도를 어떻게 조절하는지 탐구할 필요가 있다.

종단적 연구: 본 연구는 단기적 효과를 측정했다. 동료의 태도나 행동에 반복적으로, 장기간 노출될 때 사회적 영향이 강화되는지, 혹은 심리적 저항(reactance)으로 인해 약화되는지 종단적 연구가 필요하다.

팀 구성의 다양화: 3인 팀을 넘어, 여러 명의 AI나 더 많은 인간이 포함된 복잡한 팀 구성을 탐구해야 한다. 예컨대, 팀 내 다수파/소수파의 의견이 AI 신뢰에 미치는 영향이나, AI가 다른 AI를 신뢰하는 모습이 인간에게 미치는 영향(Human-AI-AI) 등을 연구할 수 있다.


6.4 실무적 함의 (Practical Implications)

본 연구 결과는 인간-AI 팀을 운영하는 조직에 다음과 같은 실무적 시사점을 제공한다.

사회적 환경 관리: 조직은 단순히 AI 도입 교육만 할 것이 아니라, AI에 대한 광범위한 "신뢰 환경"을 조성하는 데 개입해야 한다. 이는 산업별로 맞춤화될 수 있다(예: 지식 산업은 AI 성공 사례 공유, 서비스 산업은 AI 협업 시연).

문화적 맥락 고려: 제3자 효과는 문화에 따라 다를 수 있다. 본 연구가 수행된 네덜란드와 같은 개인주의 문화권보다, 중국이나 군대와 같은 집단주의 문화권에서 동료의 영향력(제3자 효과)이 더 강력할 수 있다.

전략적 팀 구성: AI에 대한 신뢰가 낮은 직원을 이미 AI를 신뢰하는 직원과 팀으로 배치하는 것을 고려할 수 있다.

부정적 영향 관리: 가장 큰 도전 과제는, '매우 신뢰받는 인간 팀원'이 AI에 대해 회의적일 경우이다. 이들의 부정적 영향력은 조직의 AI 도입 노력을 쉽게 훼손할 수 있으므로, 조직은 이들 핵심 인력을 먼저 설득하고 우려를 해소하는 데 집중해야 한다.

'신뢰 보정'의 중요성: 조직의 목표는 '맹목적인 신뢰'가 아니라 AI의 실제 역량에 부합하는 '신뢰 보정(trust calibration)'이 되어야 한다. 이를 위해, 직원들이 유능하지만 회의적인 동료의 의견을 맹목적으로 따르지 않도록, AI의 실제 성능에 기반하여 판단할 수 있게 돕는 지속적이고 상호작용적인 팀 훈련이 필요하다.



7. 결론 (Conclusion)


AI가 팀원으로서 보편화됨에 따라, 인간-AI 팀 내부의 복잡한 사회적 역학 관계의 본질을 더 잘 이해하는 것이 필수적이다.

본 연구는 핵심적인 '제3자'(즉, 다른 인간 팀원)가 언제, 그리고 어떻게 이러한 팀 내 신뢰 형성에 영향을 미치는지에 대해 새롭고, 더 미묘하며, 세분화된 그림을 제시한다.

연구 결과는 직원들이 동료 인간 팀원의 AI 팀원에 대한 신뢰성 인식을 채택하며, AI 팀원을 향한 동료의 신뢰 행동을 모방(match)한다는 것을 보여준다. 중요하게도, 이러한 효과는 주로 직원들이 자신의 인간 팀원을 적어도 중간 이상 신뢰할 수 있다고 인식할 때 발생하는 것으로 나타났다.

제3자 효과에 대한 본 연구의 조사는, 인간-AI 팀에서의 신뢰 형성이 이전에 이해되었던 것보다 더 복잡하다는 것을 시사한다. 이 과정은 직접적인 인간-AI 간의 상호작용뿐만 아니라, 다른 인간 팀원들로부터 오는 사회적 영향력 간의 섬세한 상호작용을 포함한다.

요컨대, 본 연구의 결과는 인간-AI 양자 관계(dyad)를 넘어서는 제3자의 중요성을 강조한다. 이를 통해, 인간과 AI 팀원으로 구성된 팀이라는 점차 보편화되는 상황을 더 잘 이해하기 위한 기초를 제공한다.

keyword