AI로부터 멘탈을 지켜주세요

AX 리더십 - 인지적 자율성

by 윤덕수


AI가 일을 더 빠르게, 판단을 더 정확하게 그리고 성과물을 더 깔끔하게 정리해 주고 있다. 그런데 리더 입장에서 정말 불편한 질문이 하나 남는다. 효율이 좋아지는 만큼, 사람의 마음과 생각까지 관리의 대상이 되어 버리지는 않을까 하는 질문. 성과를 높이겠다는 명분으로 구성원의 집중도, 감정 상태, 스트레스, 동기 같은 내면의 신호를 데이터로 읽고, 그 데이터로 행동을 유도하고, 그 결과를 다시 학습시키는 흐름이 자연스럽게 자리 잡을 수 있기 때문이다.


듀크 대학교의 니타 파라하니 교수는 이런 시대에 리더가 반드시 지켜야 할 핵심 가치로 인지적 자율성(Cognitive Liberty)을 강조한다. 요지는 기술이 아무리 발전해도 내 생각의 주인은 나여야 한다는 것이다. 그리고 이 가치는 세 가지 구체적인 권리로 나뉘어 설명하는 것이 흥미롭다. 정신적 프라이버시, 인지적 자기 결정성, 정신적 온전성이다.


먼저 정신적 프라이버시(Mental Privacy)는 동의 없이 내 정신 상태를 모니터링당하지 않을 권리다. 예를 들어 화상회의 중 카메라와 마이크 데이터를 통해 표정, 말투, 망설임, 목소리 떨림을 분석해 감정 상태를 추정하는 것이 기술적으로 가능하다. 회사는 팀의 분위기를 관리하기 위함이라고 말할 수 있겠다. 하지만 구성원 입장에서는 내 머릿속 날씨를 허락도 없이 관측당하는 느낌으로 돌아온다. 더 무서운 것은 이런 관측이 습관이 되면, 사람들은 어느 순간부터 솔직한 표정과 솔직한 말 대신 안전한 표정과 말만 골라 내게 된다. 회의가 어느 시점부터 감시를 통과하는 언어로 바뀌는 되고, 조직 안에서 감정은 숨겨야 할 대상쯤으로 치부될 것이다. 어떤 결과로 연결될까? 싫어도 싫은 내색을 할 수 없게 되는 것이다. 그래서 정신적 프라이버시는 단지 사생활 보호가 아니라, 조직의 사고 능력을 지키는 최소한의 울타리가 된다. 파라하니는 특히 뇌 데이터나 신경기술이 만들어내는 정보가 개인의 가장 내밀한 영역과 연결된다는 점에서, 동의와 통제 장치가 기본값이 되어야 한다는 방향을 분명히 하고 있다.


둘째, 인지적 자기 결정성(Mental Self-Determination)이다. 이것은 자신의 사고 과정을 스스로 통제할 권리를 의미한다. 핵심은 생각의 결론이 아니라 생각에 이르는 길이다. 예를 들어 영업 현장에서 AI가 고객을 분석해 이 멘트를 사용할 때 확률이 높다고 제안할 수 있겠다. 제안 자체는 유용하지만, 문제는 제안이 아니라 제안이 기본값이 될 때이다. 사람은 점점 스스로 가설을 세우고 반증하고 수정하는 과정을 줄이게 되어, AI가 준 제안을 정답으로 인식하고 그 속에서 선택하는 일을 반복하게 된다. 처음에는 편리한 보조 도구였으나, 어느새 자신만의 생각에 운전대를 내어주는 셈이 되고 만다.


심리학과 인지과학에서는 이런 현상을 인지적 위임(cognitive offloading)으로 설명한다. 검색 엔진이 가까이 있을수록 사람들은 내용 자체보다 어디에서 찾을 수 있는지를 더 기억하게 된다는 연구도 있다. 이 흐름이 조직으로 들어오면 무엇이 생길까? 판단이 빨라지지만 판단 근육이 약해질 수 있다. 결국 AI 의존이 깊어질수록 스스로 사고하기를 미루는 인지적 게으름이 생기고, 비판적 사고의 퇴화라는 비용을 치를 위험이 커지게 된다.


실제로 연구결과를 살펴보면(Gerlich, 2025), 인간과 AI의 빈번한 상호작용이 과도한 인지적 부담을 AI 시스템으로 전이시키는 촉매제가 됨을 보여준다. 이러한 전이 과정은 단기적으로는 효율성을 제공할지 모르나, 장기적으로는 비판적 사고, 기억력, 의사결정 기술의 점진적인 감퇴를 초래하는 것으로 거론되고 있다. 즉, AI 상호작용의 빈도가 증가할수록 사용자의 분석적 추론 능력은 약화되는 경향을 보이며, 이는 시간이 지남에 따라 더욱 고착화되는 것이다.


마지막으로 정신적 온전성(Mental Integrity)은 외부의 조작으로부터 내 생각과 감정의 본질을 지킬 권리다. 이건 프라이버시나 자율성보다 한 단계 더 들어간, 깊은 문제로 볼 수 있다. 모니터링이 관측이라면, 온전성은 개입을 막는 원칙과 같다. 예를 들어 업무 앱이 구성원의 불안을 감지하면 동기부여 메시지를 띄우고, 더 나아가 특정 선택을 하도록 미세한 유도 장치를 설계할 수 있다. 표면적으로는 코칭처럼 보일 수 있지만, 구성원이 인지하지 못한 채 감정과 선택이 조정된다면 그건 설득이 아니라 조작에 가까워지게 된다. 특히 반복적 미세 유도는 사람의 선호와 감정 반응을 조금씩 재학습시켜 결국 스스로 원해서 하는 것처럼 느끼게 만들 수 있다. 이런 이유로 정신적 온전성은 단지 마음이 상하지 않게 하자는 정서적 표현이 아니라, 개인의 정신 영역이 침범당하지 않도록 하는 윤리적 경계선이라고 할 수 있다. 그래서 신경윤리 분야에서는 인지적 자유, 정신적 프라이버시, 정신적 온전성을 새로운 권리의 묶음으로 논의하며 그 필요성을 강조해 왔던 것이다.


이처럼 관측이 일상이 되고, 의도된 값으로 알고리즘을 만들고, 선택이 미세 유도로 정렬되면, 구성원의 내면은 겉으로는 개인의 것처럼 보이지만 실제로는 조직의 목표에 맞춰 설계된 환경 속에서 길들여질 수밖에 없지 않을까? 이때 인간 본연의 권리 관점에서 리더십은 성과 관리와 더불어 인지 영역의 주권 문제로 넓어진다. 내가 생각한 것 같지만 사실은 내가 생각하도록 설계된 결과물일 수 있기 때문이다.


그래서 AI 시대의 현명한 리더는 기술을 통한 통제자가 아니라, 구성원의 인지적 주체성을 보호하는 보루가 되어야 하지 않을까? 첫째, 정신 상태를 추정하거나 측정하는 데이터는 선택 사항이어야 하지, 필수로 위장되어서는 결코 안 될 것이다. 둘째, AI가 제안하는 결론보다 구성원이 스스로 사고할 수 있는 과정, 즉 반대 근거를 찾고 검증하고 토론하는 시간을 의도적으로 확보해야 한다. 셋째, 감정과 선택을 무의식적으로 조작하는 설계가 들어올 수 있는 지점을 점검하고, 투명성과 설명 가능성, 책임 소재를 분명히 해야 한다. 이런 원칙은 개인의 권리를 보호하는 동시에 AI시대 속에서 조직 구성원의 정신적 건강을 지키는 일이기도 하다. 그래서 세계적으로 인간 중심 가치와 권리, 프라이버시를 AI 거버넌스의 핵심 원칙으로 강조하는 이유다.




결국 AI시대에 리더에게 던지고 싶은 질문이 있다.


"AI를 얼마나 도입할 것인가?"에서 "AI를 왜.. 그리고 어디까지 들어오게 둘 것인가?"

AI기술은 일을 대신할 수 있지만, 생각의 주인은 사람이 되어야지, 결코 사람을 대신해서는 안될 것이다.


인지적 자율성을 지키는 리더는 구성원의 머릿속을 더 많이 읽으려는 사람이 아니라, 구성원의 머릿속이 안전하게 남아 있도록 지켜주는 사람이지 않을까.


AI시대, 생각을 생각하는 꼬리에 꼬리를 무는 습관이 중요한 이유다. 지금 내 생각은 누구의 것일까?



References


Farahany, N. (2023). The battle for your brain: Defending the right to think freely in the age of neurotechnology. St. Martin’s Press.


Gerlich, M. (2025b). Navigating the cognitive outsourcing trap: Learning docility in the age of generative AI. Journal of Management Education, 48(4), 708–734.

keyword
작가의 이전글책 출간의 짧은 소회