* 대상 논문
What Makes a Leader?
Author: Daniel Goleman
Year: 1998
Key Concept: 감성지능(Emotional Intelligence), 리더십의 핵심 역량
* 일러두기
이번 컬럼에서는 대상논문을 2030년의 시각에서 다시 쓴다면?
AI는 감성지능 이론을 파괴하는가
칼날은 무뎌진다. 그러나 칼날이 무뎌지는 과정에서 우리는 비로소 칼의 본질을 안다. 1998년, Daniel Goleman이 하버드 비즈니스 리뷰에 던진 명제는 칼날처럼 날카로웠다. "IQ와 기술적 능력만으로는 부족하다. 진정 탁월한 리더는 높은 감성지능으로 구별된다." 근 200개 글로벌 기업을 해부한 끝에 그가 발견한 것은 자기인식, 자기관리, 동기부여, 공감, 사회적 기술이라는 다섯 개의 축이었다. 경영학은 그날 이후 하드 스킬에서 소프트 스킬로, 머리에서 가슴으로 중심을 옮겼다. 그런데 2025년, 우리는 묻는다. 인공지능이 감정을 읽고, 공감을 계산하고, 번아웃을 예측하는 시대에 감성지능은 여전히 날카로운가.
공감이 상품이 된 시대
기계가 우리의 감정을 읽기 시작했다. Slack의 대화 톤을 분석해 "이 팀원은 72% 확률로 번아웃 직전입니다"라고 경고하는 알고리즘이 있다. Teams 회의에서 표정과 목소리를 실시간 분석해 매니저에게 "지금 공감적인 표현을 사용하세요"라고 속삭이는 AI 코치가 있다. 감정 인공지능 시장은 2024년 27억 달러에서 2030년 90억 달러로 폭발한다. 공감은 이제 서비스이고, 감성지능은 구독 상품이다.
여기서 첫 번째 통찰이 출현한다. Goleman이 2030년에 논문을 다시 쓴다면, 그는 "자동화된 공감"의 역설을 직시해야 한다. AI가 직원의 감정 상태를 나보다 더 정확히 파악한다면, 리더의 공감 능력은 여전히 차별화 요소인가. 공감이 데이터로 계량화되고 알고리즘으로 최적화될 때, 인간 리더의 감성지능은 어디에 가치를 두어야 하는가.
/ 대답은 명료하다. 진정한 공감은 예측이 아니라 함께 겪음에서 나온다. /
AI는 패턴을 읽는다. 인간은 맥락을 읽는다. 기계는 "당신이 슬프다"고 말할 수 있지만, "당신의 슬픔이 무엇을 의미하는지"는 말할 수 없다. 미래의 리더는 AI가 제공하는 감정 데이터를 활용하되, 그 데이터 너머에 있는 실존적 맥락을 포착해야 한다. 이것이 감성지능 2.0이다. 데이터 리터러시와 실존적 공감력의 결합. 숫자로 환원할 수 없는 인간의 고통을 읽어내는 능력이다.
알고리즘이 정의하는 나
그러나 문제는 더 깊은 곳에 있다. AI가 나를 분석할 때, 나는 AI의 편향을 인식할 수 있는가. 두 번째 통찰은 자기인식의 재정의에서 시작된다. 리더십 코칭 AI는 말한다. "당신은 스트레스 상황에서 회피 패턴을 보입니다. 의사결정 속도가 37% 느려집니다." 이 진단은 정확할 수 있다. 그러나 이 AI가 백인 남성 임원의 데이터로 훈련되었다면, 아시아 여성 리더의 신중함을 회피로 오독할 수 있다.
/ 알고리즘은 중립적이지 않다. 훈련 데이터의 편향은 판단의 편향이 된다. /
Goleman이 1998년에 강조한 자기인식은 "나 자신의 감정을 아는 것"이었다. 2030년의 자기인식은 메타-인식이 되어야 한다. 나를 판단하는 시스템의 작동 원리와 한계까지 이해하는 능력이다. 리더는 이제 이중의 질문을 던져야 한다. "나는 누구인가"뿐 아니라 "나를 이렇게 정의하는 알고리즘은 무엇을 보지 못하는가"이다.
자기인식의 새로운 지평은 알고리즘 리터러시와 비판적 자기성찰의 교차점에서 열린다. 기계가 제시하는 나를 수용하되, 기계가 놓친 나를 스스로 발견하는 역량이다. 이것은 단순한 기술적 능력이 아니라 철학적 자세이다. 나는 데이터 이상의 존재라는 선언이다.
번역자로서의 리더
세 번째 통찰은 사회적 기술의 확장에서 완성된다. 2030년의 조직은 인간과 AI 에이전트가 혼재된 하이브리드 팀이다. 리더는 인간 팀원에게 동기를 부여할 뿐 아니라, AI 시스템과 효과적으로 협업하고, AI의 차가운 분석을 따뜻한 내러티브로 번역해야 한다. Goleman이 말한 사회적 기술은 "사람들과 잘 지내는 능력"이었다. 이제 그것은 "사람과 기계 사이를 연결하는 능력"으로 진화한다.
AI는 말한다. "3분기 매출은 목표 대비 12% 하락했습니다. 원인은 시장 포화와 경쟁사 신제품입니다." 리더는 번역한다. "우리는 힘든 분기를 보냈습니다. 그러나 이 어려움은 우리가 다음 혁신을 준비할 시간을 주었습니다. 시장은 변했고, 우리도 변해야 합니다."
/ 데이터를 의미로, 효율을 목적으로 번역하는 능력. 이것이 2030년의 사회적 기술이다. /
Goleman이 다시 쓴다면, 그는 이것을 "번역 능력"이라 명명할 것이다. 크로스-플랫폼 공감력이다. 디지털과 휴먼 사이의 브리징이다. 리더의 영향력은 이제 얼마나 잘 말하는가가 아니라 얼마나 잘 연결하는가에 달려 있다.
감시와 공감 사이
그러나 우리는 낙관만 할 수 없다. 윤리적 딜레마가 그림자처럼 따라온다. AI가 직원의 감정을 24시간 모니터링하는 조직에서, 감성지능은 권력의 도구인가 통제의 도구인가. 리더가 AI의 감정 분석 데이터를 보고 "너는 요즘 부정적이야"라고 말한다면, 그것은 공감인가 감시인가. Goleman의 원론은 감성지능을 개인의 성장 도구로 제시했다. 그러나 AI 시대에는 조직의 통제 도구로 전락할 위험이 도처에 깔려 있다.
감정 프라이버시는 침해되고, 진정성은 사라진다. AI가 최적의 공감적 반응을 실시간으로 제안한다면, 리더의 말과 행동은 여전히 진정성을 가질 수 있는가. 각본화된 감성은 진짜 감성인가, 고급 연기인가.
여기서 우리는 세 개의 질문 앞에 선다. 당신의 조직은 AI를 감성지능의 보조자로 쓰는가, 대체자로 쓰는가. 당신은 마지막으로 언제 AI의 추천 없이 순수하게 당신의 직관으로 팀원을 격려했는가. 2030년, 당신의 자녀가 리더가 된다면, 그들에게 가장 필요한 역량은 데이터 분석 능력인가, 아니면 여전히 공감 능력인가.
AI는 감성지능을 파괴하지 않는다. 오히려 그 경계를 선명하게 드러낸다.
/ 기계가 할 수 없는 것을 정의함으로써, 기계가 인간에게 더 깊은 인간성을 요구한다. /
1998년 Goleman은 말했다. "IQ만으로는 부족하다." 2030년 Goleman이 다시 쓴다면 이렇게 말할 것이다. "AI만으로도 부족하다. 감성지능은 계산할 수 없는 것, 즉 의미와 목적을 다루는 능력이다."
/ 기계가 감정을 읽는 시대에, 인간은 마침내 감정을 넘어선 무언가—영혼, 가치, 신념—를 읽어야 한다. /
그것이 2030년 리더십의 새로운 지평이다. 칼날은 무뎌지지 않았다. 다만 베어야 할 대상이 달라졌을 뿐이다.
(작성 : 조우성 변호사)