brunch

08. 추론통계 (3)

✨ 미리 보는 HR Analytics Strategies [2편]

by HyehwaYim






Review

:: 지난 시간의 이야기


추론통계는 단순히 데이터를 읽는 기술을 넘어, 표본으로부터 모집단의 특성을 추정하고 의사결정의 근거를 마련하는 분석입니다. HR analytics에서 추론통계는 과거의 데이터를 통해 HR과 관련한 주요 요인과 성과를 예측하고, 전략적 의사결정을 지원하는 핵심적인 도구가 됩니다. Bersin(2012)은 충분한 데이터 축적을 통해 조직이 의미 있는 패턴을 발견하고, 미래를 예측할 수 있음을 강조했습니다.


통계 검정의 핵심은 분석의 결과가 '우연이 아닌 실제의 차이'인지를 판단하는 것입니다. 이를 위해 연구가설과 귀무가설을 설정하고, 검정통계량과 p-value를 활용합니다. 일반적으로 p<0.05, 즉 95% 신뢰수준을 기준으로 통계적인 유의성을 판정하며, p<0.01이면 매우 강력한 근거로 간주됩니다.


데이터의 정확성과 일관성을 보장하는 데이터 무결성(Data Integrity)은 HR 분석의 전제조건입니다. 서로 다른 소스의 데이터를 결합할 때는 고유한 식별자(ID)로 연결하며, 최신성과 신뢰성이 확보되어야 분석 결과의 품질을 담보할 수 있습니다.


데이터는 크게 범주형(Categorical)연속형(Continuous)으로 구분됩니다. 범주형은 성별, 직급과 같이 순서가 없는 명목형과 순서만 있는 서열형이 있으며, 연속형은 간격형과 비율형으로 나뉩니다. 변수 간 관계에 따라 분석 단위를 개인 수준(성과, 근속연수 등) 또는 팀 수준(몰입도, 리더십 효과 등)으로 설정합니다. 또한 독립변수(IV)는 결과에 영향을 주는 요인, 종속변수(DV)는 예측 또는 설명의 대상이 됩니다. 두 변수 간 유의미한 관계가 있어도, 이는 상관관계일 뿐 인과관계로 단정할 수 없음을 주의해야 합니다.


마지막으로 통계 검정은 모수검정(Parametric test)비모수검정(Non=parametric test)으로 구분됩니다. 모수검정은 정규분포 가정을 기반으로 평균과 분산을 분석하는 t-test, ANOVA, 회귀분석 등이 포함되고, 비모수검정은 데이터가 정규성을 충족하지 않을 때 순위나 빈도에 기초하여 검정합니다(Mann-Whitney U 등). 실제의 HR 데이터는 왜도나 표본의 크기 제한으로 정규성을 만족하지 않는 경우가 많기 때문에, 데이터의 형태와 특서에 따라 검정 방식을 신중하게 선택해야 합니다.


오늘의 이야기

:: 통계 검정 방법 10가지


안녕하세요? [미리 보는 HR Analytics Strategies] 2편입니다. 오늘은 HR 데이터 분석 시에 어떠한 통계검정을 주로 다루는 지를 살펴보겠습니다. 우리가 통계검정 방법을 선택할 때는 반드시 두 가지 점을 유의해야 합니다. 첫째는, 연구 질문(Research question)입니다. '우리가 무엇을 알고자 하는가?'에 대한 명확한 방향 설정이 필요합니다. 둘째는 데이터 유형(Data type)입니다. 종속변수와 독립변수가 어떠한 형태인지를 파악해야 합니다. 이 두 가지를 결합하면, 어떠한 검정을 해야 하는 것인지를 판단할 수 있게 됩니다. 아래의 표는 HR분석에서 가장 일반적으로 쓰이는 통계검정들을 데이터 유형으로 정리한 것입니다.




Executive Summary


Table 형식으로 정리한 "Types of Statistical Tests'의 종류와 주요한 내용을 하나씩 집어보겠습니다.


1️⃣ 카이제곱 검정(Chi-square Test)


1900년, 영국의 통계학자였던 칼 피어슨(Karl Pearson)은 관찰되는 현상이 정말로 "우연"에 의한 것인지 알고 싶었습니다. 그가 만든 카이제곱 검정은 우리가 기대한 비율과 실제로 관찰된 비율이 다를 때, 그 차이가 단순한 우연인지, 아니면 체계적인 패턴이 있는 것인지를 검증하는 방법입니다. 이 검정은 평균이나 분산과 같이 숫자의 크기를 다루지 않습니다. 대신 '라벨이 다르면 분포도 달라질까?'를 묻습니다. 예를 들면, HR 데이터에서 남성 직원과 여성 직원의 퇴사율이 다르다는 이야기가 있다면, 이 검정은 바로 그 다르다는 것이 우연에 의한 것인지, 아니면 의미가 있는 차이인지를 알려줍니다.


범주형 변수(성별, 직급, 부서)와 또 다른 범주형 변수(퇴사/재직, 참여/미참여)의 관계를 살피며, 각 범주가 전체에서 차지하는 비율을 비교합니다. 관찰된 빈도와 '우연히 그랬을 경우 기대되는 빈도'를 나란히 놓고 비교했을 때, 그 차이가 충분히 크면 두 변수 사이에는 관계가 있다고 봅니다. 만약 "남녀 간의 퇴사율이 다르다."는 가설을 세웠을 때, 검정의 결과가 통계적으로 유의하다고 나온다면, 이는 성별이 퇴사라는 현상과 무관하지 않다는 것을 뜻합니다.


2️⃣ 로지스틱 회귀분석(Logistic Regression)


로지스틱 회귀는 1950년대 이후 페르훌스트(Pierre Verhulst)의 S자형 로지스틱 곡선을 확률모형에 적용하면서 발전되었습니다. 결과가 "발생했다(1) / 발생하지 않았다(0)"처럼 이분형일 때, 단순 회귀로는 예측 값이 0~1 범위를 벗어날 수 있으므로, 이를 해결하기 위해 로그 오즈(Log odds)를 사용하는 방식입니다.


즉, 독립변수의 선형결합을 사건 발생 확률로 변환하여 예측하는 것이 로지스틱 회귀의 핵심입니다. 결괏값은 확률로 표현되며, 각 변수의 영향력은 오즈비(Odds Ratio)로 해석됩니다. 예를 들어, "성과점수가 1점 올라갈 때 퇴사 확률은 0.78배 줄어든다."처럼 말입니다.


HR에서는 퇴사 예측, 승진 가능성, 교육 수료 확률 등 '사건이 일어날 가능성'을 분석하는 데 폭넓게 활용되고 있습니다. p값이 0.05보다 작으면, 해당 요인이 사건의 발생 확률에 유의미한 영향을 준다고 봅니다.


3️⃣ 생존분석(Survival Analysis)


생존분석은 원래 의료통계에서 출발했습니다. 1958년 카플란(Kaplan)과 마이어(Meier)가 생존곡선을 제시했고, 1972년 데이비드 콕스(David Cox)가 이를 회귀모형으로 확장하여 지금의 틀을 만들었습니다. 이 방법은 단순히, "일이 일어났는가"가 아니라, "언제 일어나는가"를 분석한다는 점이 핵심입니다.


예를 들어 HR에서는 직원이 입사 후 얼마나 오래 재직하는지, 또는 교육 이수 여부가 근속기간에 어떠한 차이를 만드는지 등을 살필 수 있습니다. 이때 독립변수가 없으면 전체 생존곡선(Kaplan-Meier)을 추정하고, 집단을 구분할 경우 Log-Rank 검정 또는 여러 요인을 함께 고려할 경우(Cox 회귀모형), 독립변수의 영향까지 함께 볼 수 있습니다.


검정의 원리는 각 시점마다 "아직 남아 있는 비율(생존확률)"을 계산하고, 시간이 지날수록 이 확률이 얼마나 감소하는지를 추적하는 것입니다. 만약 교육 이수자의 곡선이 더 완만하다면, 그 집단이 더 오래 남는다는 뜻입니다. Cox 모형에서는 위험비(Hazard Ratio)가 1보다 작으면, 사건 위험이 줄어듭니다. 예를 들어, "교육 이수자의 퇴사 위험률은 0.65배 낮았다."처럼 해석합니다. 생존분석은 HR 데이터에서 "시간"이라는 차원을 모델에 포함시킬 수 있는 대표적인 검정 방법입니다.


4️⃣ 독립표본 t-검정 (Independent Samples t-test)


t-검정은 1908년 윌리엄 시리 고셋(William Sealy Gosset)이 소규모 실험에서도 평균 차이를 검정할 수 있도록 개발한 통계 검정 이론입니다. 그는 당시 기네스(Guinness) 맥주공장에서 근무했기 때문에 회사의 비밀유지 때문에 필명을 "Student"로 논문을 발표했습니다. 독립표본 t-검정은 서로 다른 두 집단의 평균 차이를 검정할 때 사용됩니다. 남성과 여성, 부서 A와 부서 B처럼 집단이 서로 독립적일 때 활용됩니다. 두 집단의 평균 차이가 표본의 변동성(표준오차)에 비해 충분히 크다면 그 차이는 우연이 아니라 통계적으로 유의한 것으로 판단합니다.


HR에서는 "남녀 간 평균 몰입도에 차이가 있는가?", "정규직과 계약직의 만족도는 다른가?"와 같은 질문에 자주 사용됩니다. p값이 0.05보다 작으면 두 집단의 평균이 유의하게 다르다고 해석합니다.


5️⃣ 대응표본 t-검정 (Paired Samples t-test)


대응표본 t-검정은 동일한 집단에 대한 변화의 전후 차이를 보고자 할 때 사용됩니다. 독립표본 t-검정과 달리, 두 값이 서로 연관되어 있다는 점을 고려합니다. 분석 과정은 각 집단의 사전 값과 사후 값의 차이를 계산하고, 그 차이의 평균이 0인지 아닌지를 검정합니다. 만약 평균의 차이가 크고 우연이라고 보기 어려울 정도로 일관되면, 개입(예: 교육, 코칭, 제도의 도입)이 실제로 효과가 있다고 봅니다. 예를 들어 "리더십 교육 전후의 팀의 몰입도 점수가 통계적으로 상승"했다면, p<0.05를 기준으로 교육의 효과가 유의하다고 결론을 내릴 수 있습니다.


6️⃣ 일원 독립분산분석 (One-way Independent ANOVA)


분산분석(ANOVA)은 1930녀대 로널드 피셔(Ronald A. Fisher)가 여러 품종의 작물 수확량을 비교하기 위해 고안했습니다. 그는 평균의 차이를 분산의 비율(F값)로 검정할 수 있다는 통찰을 제시했습니다.


일원 독립 ANOVA는 세 집단 이상의 평균을 비교할 때 사용됩니다. 예를 들어 영업부서, 기획부서, IT부서의 몰입도 평균이 모두 같은지를 확인할 수 있습니다. 이때 전체의 변동을 집단 간 변동과 집단 내 변동으로 나누어 계산하며, 집단 간의 차이에 의한 변동이 충분히 크면 평균 차이가 유의하다고 판단합니다.


p값이 0.05보다 작으면 "적어도 한 집단의 평균이 다르다."라고 해석합니다. 이후 어떤 집단 간의 차이가 있는지는 사후검정(Tukey HSD)으로 확인합니다.


7️⃣ 일원 반복측정 분산분석 (One-way Repeated Measures ANOVA)


반복측정 ANOVA는 ANOVA를 확장하여 같은 집단을 여러 번 측정했을 때의 변화를 살피는 방법입니다. 즉, 한 집단을 여러 시점에서 추적하여 시간에 따라 평균이 달라지는지를 검정합니다.


예를 들어, 몰입도를 프로그램 전/중/후 세 시점에서 측정했다면, 이 검정은 그 변화가 단순한 우연이 아닌지를 알려줍니다. 데이터가 반복 측정되므로 시점 간 상관관계를 고려하며, 시간에 따른 변동이 일관되게 증가나 감소하는 패턴을 보일 때, p값이 유의하게 나타납니다.


HR에서는 교육 프로그램의 효과나 온보딩 기간 중 만족도 변화를 분석할 때 자주 사용됩니다. p<0.05이면, "시간에 따른 평균 변화가 유의하다."라고 해석합니다.


8️⃣ 피어슨 상관과 단순회귀 (Pearson’s Correlation & Simple Linear Regression)


1886년 프랜시스 골턴(Francis Galton)은 "평균으로의 회귀(Regression to the mean)" 개념을 제시했고, 1986년 칼 피어슨(Karl Pearson)은 이 상관계수(r)를 수식으로 정의했습니다.


참고로 '평균으로의 회귀'란 개념은 통계학에서 볼 때, "극단적인 값은 시간이 지나거나 다시 측정했을 때 평균에 더 가까워지는 경향이 있다."는 것입니다. 예를 들어 회사에서 직원의 성과를 측정했다고 가정해 봅시다. 1차 평가에서 어떤 직원이 아주 높은 점수를 받았습니다. 그런데 다음 해에 다시 평가를 했더니 점수가 조금 낮아졌습니다. 반대로, 1차 평가에서 아주 낮은 점수를 받았던 직원은 다음 해에서 조금 올라간 점수를 받습니다. 이러한 현상은 그 직원이 갑자기 실력이 변해서라기보다, 어떠한 '일시적인 요인'이 제거되고 나면, 결과가 평균 근처로 돌아오는 자연스러운 통계적 현상을 말합니다.


이러한 평균으로의 회귀 현상은 데이터 전반에 나타나는 경향으로서 모든 개인에게 반드시 일어나는 법칙이라고 할 수 없습니다. 극단적인 값은 일반적으로 다음 측정에서 평균 쪽으로 움직일 확률이 높다는 것일 뿐, 모든 고성과자가 반드시 성과가 떨어지고, 모든 저성과자가 반드시 개선된다는 뜻은 아닙니다. 만약 어떤 직원이 지속적으로 고성과 그룹에서 좋은 평가를 받았다면, 이를 체계적 요인(Systematic component)으로 설명할 수 있습니다.


체계적 요인이란, 독립변수(근속, 몰입, 보상 등)가 일정한 규칙에 따라 종속변수(성과)에 미치는 예측 가능한 영향입니다. 따라서 어떤 직원의 성과가 꾸준히 높게 유지된다면 그 사람의 성과에는 체계적 요인(실력, 습관 동기 등)이 크게 작용하고 있는 것이라고 볼 수 있습니다. 즉, 일관된 구조적 요인이 크다면 "평균으로의 회귀 효과"는 작아집니다.


상관분석은 두 연속형 변수의 선형 관계를 -1에서 +1 사이의 값으로 표현합니다. r값이 1에 가까우면 정(+)의 관계, -1에 가까우면 부(-)의 관계입니다. 단순회귀는 이러한 관계를 직선의 형태로 나타내어 한 변수가 다른 변수를 얼마나 예측하는지 보여줍니다. HR에서는 근속연수와 급여, 몰입도와 성과처럼 한 변수가 다른 변수와 함께 움직이는지를 파악할 때 유용하게 사용됩니다. p <0.05인 경우, "두 변수 간의 선형관계가 통게적으로 유의하다."라고 해석합니다.


9️⃣ 반복측정 ANOVA – 일반선형모형 (GLM Approach)


1970년대 이후 일반선형모형(GLM, General Linear Model) 이론이 확립되면서, t-검정, ANOVA, 회귀분석이 모두 하나의 통합된 수학적 틀 안에서 해석되기 시작했습니다. GLM 접근의 반복측정 ANOVA는 시간(Within-factor)과 집단(Between-factor)을 함께 다루는 확장형입니다. 즉, 시간의 흐름에 따라 평균이 변하는지뿐 아니라, 그 변화 패턴이 집단마다 다른지를 동시에 검정할 수 있습니다.


예를 들어, "남녀 간 몰입도의 시간 변화 패턴이 다른가?"를 살피는 것입니다. p<0.05이면, 시간효과, 집단효과 또는 두 요인의 상호작용 중 하나 이상이 통계적으로 유의하다는 뜻입니다. HR에서는 프로그램 효과가 부서별, 성별로 다르게 나타나는지를 분석할 때 활용됩니다.


다중회귀분석 (Multiple Regression)


다중회귀는 단순회귀를 확장한 형태로, 1930년대 로널드 피셔(Ronald Fisher)와 프랭크 예이츠(Frank Yates)에 의해 체계화되었습니다. 이 방법은 하나의 결과(종속변수)에 여러 요인이 동시에 영향을 미칠 때, 그중 어떤 요인이 더 중요한지를 파악하기 위해 고안되었습니다.


예를 들어 직원의 성과를 예측할 때, 근속연수, 교육시간, 보상 수준, 몰입도를 함께 고려할 수 있습니다. 각 독립변수의 회귀계수(β)는 영향력의 방향과 크기를, 결정계수(R²)는 모형이 결과를 얼마나 잘 설명하는지를 나타냅니다.


p값이 0.05보다 작으면, 그 변수의 영향이 통계적으로 유의하다고 해석합니다. 예를 들어, "몰입도와 보상 수준은 성과에 유의한 영향을 미쳤으며, 모형은 전체 성과의 52%를 설명했다."와 같이 해석합니다.


끝으로


위에서 하나씩 살펴본 10가지의 통계 검정은 통계분석의 기본 구조를 이루는 핵심적인 틀이라고 할 수 있습니다. 비율의 비교(카이제곱), 확률의 예측(로지스틱), 시간의 분석(생존분석), 평균의 비교(t-검정과 ANOVA), 관계의 탐색(상관/회귀), 그리고 복합적인 변화에 대한 해석(GLM)으로 이어지는 흐름을 이해하면, HR 데이터의 거의 모든 질문에 대해 체계적으로 다루고, 또 답할 수 있을 것입니다.













keyword