AI 면접관은 신뢰를 얻을 수 있는가?

by HRly
img.png?credential=yqXZFxpELC7KVnFOS48ylbz2pIh7yKj8&expires=1756652399&allow_ip=&allow_referer=&signature=zkxUK2eezxIJuy1XFPRbptY7%2FHw%3D

최근, AI의 발전이 급속도로 이루어지면서, 기업의 인사관리 내에도 AI 도입이 증가하고 있다. 특히, 채용에 있어서는 HR의 어느 분야보다 빨리 AI가 도입되었다. 실제로 AI가 다른 HR 분야보다 채용에 먼저 도입된 배경에는, 민감한 내부 정보 대신 외부 지원자를 평가하는 것이 기술 도입의 심리적, 실무적 장벽이 낮았기 때문일 것이다. 또한, 채용 때마다 말이 많은 편향 문제를 해소하고자 하는 니즈도 반영이 되었을 것이다.

그런데, 최근 HR 연구들은 AI를 채용에 도입하는 것이 기업 이미지나 재지원 의도에 부정적인 영향을 미칠 수 있다는 우려스러운 연구 결과가 보고하고 있다. 이에 이 글은 AI의 급진적인 발전 속에서 기업 HR에 AI를 황급히 도입하고자 하는 관리자 분들이 보셨으면 하는 뜻에서 작성했다. 기업의 중견 관리자 분들께서 AI의 문제점을 인지하고, HR에 어떻게 도입하면 좋을 지 통찰을 얻으셨으면 좋겠다. 특히나, 채용 내에서도 면접 경험이라는 것은 기업 이미지나 재지원 의도, 향후 업무 성과에도 많은 영향을 미치기 때문에 기업의 HR 시스템에서 AI가 의사결정하도록 하는 부분을 검토하고 있다면 꼭 이 글을 읽어 보시기 바란다.



‘쉽고 빠른 AI’의 함정


지원자들이 AI 면접에서 느끼는 가장 큰 불안감은 '알고리즘 환원주의(Algorithmic Reductionism)'라는 개념으로 설명할 수 있다. 요즘같이 취업이 어려워진 시대에 내가 원하는 대기업 면접장에 있다고 생각해보자. 중고등학교, 대학생때까지 열정을 바쳐 다방면의 경험을 쌓은 지원자들은 자신의 이력서와, 자기소개서, 면접장 내에서의 얼마 안되는 답변 속에 자신의 모든 것을 쏟아내고자 한다. 사실, 지원자 본인에게 그 부담감은 마치 일생일대의 전투를 앞둔 군인의 심정과도 같을 것이다. 이러한 절박한 상황에서 AI라는 기계적인 도구가 지원자 자신의 경험을 단순히 정량화 한다고 하면 어떨까? 나의 20~30년의 인생이 AI 앞에서 몇 개의 숫자로 평가되는 것이다. 이것은 마치 한 편의 영화를 작품성이나 메시지는 배제한 채로 오직 흥행 수입만으로 평가하려는 시도와 같다고 느껴질 것이다. 실제로 AI가 지원자를 얼마나 일반 면접관과 비슷하게 평가할 수 있는 지는 최근 많은 연구 결과로 입증되었다. 하지만, 실제 AI의 능력과는 별개로 지원자는 AI 면접 이후, 자신이 지원한 기업으로부터 존중받지 못했다라는 불쾌한 감정을 가지기 쉽다는 것이다.


무엇이 AI 채용 과정에서 불쾌한 감정을 해결할 수 있을까?


그렇다면, 이런 알고리즘 환원주의가 야기하는 문제를 어떻게 해결할 수 있을까? 바로 이 지점에서 ‘상호작용 공정성’이라는 개념이 열쇠가 될 수 있다고 생각한다. 우리는 보통, 분배적인 공정성이나 절차적인 공정성만을 공정성으로 여기기 쉽다. 내가 일한만큼 급여를 받는다거나 채용절차가 남들과 동일하게 이루어졌는가만을 보고 ‘공정하다’라고 생각한다는 것이다. 그러나 1980년대부터 2000년도에는 사람이 인격적으로 존중받는 것도 공정성(대인관계 공정성)이며, 절차나 기준에 대해 투명하고 충분한 정보를 제공받는 것도 공정성(정보 공정성)이라고 봤다. 이는 단순한 학문적 주장이 아니라, 제이슨 콜킷 교수가 2001년 발표한 기념비적인 연구에서 입증된 사실이다. 그는 약 2천 편에 달하는 기존 연구를 종합 분석하여, 조직 공정성이 분배, 절차, 상호작용(대인관계, 정보)의 핵심 요소로 구성됨을 체계적으로 밝혔다.


AI에게 ‘존중’을 가르친다면 신뢰를 얻을 수 있을까?


우리는 채용이라는 맥락 내에서 존중이라는 개념을 어떻게 인지하고, 받아들일까? 아마, 사람마다 다르겠지만 적어도 단순히 “1번 문제에 답하시오.”라고 하는 것보다는 "지금부터 OOO님의 경험을 알아보기 위한 몇 가지 질문을 시작하겠습니다. 저희는 답변의 유창함보다 경험의 구체성과 진솔함에 더 주목하고 있습니다." 와 같이 평가 기준을 친절하게 안내한다던지, 면접이 끝난 후에도 "귀한 시간을 내어 참여해주셔서 진심으로 감사합니다."라는 정중한 인사말을 덧붙이는 것이 더 존중감을 느끼게 할 것이다. 아직, 상호작용 공정성이 발달한 AI 채용 시스템에 대한 연구는 활발하지 않지만, 평가의 능력이 일반 면접관을 넘어섰음에도 지원자들의 AI 면접 경험이 계속해서 저조하다면, 우리는 AI면접의 성공이 단순히 기술의 정교함에만 있지 않다는 것을 깨달아야 한다.


기술의 지향점은 결국 '사람'이다.


최근에 코로나 백신을 만들었던 모더나라는 글로벌 제약 회사에서 HR과 IT 부서를 통합한 사례가 나왔다. 이 배경에는 직원들이 AI를 적극적으로 활용하면서, 적게는 업무 자동화, 깊게는 조직문화에까지 기술이 깊게 연관되고 있다는 사실이 있다. 그럼에도 해결되지 않는 숙제는 인간이 어디까지 AI의 의사결정을 수용할 수 있는가하는 것이다. 사람은 자신을 편하게 해주는 AI에게는 우호적일 수 있지만, 높은 부담이 있는 채용에서 쓰이는 AI에게는 매우 불쾌할 수 있다. 기업이 채용을 브랜딩에까지 접목하려면, 기술적인 정교함을 넘어서 사람의 심리를 이해하고, 거기에 부응할 수 있는 AI 채용 시스템을 만들어야 한다는 결론에 이르게 된다. 나아가 지원자의 이러한 부정적 경험은 단순히 '불쾌한 감정'에서 끝나지 않는다. 이는 기업의 채용 브랜딩에 직접적인 타격을 입히는 것은 물론, 최근 미국 뉴욕시가 채용 AI에 대한 편향성 감사를 의무화했듯이 심각한 법적, 윤리적 문제로 비화될 수 있는 실질적인 경영 리스크이다. 결국 AI 도입의 진정한 성공은 기술의 효율성을 맹목적으로 좇는 것이 아니라, 그 기술을 마주할 '사람'의 경험을 존중하고 기업의 철학을 담아낼 때 비로소 완성될 수 있을 것이다.


[참고문헌]

문혜진, & 남상희. (2022). 인공지능을 활용한 비동시적 면접 연구의 현황과 과제. 한국심리학회지: 산업 및 조직, 35(3), 385–413.

Bies, R. J., & Moag, J. S. (1986). Interactional justice: Communication criteria of fairness. In R. J. Lewicki, B. H. Sheppard, & M. H. Bazerman (Eds.), Research on negotiation in organizations (Vol. 1, pp. 43–55). JAI Press.

Colquitt, J. A. (2001). On the dimensionality of organizational justice: A construct validation of a measure. Journal of Applied Psychology, 86(3), 386–400.

Langer, M., König, C. J., & Papathanasiou, M. (2019). Highly automated job interviews: Acceptance under the influence of stakes. International Journal of Selection and Assessment, 27(3), 217-234.

Newman, D. T., Fast, N. J., & Harmon, D. J. (2020). When eliminating bias isn't fair: Algorithmic reductionism and procedural justice in human resource decisions. Organizational Behavior and Human Decision Processes, 160, 149-167.