AI면접, 문제가 생기면 누구 책임인가?

AI면접의 한계와 활용 ①

by witsfinder

인공지능(AI) 기술 발전에 따라 2010년대 후반부터 AI면접이 등장했다. 이후 AI면접이 마치 최첨단 선발도구인 것처럼 확산되었다. 기업들은 AI면접을 도입하지 않으면 뒤처지는 것으로 인식하는 분위기도 있었다. 지원자들 역시 AI면접이 인간 면접관보다 공정할 것이라는 기대를 갖기도 한다. 한편, 사람을 선발하는 중요한 선발도구가 아무런 검증과 규제도 없이 확산된 문제도 안고 있다.


초기 AI면접은 기계학습 기반으로 표정 분석, 시선 추적, 언어 분석 등 주로 비언어·언어적 특성 분류와 패턴 인식 기술을 활용했다. 2022년 이후 ChatGPT 등 생성형 AI가 등장하면서 대화 의도와 문맥에 맞는 질문을 만들어 내는 수준까지 도달했다. 나아가 AI는 지원자의 답변 내용을 실시간 분석하여 심층 질문을 만들거나, 답변의 일관성을 확인하는 등 면접관을 보조하는 역할도 수행할 수 있다.


하지만, 채용면접에서 결정적인 평가 기준으로 사용할 수 있는지에 대한 확신은 여전히 부족하다. 유행의 속도에 비해 이 기술을 얼마나 신뢰할 수 있는지에 대한 검토는 충분히 이루어지지 않았다.


AI 활용이 더욱 확대되는 시점에서 몇 가지 중요한 과제를 하나하나 짚어보는 것이 필요하다. 조직의 인사담당자, 입사지원자뿐만 아니라 정부나 학계에서도 같이 고민할 주제이다.


우선, AI면접에서 나타날 수 있는 오류나 문제에 대한 책임을 과연 명확하게 정할 수 있는지 생각해 보자.


AI를 기반으로 하는 자율주행차를 예로 들어 비교해 보겠다. 자율주행 관련 기술이 급속도로 발전하고 있다. 그러나, 자율주행차가 폭넓게 사용되기 전에는 '사고가 나면 누가 책임을 지는가'에 관한 문제가 명확하게 정립되어야 한다.


차량의 부품 결함이나 정비 소홀이 문제라면 상대적으로 책임 소재가 명확한 편이다. 문제는 차량을 운행하는 AI 시스템에 결함이 있을 때는 책임이 모호해진다는 점이다. 알고리즘뿐만 아니라, 그때그때 교통 상황에서 AI가 판단한 과정은 마치 블랙박스처럼 작동되어 밝히기 어렵기 때문이다.


마찬가지로 AI면접도 잘못된 결과에 대해 책임을 따지기가 쉽지 않다. AI면접에 결함이 있어 절대 뽑지 말아야 할 사람을 선발한다면 가장 심각한 문제이다. 그런 정도까지는 아니더라도, 편향된 과거 데이터를 학습한 AI가 차별적 평가를 내릴 가능성은 충분히 우려할 만하다.


대부분 AI면접 시스템은 채용하는 기업이 자체적으로 개발하기보다는 외부에서 개발한 것을 도입하여 활용한다. 면접 선발에 문제나 오류가 발생하면 AI면접 시스템 개발사는 도구만 제공했다고 할 가능성이 있다. 어떤 기준으로 알고리즘이 평가점수를 매기는지 공개하는 것을 꺼린다. 탈락자의 해명 요청에도 알고리즘은 기업 비밀이라는 이유로 공개를 거절할 개연성이 크다.


시스템을 도입한 기업은 AI가 판단한 것이라서 책임이 없다고 할 가능성이 다분히 있다. 결국 잘못된 평가로 지원자들이 피해를 보고 누구도 명확하게 책임을 지지 않는 상황이 예상된다.


그나마 자율주행차에 의한 사고로 발생하는 인적·물적 피해는 눈에 보이는 결과로 나타난다. 채용선발에서 근본적인 차이는 사람 선발은 피해가 명확하게 나타나지 않는다는 점이다. 지원자의 선발 적합성을 판단하는 것은 상당 부분 주관적인 영역이다. 사람들은 능력과 태도 면에서 비슷하여, 정규분포곡선으로 볼 때 대부분이 평균을 중심으로 비슷한 영역에 밀집되어 있다. AI가 잘못 판단했더라도 오류를 증명하기 어렵다.


학계 등에서 비판적인 의견이 커지자 AI면접 개발사들이 일부 기능을 포기하기도 했다. 대표적인 채용기술기업인 미국 HireVue가 개발한 AI 면접시스템은 표정, 시선, 말투 등 영상 분석을 사용해 지원자를 평가했었다. 사회적인 우려와 규제적인 압박 때문에 HireVue는 논란이 된 '얼굴 분석 기능'을 2020년 3월 공식적으로 중단했다.


신뢰성과 타당성 있는 선발평가 시스템은 입사지원자뿐만 아니라 사람을 선발하는 조직 입장에서도 매우 중요하다. 인종, 성별 등에 의한 차별에 민감하게 대응하는 미국에서는 정부 차원에서도 AI면접을 검증하는 노력을 하고 있다. 현재까지 우리나라에서는 정부가 '채용분야 AI 활용 가이드라인' 마련을 추진하고 있으나, 법적 강제력 있는 규제나 검증 기준 확립은 아직 미진하다.


그렇다면 AI면접에서 발생한 잘못된 판단의 책임을 누구에게, 어떤 기준으로 물을 수 있을까? 이 기준이 확립되지 않는 한, AI면접은 충분한 신뢰를 얻기 어려울 것이다.


* 참고자료

Maurer, R. (2021). HireVue Discontinues Facial Analysis Screening. SHRM. (https://www.shrm.org/topics-tools/news/talent-acquisition/hirevue-discontinues-facial-analysis-screening)

** 이미지 : AI 활용 생성

keyword
작가의 이전글여수 아침 바다를 보면서