이드의 HR 커피챗 시리즈
[Edited by iid the HRer]
※ 내가 쓰는 글들은 개인적인 경험과 고민을 바탕으로 한 지극히 개인적인 의견이니, 편하게 봐주면 좋겠다.
✅ '비즈니스 미팅 / 커피챗 w iid' ( 신청 링크 )
노무 갈등이라는 건 시대가 바뀌어도, 회사가 성장해도, 구성원이 바뀌어도 결국 반복되는 일상의 풍경이다. 하지만 그 풍경을 바라보는 방식과 대응 흐름은 기술 발전과 함께 아주 미묘하게, 때로는 극적으로 변화해왔다. 인터넷이 없던 시절에는 정보를 구하는 것 자체가 하나의 노동이었다. 근로기준법 책을 사서 들고 다니거나, 주변 직장 선배에게 물어보거나, 아는 노무사가 있으면 시간을 내어 찾아가 상담받아야 했다. 문제는 그런 과정이 대단히 번거롭고 접근성이 낮았다는 점이다. 지식을 접하기가 어려우니 오히려 더 감정적으로 대응하게 되고, ‘몰라서 더 불안하고, 불안해서 더 강하게 나가고, 강하게 나가다 보니 싸움으로 번지는’ 흐름이 자연스럽게 형성되었다. 정보가 부족하면 상상력이 과잉 작동하고, 상상력이 과잉 작동하면 갈등은 실제 문제보다 훨씬 크게 번지는 경향이 있었다.
인터넷이 발전하자 상황은 크게 바뀌었다. 검색만 하면 노무사 칼럼, 블로그 사례, 노동청 Q&A, 다양한 커뮤니티의 경험담이 쏟아졌고, 심지어 노무사에게 온라인으로 상담 신청을 하는 것도 너무 쉬워졌다. 이 시기에는 오히려 분쟁이 빠르게 조정되는 경우가 많았다. 서로가 ‘어느 정도 아는 사람들’이 되자 굳이 갈등을 심화시키지 않고 현실적 이해득실을 바탕으로 빠르게 합의점을 찾는 흐름이 만들어졌다. 인터넷은 단순히 정보를 준 것이 아니라 “괜히 싸워봐야 서로 손해”라는 현실적 감각을 제공했다.
그런데 AI 시대가 오면서 흐름은 다시 크게 뒤틀렸다. 사람들이 이제는 인터넷을 검색하지 않는다. 검색 결과를 ‘내가 이해해야’ 쓸 수 있기 때문이다. 법 용어를 해석하고, 근로기준법 구조를 이해하고, 사례를 비교해야 하는데, 그런 과정은 누구에게나 부담스럽다. 그런데 GPT나 Gemini는 억울함, 감정, 불만, 내가 파악한 상황 몇 줄만 입력하면 마치 조선시대 신하가 임금에게 바치는 상소문 같은 장문의 의견서를 즉석에서 만들어준다. 심지어 작성자의 감정 결을 반영한 문장까지 첨가되니 글이 더욱 그럴듯해진다. 문제는 그럴듯함이 정확함과 다르다는 점이다. 논리적으로 보이지만 사실과 다르고, 길고 정중하지만 법적 현실과는 동떨어져 있으며, 실제 한국의 노무 판례 구조와 맞지 않는 주장을 담고 있는 경우도 많다. 이 ‘그럴듯함’이야말로 새로운 갈등의 불씨가 된다.
AI 할루시네이션은 전 세계적인 문제지만, 한국의 노무 환경에서는 훨씬 치명적이다. 한국의 노동 문제는 ‘정답을 하나 외우면 끝나는 시험문제’가 아니다. 조건 하나가 바뀌면 결론이 완전히 달라지는 구조다. 노동시간만 보더라도 사전 승인 여부, 반복성, 주휴 요건 충족 여부, 공휴일 여부, 계약서 문구, 회사 정책, 관행, 조직별 운영 방식 등 아주 작은 요소 하나가 달라지면 계산 방식부터 책임 구조까지 모든 결론이 바뀐다. 그래서 한국의 판단 구조는 늘 법 조항의 문자보다 ‘맥락’, ‘상황’, ‘정황’, ‘여론적 분위기’의 영향력이 크다.
실제로 많은 사례에서 법적으로 같은 사안이라도 사건의 맥락이 다르면 결과가 전혀 다르게 나온다. 이게 바로 한국의 특이성이고, AI가 가장 따라오기 어려운 지점이다. AI는 이 ‘맥락’을 모른다. 직원의 성향, 회사의 실제 운영 방식, 조직 내 암묵적 관행, 일의 흐름, 사내 여론, 리스크 감수 의사, 중재 가능성—이런 변수들은 문장으로 정리가 되지 않는다. 그래서 AI가 아무리 논리적인 문장을 만들어도 한국형 노무 분쟁에서는 그 문장이 아무 힘을 갖지 못하거나, 오히려 갈등을 키우는 역할을 하기도 한다.
AI가 써주는 문서들은 기묘하게도 한 번 읽으면 거의 “맞는 말 같은데?”라는 느낌을 준다. 그 이유는 문장 구조 자체가 정답의 형식을 흉내 내기 때문이다. 말투는 논리적인 척하고, 문장은 길고 정중하며, 법 인용도 겉모양만 보면 아주 전문적으로 보인다. 하지만 실제로 뜯어보면 오류와 왜곡의 조합인 경우가 많다. 예를 들어, 근로기준법 조항을 잘못 인용하는데도 인용 방식이 너무 자연스러워서 보는 사람이 눈치채지 못한다. 존재하지 않는 판례를 실제 판례처럼 섞거나, 온라인에서 흔히 공유되는 오래된 잘못된 정보를 최신 사례인 것처럼 재포장한다. 작성자의 감정을 과하게 확대하거나 편향된 상황 설명을 더 객관적인 서술로 변환해 ‘마치 권리가 침해된 것처럼’ 보이게 만드는 경우도 많다. 설득력 있어 보이는 문장이 사실관계를 왜곡하는 데 쓰이기도 한다.
더 큰 문제는, 이러한 오류가 단순한 실수의 문제가 아니라는 점이다. AI는 “확률적으로 그럴듯해 보이는 문장”을 만들어내기 때문에, 사용자는 이 문장을 전문가의 의견처럼 받아들인다. 특히 노무 지식이 부족한 경우 “AI가 맞고 회사가 틀렸다”는 인식이 강해지고, 갈등은 더 단단해지고 협의의 여지는 더 좁아진다.
그런데 이 문제는 직원에게만 나타나는 게 아니다. 경험이 아직 충분하지 않은 HR 담당자도 복잡한 노무 이슈에 부딪히면 불안해진다. 그러면 자연스럽게 “GPT에게 물어볼까?”라는 유혹이 올라온다. 그렇게 직원도 AI, HR도 AI를 사용하면, 결국 ‘AI가 쓴 주장 vs AI가 쓴 반박문’이라는, 현실과는 동떨어진 이상한 연극이 벌어진다. 두 문서는 서로 논리적인 것처럼 보이지만, 둘 다 사실과 다른 내용을 포함하고 있거나 한국의 맥락을 반영하지 못하는 경우도 많다. 결국 사람은 사라지고, AI끼리 만들어낸 문장만 공중에서 부딪히는 황당한 상황이 만들어진다. 갈등은 오히려 더 복잡해지고, 예전처럼 감정을 드러내며 대화할 때보다 오히려 속내를 파악하기 어려워진다. AI가 도와줘야 할 영역에서 AI가 혼란의 중심이 되는 셈이다.
나는 의도와 상관없이 여러 회사에서 정말 수많은 노무 분쟁을 겪어왔다. 그 과정에서 어떤 상황이 어떤 결론으로 이어지고, 어떤 말 한마디가 갈등을 키우거나 줄이는지, 어떤 조합에서는 회사가 불리해지고 어떤 조건에서는 중재가 가능한지를 몸으로 배웠다. 그래서 갈등 상황이 생기거나 조언을 요청할 때는 당연히 이 경험을 바탕으로 답변한다. 그런데 요즘 직원들은 내 말을 들으면서도 동시에 AI에게 같은 질문을 던진다. 그리고 결국 이렇게 말한다. “AI는 다르게 말하는데요.”
이 한 마디가 던지는 무게는 상당하다. 상대는 내가 가진 경험적 사실을 스스로 검증할 방법도 찾지 않고, 찾고 싶어하지도 않는다. 그걸 검증하려면 맥락을 이해하고, 법이 실제로 어떻게 작동하는지 알고, 회사의 운영 방식을 파악해야 하는데, 이런 과정은 너무 번거롭고 어렵기 때문이다. 그래서 사람들은 점점 더 AI에 기대며, AI가 완전하지 않다는 사실조차 외면한다. AI는 사용자의 감정을 대신 정리해주고, 사용자가 주장하고 싶은 방향으로 문장을 예쁘게 포장해주기 때문이다. 사람은 본인의 감정을 지지해주는 존재를 자연스럽게 신뢰하게 되고, AI는 그 역할을 지나칠 만큼 잘한다.
그렇게 실제 현장의 판단 구조와 맥락은 점점 사라지고, 노무 분쟁은 더 이상 사실관계를 두고 벌어지는 논의가 아니다. 어느새 ‘AI가 써준 문장’을 중심으로 옳고 그름을 가리려는 이상한 충돌이 되어버린다. 경험 기반의 판단이 이전보다 더 중요해진 시대인데, 정작 사람들은 경험을 듣기보다 AI에게 정답을 구하고 있다. 이 아이러니가 지금 현장에서 가장 크게 느껴지는 변화다.
AI는 분명 편리하고, 이제 누구나 몇 초 만에 전문가의 의견서처럼 보이는 문장을 만들어낼 수 있다. 그러나 노무 갈등이 어려운 이유는 항상 ‘정답의 부재’에 있다. 노무 문제는 법보다도 사람의 해석, 조직의 분위기, 사건이 쌓인 맥락이 훨씬 큰 영향을 미친다. 결국 분쟁의 본질은 문장으로 설명할 수 없는 층위—신뢰, 서운함, 기대, 그리고 관계의 균열—에서 발생한다. AI가 만들어내는 문서는 이런 정서를 담아내지 못한다. 그 결과, 더 정교한 문서가 등장해도 갈등은 오히려 단단하게 굳어지기도 한다.
AI가 노무 갈등을 더 복잡하게 만드는 또 하나의 지점은 ‘책임의 이동’이다. 예전에는 누군가의 판단과 설명이 갈등의 기준이 되었지만, 이제는 AI가 답을 내놓는 순간 책임은 어딘가 공중으로 떠버린다. 직원은 “AI가 그렇게 말한다”고 하고, HR도 “AI 기준으로 보면…”이라고 말하기 시작한다. 판단의 주체가 흐려지면서 오히려 합의의 출발점이 사라지는 역설이 생긴다. 결국 갈등을 조정하는 데 필요한 것은 ‘누가 무엇을 말했는지’보다 ‘누가 책임을 질 수 있는 말인지’인데, AI는 그 어떤 말에도 책임을 지지 않는다. 그래서 AI의 문서는 논리적이어도 협상을 가능하게 하지 못한다. 갈등은 책임의 중심을 잃고, 해결은 더 멀어진다.
이 변화 속에서 HR이 해야 할 일도 달라지고 있다. AI를 경계하는 것만으로는 충분하지 않다. 오히려 AI가 만들어낸 서류와 논리를 해석하고, 그 안에 빠진 맥락을 복원하고, 감정이 눌린 지점을 읽어내는 역할이 더 중요해지고 있다. 다시 말해, AI가 만든 표면적 논리 위에 ‘사람의 판단 구조’를 얹어주는 일이 필요하다. 갈등을 해결하는 힘은 문장의 완성도에서 나오지 않는다. AI가 주지 못하는 그 한 조각—맥락을 읽어내는 능력, 감정을 다루는 기술, 이해당사자 사이의 균형을 잡는 감각—이 앞으로의 노무 환경에서 더 핵심적 역할을 하게 될 것이다.
AI는 점점 더 똑똑해지고 있지만, 노무 갈등은 점점 더 인간적인 방식으로 풀어야 하는 시대가 오고 있다. 문서는 AI가 대신 써줄 수 있지만, 관계를 회복시키고 상황을 끝맺는 일은 결국 사람만이 할 수 있다.