AI 시대가 본격화되면서 다양한 영역에서 AI 활용이 활발히 이루어지고 있다. 이는 업무 효율성과 혁신을 가능하게 하는 많은 이점을 제공하지만, 동시에 우리 삶에 새로운 위협이 될 수 있다는 점도 간과할 수 없다. 특히 AI의 빠른 발전 속도에 비해 이를 규율할 법과 윤리 체계는 아직 완전히 정립되지 못한 상황이다. 따라서 기업과 정부, 나아가 사회 전체가 AI와 관련한 규제와 윤리에 동시에 관심을 기울여야 한다.
AI가 노동시장에 미치는 영향뿐 아니라, 데이터 프라이버시 보호, 차별 방지, 공정성 확보를 위한 가이드라인과 규제가 마련되어야 한다. 예컨대, 채용이나 평가 과정에서 AI가 편향 없이 공정하게 활용될 수 있어야 하며, 그 결과 또한 투명하고 신뢰성 있게 관리되어야 한다.
특히 정부의 역할은 더욱 중요하다. 정부는 AI가 노동시장에서 공정하고 신뢰성 있게 작동할 수 있도록 정책적 지원과 규제 정비, 교육 투자, 사회안전망 강화 등을 추진해야 한다. 이를 통해 AI가 초래할 수 있는 충격을 완화하고, 동시에 그 긍정적 잠재력을 극대화할 수 있을 것이다(IMF, 2020). 이번 글에서는 AI 시대에 대두되고 있는 법과 윤리 문제를 살펴보고, 이러한 이슈를 어떻게 효과적으로 관리할 수 있을지 논의해 보고자 한다.
AI기술은 인간의 삶을 편리하게 하고 인간이 풀지 못하는 문제를 해결하는 잠재력을 가지고 있으나, 이 AI가 잘못 사용될 경우 인류에게 실존적 위협이 될 수 있다는 우려가 지속적으로 제기되고 있다. 실제로 업계 리더 및 전문가들은 AI의 위험성을 지속적으로 경고해 왔다. 샘 알트만은 "국제원자력 기구(IAEA)와 같이 AI 문제를 감시·규제할 국제기구가 필요하다."라고 강조했으며, 스티븐 호킹 또한 "인류가 AI에 대처하는 방법을 익히지 못한다면 AI 기술은 인류 문명사에서 최악의 사건이 될 것이다"라고 경고하였다(유화선 외, 2024).
따라서 AI 기술 개발 및 활용도 중요하지만, 어떻게 하면 AI를 윤리적으로 쓸 것인가에 대한 고민과 실천이 반드시 병행되어야 한다. 인공지능의 윤리적 사용은 공정성, 투명성, 책임성, 편향 해소 등을 핵심 요건으로 삼는다. 이는 AI 사용의 사회적 수용성을 높이고 인간의 권리와 존엄성, 다양성을 존중하는데 기여할 수 있다. 특히 차별적 알고리즘이나 편향적 데이터가 초래할 수 있는 불평등 문제에 대응하고 알고리즘 작동 동원리에 대한 설명을 통해 투명성을 확보하여 책임 소재를 명확히 하는 것이 필수적이다. 윤리 기준 없이 활용되는 AI는 사회적으로 문제를 유발할 수 있다.
실제 사례도 존재한다. 2018년 아마존이 개발한 AI 채용 시스템은 여성지원자를 차별한다는 사실이 드러나며 결국 폐기 되었다(김정욱 외, 2024). 또한 미국 텍사스 휴스턴의 공립학교 교사들은 민간기업 'SAS Institute가 개발한 'EVAAS' 알고리즘으로 교원 평가를 받았으나, 알고리즘을 영업비밀의 이유로 공개하지 않아 시스템의 불투명성이 문제가 되었다. 결국 연방지방법원은 해당 AI 시스템의 사용을 중단하라고 판결하였다(김일우, 2023). 이처럼 AI 윤리는 단순한 권고 차원을 넘어 사회적 합의가 필요한 사안이며, 반드시 지켜져야 할 사안에 대해서는 입법을 통해 제도적으로 해결하여야 한다.
각 국은 AI 산업의 발전 그리고 안전한 AI 활용 사이에서 끊임없이 고민하고 있다. AI 규제가 앞설 경우 자칫 AI 산업의 발전을 가로막을 수 있기 때문에, AI 규제와 관련해서 각 국은 매우 신중한 입장을 가지고 있다. 하지만 AI가 잘못사용되었을 때, 생길 수 있는 악영향의 파급효과를 생각해서는 AI 산업 육성 못지않게 올바른 AI 활용을 위한 가이드라인 마련과 입법은 필수적인 과제라 할 수 있다. 세계에서 올바른 AI 활용을 위해 가장 빠르게 입법 논의가 이루어지고 있는 곳은 유럽이다. 유럽은 EU AI 기본법을 통해 올바른 AI 사용을 위한 법률을 제정하였고, 2026년에는 시행을 앞두고 있다. 미국의 경우에는 유럽과 다르게 연방 차원의 포괄적인 법을 제정하기보다는 주 및 지방정부에서 법제화가 활발히 이루어지고 있다.
1) AI 관련 해외 입법 현황
(1) EU AI 기본법
유럽연합(EU)은 2024년 8월 EU AI 기본법(EU AI Act)을 발효했다. EU AI 기본법은 총 113개의 규정과 13개의 부속서로 구성되어 있다(홍성민, 2024). EU AI Act는 전 세계 AI 규제의 기준을 제시한 최초의 포괄적 법안으로 볼 수 있다. EU AI Act는 위험 수준에 따라 AI 시스템에 대한 규제 수준을 차등화하는 위험 기반 접근법(risk-based approach)을 취하고 있다. 먼저, '위험'은 위해(harm)의 발생 가능성(probability of occurrence)과 위해의 심각성(severity) 모두를 반영한 개념이다. 4단계의 위험은 강도가 높은 순으로 1. 허용 불가한 위험(Unacceptable Risk), 2. 높은 위험(High Risk), 3. 제한된 위험(Limited Risk), 4. 최저 위험(Minimal or No Risk)으로 분류한다(김정욱 외, 2024).
이 법체계에 따르면 AI 시스템은 위험 수준이 더 높을수록 규제의 강도가 강화된다. 가장 높은 단계인 '허용 불가 위험'에 속하는 AI는 원칙적으로 사용이 금지된다. 반면 '최저 위험'으로 분류된 시스템은 규제 적용을 받지 않으며, 사업자가 자발적으로 마련한 행동강령만 따르면 된다. 한편 '제한적 위험' 단계로 분류되는 AI 시스템은 투명성 의무(obligations of transparency) 대상으로 분류되어, 이는 AI가 생성하거나 조작한 콘텐츠임을 사용자에게 알 수 있도록 라벨링 하거나 공시해야 한다(김정욱 외, 2024).
가장 복잡하고 강력한 구제는 '높은 위험' 단계의 AI 시스템에 이루어진다. 이 단계에 해당하는 시스템은 시스템이 시장에 출시되기 전, 법에서 정한 여러 필수 요건을 충족했는지 평가하는 적합성 심사를 반드시 거쳐야 한다. 필수 요건에는 기술문서 작성 및 기록 유지, 사용자 정보 제공과 투명성 확보, 정확성과 보안 등을 포함한다. 특히 인사관리, 고용, 교육훈련에 활용되는 AI 시스템은 모두 '높은 위험'에 해당되어, 이러한 절차와 요건을 반드시 충족해야 한다(김정욱 외, 2024).
(2) 미국의 AI 관련 법
미국의 경우에는 유럽과 다르게 연방 차원의 포괄적인 법을 제정하기보다는 주정부 법제화가 활발히 이루어지고 있다. 일리노이주는 2019년 8월 'AI영상 면접법'을 제정하고 2020년 1월부터 시행하고 있다. 이 법에 따르면 AI 영상 면접 기술을 활용하는 고용주에게는 1. 지원자에게 AI 사용에 대한 사전고지, 2. AI 작동 방식 및 평가 요소에 대한 정보 제공, 3. 지원자의 사전 동의 확보, 4. 면접 이후 지원자의 영상 공유 제한, 5. 지원자가 요청할 경우 영상을 삭제 등의 의무를 부여된다. 뉴욕시는 2021년 12월 '자동화된 고용 결정 도구(Automated Employement Decision Tools, AEDT)법"을 제정하고 뉴욕시 거주자들 대상으로 채용·승진 결정에 AEDT를 사용할 경우 1. 사용 사실과 해당 도구·평가의 특성 사전 고지, 2. 사용 전 1년 이내 편향 감사 실시, 3. 감사 결과 웹사이트 공개 의무 적시 등의 의무를 부여하고 있다. 콜로라도주·코네티컷주는 고용 또는 고용 기회와 관련된 중대한 결정을 내리는 AI 시스템을 고위험 유형으로 규정한다. 두 주정부 모두 사전 고지, 정보공개, 위험관리 정책 및 프로그램 운영, AI 영향평가 시행 등을 공통적으로 담고 있으며, 두 곳 법 모두 2026년 2월 시행예정이다. (김소담, 2025).
(1) 인공지능 발전과 신뢰 기반 조성 등에 관한 기본법
우리나라도 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법'(이하 "AI 기본법")이 2025년 1월 제정되어 2026년 1월에 시행될 예정이다. 시행될 AI 기본법에 따르면 '채용, 대출 심사 등 개인의 권리·의무 관계에 중대한 영향을 미치는 판단 또는 평가'를 하는 AI 시스템은 사람의 기본권에 중대한 영향을 미치는 고영향 인공지능 시스템으로 분류한다(김소담, 2025). 따라서 채용, 성과관리, 업무배치, 승진, 징계, 해고 등 인사관리에 많은 부분이 해당 법률에 의해 고영향 인공지능의 범주 들어갈 가능성이 높다. 위에서 언급한 EU의 AI 기본법 역시 채용, 업무 배치, 성과관리와 같은 인사 결정 등에 활용되는 AI 시스템을 '고위험 AI 시스템'으로 분류하고 있다(박정택 외, 2025).
이에 따라 채용, 성과관리, 업무배치, 승진, 징계, 해고 등 AI 인사관리 시스템 사업자는 고영향 AI 사업자로 분류될 가능성이 높으며 1. AI 사용에 대한 사전 고지(제31조), (2) 학습데이터 개요가 포함된 AI 설명 방안 시행(제34조), (3) 위험관리 방안의 수립·운영(제34조), (4) 이용자 보호 방안 수립·운영(제34조), (5) 사람에 의한 관리·감독 보장(제34조), (6) 안전 및 신뢰성 조치 문서 작성(제34조) 등의 이무를 수행해야 한다(김소담, 2025). 이와 같은 내용은 위 해외 입법 현황에서 살펴보았던 미국의 AI 관련 주정부 법이나 EU 기본법과 그 맥락을 함께 한다.
(2) 채용절차의 공정화에 관한 법률
'채용절차의 공정화에 관한 법률'에서도 AI 채용 과정의 투명성과 공정성을 확보하기 위한 개정안이 다수 발의되었다. 21대 국회에서 여러 차례 발의되었고, 22대 국회에서도 동일한 취지의 개정안이 재발의 된 바 있다. 이들 개정안은 공통적으로, 구인자가 AI 기술을 활용해 채용을 진행할 경우 구직자에게 사전에 평가 방식과 알고리즘의 작동 원리를 고지하도록 요구한다. 일부 개정안에는 AI 기술의 편향성 및 차별 가능성 검증, 정보 취약계층 보호, AI 전형 거부권 및 대체 절차 마련 등 보다 강화된 의무도 포함되어 있다.
AI 기본법이 AI 시스템을 개발·제공하는 사업자에게 규제가 주로 부과된다면, 채용절차 공정화법 개정안은 주로 채용을 실제로 운영하는 구인자(기업·기관)에게 의무를 부여한다는 점에서 차이가 있다. 만약 채용절차의 공정화에 관한 법률 개정안이 추후 국회를 통과되어 시행이 된다면, 구인자는 단순히 AI를 활용하는 것을 넘어 구직자에게 투명하게 정보를 제공하고 공정성을 담보할 의무를 수행해야 할 것으로 예상된다.
정부는 2019년「인공지능 국가전략」, 2020년 「인공지능(AI) 윤리기준」수립을 통해 '사람 중심의 인공지능'을 강조해왔다.「인공지능(AI) 윤리기준」은 인간 존엄성, 사회 공공성, 기술 합목적성이라는 3대 기본원칙과 인권보장, 프라이시보호, 다양성 존중, 책임성, 투명성 등 10가지 핵심요건을 제시하며, AI가 사회적 긍정 효과를 극대화하고 부작용을 최소화할 수 있도록 방향을 제시해왔다(과학기술정보통신부, 2025).
다만, 이러한 윤리 기준은 선언적 성격이 강했다. 사회적 합의를 도출하고 기업·기관이 이를 실제로 준수하도록 강제하는 제도적 장치는 부족했다. 이에 2026년부터 시행되는 'AI 기본법'은 단순한 권고를 넘어 사회적 합의를 바탕으로 의무를 부여한다는 점에서 큰 전환점이 되고 있다. 특히 채용, 평가, 승진 등 다양한 인사관리 영역은 대부분 '고영향'에 해당하기 때문에 정부는 산업 발전이 저해되지 않도록 고려하며 지속적으로 제도적 안전장치를 마련해야 한다. 기업 또한 사회적 신뢰 확보를 위해 이러한 법적 기준을 성실히 준수해야 한다.
AI는 우리의 업무에 효율성과 혁신을 가져오고 있다. 그러나 공정성·투명성·책임성이 결여된 상태에서 활용된다면 사회적 신뢰를 위협할 수 있다. EU의 AI 기본법, 미국의 다양한 입법 논의, 우리나라의 AI 기본법 제정과 채용절차 공정화법 개정 논의까지 모두 혁신을 지키면서도 사람의 권리를 보장하는 제도적 장치 마련이라는 공통된 흐름을 보여주고 있다.
이러한 흐름 속에서 기업 인사관리는 △AI 설명가능성 확보 △AI의 편향성과 차별성 점검 및 방지 △구성원과 지원자에 대한 보호 체계 마련이라는 세 가지 과제를 수행해야 한다. 이는 단순한 법 준수를 넘어, 인사관리의 질과 기업의 신뢰도를 결정하는 핵심 경영 리스크 관리 요소가 될 것이다.
정부 역시 AI에 대한 표준과 검증 인프라를 정비하고, 사회안전망 보강과 함께 중소기업을 지원하는 제도적 기반을 마련해야 한다. 결국 AI 시대의 법과 윤리 문제는 속도와 신뢰의 균형을 설계하는 일이다. 각 조직이 이러한 균형을 유지하며 모든 구성원이 신뢰할 수 있는 의사결정 과정을 만들어갈 때, 불확실성의 시대에도 신뢰를 높이고 지속 가능한 동력을 확보할 수 있을 것이다.
과학기술정보통신부. (2025). 인공지능 윤리기준 실천을 위한 자율점검표(안). 과기정통부 보고서
김정욱& 김종립, 최유경, 김민정, 유성희, 최현이, 김승현, 진승화, 김윤경, 박정후, 추수진. (2024). 인공지능 시대의 경쟁력 강화를 위한 AI 규제 연구. 경제 인문사회연구회 협동연구총서 24-07-01
김일우. (2023). 위험 인공지능시스템의 기본권 침해에 관한 헌법적 연구
유화선, 윤병성. (2024). 인공지능 윤리(AI Ethics): 인간과 인공지능의 조화로운 공존 방안. KISTI ISSUE BRIEF 제68호.
홍성민. (2024). AI에 의한 노동시장 면화 대응 입법연구. 한국법제연구원 연구보고서 24-20-⓶
김소담. (2025). 미국과 한국의 AI 채용 분야 정책 현황. KISDI Perspectives May 2025. No.2
박정택, & 류지효. (2025년 2월 10일). 인공지능기본법 제정 및 인사노무 분야에서 AI 관련 규제 동향. 노동법률. https://www.worklaw.co.kr/main2022/view/view.asp?in_cate=106&in_cate2=0&bi_pidx=37579
이광욱& 이근우, 정호선, 유현상, 강석준, 배종우. (2024). AI를 활용한 채용절차 관련 규제 동향. 법무법인 화우 LEGAL UPDATE