신뢰 기반 AI 시대와 HR의 변화
우리는 지금 단순한 새로운 기술의 도입을 넘어 의사결정 방식과 산업의 운영 질서 자체가 변화하는 ‘AI 전환(AI Transformation, AX)’의 시대에 들어서 있습니다. 기업과 공공기관, 교육과 금융 등 다양한 영역에서 인공지능 활용이 빠르게 확산되면서, 이제 AI는 특정 산업의 기술을 넘어 사회 전반의 운영 방식을 변화시키는 핵심 인프라로 자리 잡아가고 있습니다. 하지만 AI 활용이 점점 더 보편화되면서 단순히 “누가 더 강력한 AI를 보유하고 있는가”라는 경쟁의 관점을 넘어, “누가 더 신뢰 가능한 AI를 설계하고 운영할 수 있는가”가 중요한 기준으로 부상하고 있습니다. AI 기술이 사회 전반에 깊숙이 들어올수록 기술의 성능뿐만 아니라 책임성, 투명성, 안전성에 대한 사회적 요구 역시 함께 커지고 있기 때문입니다.
이러한 흐름 속에서 우리나라는 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(이하 AI 기본법)을 제정하고 2026년 1월 22일부터 본격적인 시행에 들어갔습니다. AI 기본법은 EU에 이어 세계에서 두 번째로 마련된 포괄적 인공지능 법률로, 인공지능 산업을 적극적으로 육성하는 한편 AI 활용 과정에서 발생할 수 있는 위험을 관리하고 사회적 신뢰를 확보하기 위한 기본적인 제도적 틀을 마련하는 것을 목표로 하고 있습니다.
즉 AI를 단순히 규제하려는 법이라기보다는 사회가 받아들일 수 있는 기준 속에서 AI 산업을 지속적으로 발전시키기 위한 정책적 기반을 마련하려는 시도라고 볼 수 있습니다. 다만 포괄적 인공지능 법률이 실제로 시행 단계에 들어간 만큼, 이 제도가 산업 현장에서 어떻게 작동할 것인지에 대해서는 다양한 논의가 이어지고 있습니다. 특히 채용과 같은 인사 영역에서의 AI 활용, 기업의 규제 대응 부담, 산업 혁신과 규율 간의 균형 문제 등은 앞으로 중요한 정책적 쟁점이 될 가능성이 큽니다.
이 글에서는 이러한 맥락에서 AI 기본법이 무엇을 목표로 하는 제도인지 살펴보고, 특히 HR 영역에 미칠 수 있는 영향과 산업 현장에서의 정착 가능성을 중심으로 그 의미를 간략히 살펴보고자 합니다.
AI 기본법은 크게 세 가지 목적을 가지고 있습니다. 첫째, 국가 차원의 인공지능 거버넌스를 구축하는 것입니다. 둘째, 인공지능 산업의 발전을 체계적으로 지원하는 것이며, 셋째, AI 활용 과정에서 발생할 수 있는 위험에 대비하여 책임성·투명성·안전성을 확보하는 것입니다. 다만 AI 기본법이 AI를 사용하는 모든 개인에게 직접 적용되는 것은 아닙니다. 원칙적으로 이 법의 규율 대상은 AI 서비스를 제공하거나 운영하는 ‘인공지능사업자입니다.
인공지능사업자는 크게 두 유형으로 구분됩니다. 하나는 OpenAI, Anthropic, Google과 같이 인공지능 모델을 직접 개발하고 제공하는 인공지능개발사업자이며, 다른 하나는 이러한 개발사업자가 만든 AI를 활용하여 제품이나 서비스를 제공하는 인공지능이용사업자입니다. 즉, AI 기본법은 단순히 AI를 사용하는 이용자가 아닌 AI를 개발하거나 서비스 형태로 제공하는 사업자에게 책임과 의무를 부과하는 구조라고 볼 수 있습니다.
먼저 AI 기본법은 위에 언급한바와 같이국가 차원의 정책 거버넌스를 마련하고자 합니다. 법에 따르면 인공지능 정책은 ‘국가인공지능전략위원회’를 중심으로 논의되며, 정부는 3년 단위로 인공지능 기본계획을 수립해 정책 방향과 주요 실행 과제를 설정하도록 되어 있습니다. 이는 AI 정책을 일회성 사업이 아니라 중장기 국가 전략으로 추진하겠다는 의미를 담고 있습니다.
또한 AI 기본법에는 산업 진흥을 위한 다양한 정책 수단도 포함되어 있습니다. AI 연구개발(R&D), 학습용 데이터 구축, 기업의 AI 도입·활용 지원, 창업 및 산업 융합 촉진, 전문 인력 양성, AI 데이터센터 및 집적단지 조성 등 AI 산업 전반을 지원하는 전주기 정책 체계가 법률과 시행령에 반영되어 있습니다(박현진, 2026). 이와 함께 공공 부문의 AI 도입을 촉진하기 위한 장치도 마련되어 있습니다. 공무원이 AI를 활용한 행정을 수행하는 과정에서 고의 또는 중대한 과실이 없는 경우 책임을 면제하는 면책 규정이 포함되어 있는데, 이는 공공기관이 새로운 기술 도입을 지나치게 두려워하지 않도록 하기 위한 현실적 장치로 해석됩니다(현수진, 2026).
AI 기본법에서 특히 중요한 부분은 AI 활용의 책임성과 투명성, 그리고 안전성을 확보하는 규율 체계입니다. 법은 이를 크게 세 가지 축으로 나누어 규정하고 있습니다.
첫째는 고영향 AI의 책임성입니다. 고영향 AI란 에너지, 먹는물, 보건의료, 의료기기, 원자력, 범죄 수사 및 체포, 채용 및 대출 심사, 교통, 공공서비스, 교육 등에서 사람의 생명이나 신체의 안전, 또는 기본권에 중대한 영향을 미칠 수 있는 영역에서 활용되는 AI를 의미합니다. 다만 중요한 점은 이러한 영역에서 AI가 사용된다고 해서 모든 AI가 자동으로 고영향 AI로 분류되는 것은 아니라는 점입니다. 정부 설명자료에 따르면 해당 영역에서 사용되는지 여부뿐만 아니라 위험의 수준, 그리고 최종 의사결정 과정에서 인간이 실질적으로 개입하는지 여부 등을 종합적으로 고려해 판단하도록 되어 있습니다. 만약 사업자가 스스로 판단하기 어려운 경우에는 과학기술정보통신부에 확인을 요청할 수 있으며, 공식적인 처리 기간은 기본 30일에서 최대 60일 입니다.
둘째는 생성형 AI의 투명성 확보입니다. 정부는 고영향 AI 또는 생성형 AI를 활용한 제품이나 서비스를 제공할 경우, AI가 사용되었다는 사실을 이용자에게 사전에 알리도록 규정하고 있습니다. 또한 생성형 AI 결과물에는 이용자가 이를 인지할 수 있도록 표시하도록 요구하고 있습니다. 특히 딥페이크 영상이나 음성과 같이 사회적 부작용 우려가 큰 콘텐츠의 경우에는 가시적·가청적 표시가 적용될 수 있으며, 일반적인 AI 생성 콘텐츠에는 비가시적 디지털 워터마크와 같은 방식도 허용됩니다. 결국 이 규정은 “AI를 사용했는지 여부” 자체보다, AI를 사용했다면 그것을 얼마나 투명하게 공개하고 있는지를 묻는 규율이라고 볼 수 있습니다.
셋째는 고성능 AI에 대한 안전성 확보 의무입니다. 시행령에서는 일정 기준 이상의 초고성능 AI에 대해 별도의 안전 의무를 부과하고 있습니다. 구체적으로는 학습에 사용된 누적 연산량이 10²⁶ FLOPs 이상이면서 위험 요건을 충족하는 경우가 그 대상이 될 수 있습니다. 이러한 경우 사업자는 AI 시스템의 수명주기 전반에 걸쳐 위험 식별, 위험 평가, 위험 완화 조치, 사고 모니터링 및 대응 체계 등을 마련해야 합니다. 이 규정은 특히 초거대 모델이나 기반모델을 개발·운영하는 사업자에게 중요한 규율 체계로 작용할 가능성이 큽니다.
HR 관점에서 특히 주목할 부분은 채용 분야가 ‘고영향 AI’ 영역에 포함된 점입니다. 채용은 단순한 업무 효율화의 문제가 아니라 개인의 직업 선택과 노동 기회에 직접적인 영향을 미칠 수 있는 영역이기 때문에, 고영향 AI로 분류됩니다.
다만 중요한 점은 채용 과정에 AI가 활용되었다고 해서 모든 경우가 자동으로 고영향 AI가 되는 것은 아니라는 점입니다. 정부는 해당 판단에서 △법이 정한 영역에서 AI가 사용되는지 △위험의 중대성이 어느 정도인지 △무엇보다 최종 의사결정 과정에 인간이 실질적으로 개입하는지 여부 등을 종합적으로 고려한다고 설명하고 있습니다. 만약 사람이 최종 단계에서 통제와 판단을 수행하는 구조라면 고영향 AI 대상에서 제외될 가능성도 있습니다.
그렇다면 정부가 특히 우려하는 구체적인 리스크는 무엇일까요. 핵심은 “AI가 불투명한 방식으로 사람의 권리를 자동으로 제한하는 상황”입니다. 이러한 위험을 방지하기 위해 고영향 AI 사업자는 안전성과 신뢰성을 확보하기 위한 여러 조치를 마련해야 합니다. 예를 들어 설명 가능성 확보 방안, 이용자 보호 장치, 인간의 관리·감독 체계 등을 갖추도록 요구됩니다.
또한 AI 시스템의 판단으로 영향을 받는 사람은 최종 결과 도출에 활용된 주요 기준과 원리에 대해 기술적으로 가능하고 합리적인 범위에서 명확하고 의미 있는 설명을 받을 권리를 가질 수 있습니다. 결국 이 제도는 AI 사용 자체를 금지하려는 것이 아니라, 중대한 권리 영역에서 AI가 활용될 경우 설명 가능성과 책임성을 확보하라는 요구에 가깝다고 볼 수 있습니다. 이러한 방향은 유럽연합(EU)이나 미국 일부 주정부의 AI 규제 흐름과도 유사한 맥락에 있습니다.
AI 기본법상 HR 영역에서 현재 명시적으로 고영향 인공지능으로 논의되는 분야는 ‘채용’입니다. 따라서 채용과 같이 개인의 권리에 직접적인 영향을 미치는 영역에서는 인간의 감독, 사전 고지, 리스크 관리, 설명가능성 확보 등의 요건이 요구될 가능성이 높습니다. 이러한 구조에서 AI가 전적으로 결정을 내리는 방식보다는, AI는 보조적 역할을 수행하고 최종 판단은 인간이 담당하는 형태가 일반적인 운영 방식이 될 것으로 예상됩니다.
다만 인사관리의 모든 업무에서 사람이 일일이 최종 승인하는 구조는 현실적으로 비효율적일 수 있습니다. 예를 들어, 교육 콘텐츠 추천, 일정 조율, 내부 문의 응대, 서류 자동 분류와 같은 영역은 자동화를 통해 충분히 운영될 수 있습니다. 따라서 HR 업무 전반을 하나의 동일한 규제 프레임으로 보기는 어렵습니다. 채용처럼 인간의 감독이 필수적인 고영향 영역과, 자동화가 가능하고 위험 수준이 상대적으로 낮은 영역을 구분하여 ‘업무의 영향도에 따른 감독 수준’을 차등화하는 접근이 필요합니다.
다만 아래 조항을 통해 확인할 수 있는 바와 같이 고영향 인공지능에 대한 한정의 규정이 ‘채용, 대출 심사 등’ 열린 형태로 제시되어 있기 때문에, 향후 성과평가, 승진, 보상 등 개인의 고용상 권리·의무에 실질적인 영향을 미치는 인사 의사결정 영역에서도 AI가 전적으로 판단을 수행하는 구조가 등장할 경우 고영향 인공지능에 포함될 가능성에 대한 논의가 추가로 이루어질 가능성이 있습니다.
제2조(정의) 이 법에서 사용하는 용어의 뜻은 다음과 같다.
4. “고영향 인공지능”이란 사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 인공지능시스템으로서 다음 각 목의 어느 하나의 영역에서 활용되는 것을 말한다.
사. 채용, 대출 심사 등 개인의 권리ㆍ의무 관계에 중대한 영향을 미치는 판단 또는 평가
EU에 이어 두 번째로 마련된 포괄적 인공지능 법률인 만큼, 앞으로 적지 않은 정책적 과제가 뒤따를 것으로 예상됩니다. AI 기본법이 시행되고 하위법령이 공개된 이후에도 법 조문의 해석과 적용 기준을 둘러싸고 다양한 의견이 제기되고 있습니다. 이 법이 AI 산업 생태계를 위축시키지 않으면서도 사회적 신뢰를 형성하는 제도로 자리 잡기 위해서는 정부와 산업계, 학계 등 사회 구성원 간의 지속적인 논의와 조정이 필요합니다.
법이 명확한 원칙과 책임 구조를 제시하고 예측 가능한 규율 체계를 갖춘다면, 시장에는 자연스럽게 ‘신뢰’가 형성될 수 있습니다. 특히 공공, 금융, 의료와 같이 보수적이고 위험 회피적인 영역에서는 이러한 신뢰가 AI 도입을 촉진하는 중요한 기반이 될 것입니다. 반대로 현장이 필요로 하는 구체적인 가이드라인과 지원 체계 없이 규제 중심으로만 운영된다면, 산업 혁신은 둔화되고 기업은 불확실성과 부담을 느낄 수밖에 없습니다.
실제로 스타트업얼라이언스의 국내 AI 스타트업 101개사 설문조사에서는 AI 스타트업의 약 98%가 AI 기본법에 대한 준비가 충분하지 않다고 응답하기도 했습니다. 이는 산업계 입장에서 새로운 법적 환경에 적응하는 과정에서 상당한 어려움을 겪을 가능성을 보여주는 사례라고 볼 수 있습니다. 특히 AI 기업이 고영향 AI 여부를 스스로 판단해야 하는 구조인 만큼, 판단 기준이 충분히 구체화되지 않은 현재의 초기 단계에서는 법적 불확실성이 커질 수 있다는 우려도 제기되고 있습니다.
또한 AI 서비스 산업은 속도가 경쟁력인 경우가 많습니다. 기업이 자체 판단에 확신을 갖기 어렵거나 법적 리스크를 최소화하기 위해 과학기술정보통신부에 공식적인 ‘확인 요청’을 하는 경우, 그 절차에 시간이 소요되어 서비스 개발이나 출시 일정이 지연될 수 있다는 우려도 산업계에서 제기되고 있습니다.
정부 역시 이러한 우려를 인지하고 있습니다. 이에 따라 법 시행 초기 약 1년 동안은 과태료 부과를 유예하고, 기업 대상 컨설팅과 가이드라인 마련에 집중하겠다는 방침을 밝히고 있습니다. 이러한 과정을 통해 가이드라인이 보다 명확하게 전달되고 실제 사례가 축적된다면, 기업들의 자체 판단 역량 역시 점차 높아질 것으로 보입니다. 결국 이 법의 성패는 조문 자체의 선언적 의미보다, 앞으로 구체화될 시행령과 가이드라인, 표준, 그리고 산업 지원 체계에 달려 있습니다. AI 기본법은 앞으로 “좋은 법인가”라는 평가보다, "실제로 현장에서 작동하는 제도인가"라는 관점이 더 중요하게 작용될 것으로 보입니다.
AI 산업의 성장과 책임 있는 활용을 위해 오랜 준비 끝에 시행된 AI 기본법은 이제 본격적인 운영 단계에 들어섰습니다. 법이 시행되었다는 사실 자체보다 중요한 것은 앞으로 이 제도가 현장에서 어떻게 작동하느냐일 것입니다. 현재 정부는 가이드라인 마련, 기업 대상 컨설팅, 판단 기준의 구체화 등 다양한 후속 작업을 통해 제도의 안정적인 정착을 추진하고 있습니다. 이러한 과정 속에서 정부와 산업계, 학계 등 사회 구성원 간의 지속적인 소통과 협력이 이루어진다면, AI 기본법은 단순한 규제 장치를 넘어 AI 산업의 신뢰 기반을 형성하는 제도적 토대로 자리 잡을 수 있을 것입니다.
오늘날 산업 현장에서 AI 활용은 더 이상 선택의 문제가 아니라 피할 수 없는 흐름이 되고 있습니다. 다만 AI 기술의 잠재력이 지속적으로 긍정적인 영향을 발휘하기 위해서는 기술의 발전과 함께 책임 있는 활용에 대한 사회적 기준 역시 함께 발전해야 합니다. 그러한 관점에서 볼 때, AI 기본법은 우리 사회가 AI 시대를 맞이하며 처음으로 마련한 국가 차원의 제도적 실험이라고도 볼 수 있습니다. 특히 법 시행 첫 해인 2026년이 어떤 방식으로 운영되고 어떤 경험이 축적되는지가 향후 제도의 방향을 결정하는 중요한 시기가 될 것입니다.
앞으로 각 사회 구성원 간의 신뢰를 지속적으로 강화하고, 규제로 인한 불필요한 비효율은 최소화하면서 산업 현장에서의 AI 활용이 보다 책임 있고 건강한 방향으로 확산되기를 기대합니다. 결국 AI 기본법의 성패는 법 조문 자체가 아니라, 현장에서 신뢰 속에 작동하는 제도로 자리 잡을 수 있는가에 달려 있을 것입니다.
박현진. (2026, January 22). 대한민국 ‘인공지능 기본법’ 전면 시행: AI 산업 진흥에 방점, 최소 1년 규제 유예·기업 지원 데스크 운영. 인공지능신문.
현수진. (2026, February 6). 인공지능 기본법의 시행과 법적 과제: 혁신과 신뢰의 교차점. 법률신문.