brunch

생성형 AI의 기회와 딜레마

영국 정부와 기업의 대응 및 기업들의 AI 활용 교육

by 이재진

최근 생성형 AI(Generative AI)의 눈부신 발전으로 업무 현장에 ChatGPT, Claude와 같은 개인화된 AI 도구가 빠르게 스며들고 있다. 하지만 혁신의 기회 뒤에는 정보 유출, 저작권, 윤리적 문제 등의 위험이 도사린다. 영국 기업들은 이러한 딜레마 속에서 어떻게 대응하고 있을까? 영국 정부는 어떤 가이드라인과 정책을 통해 방향을 제시하고 있을까? 또한 직원들의 AI 활용 역량을 강화하기 위해 외부 교육 기관과의 협력은 어떻게 이뤄지고 있을까? 영국의 사례를 통해 깨닫는 통찰은 비슷한 고민을 하고 있는 한국 기업들에 여러 시사점을 제공하리라 생각한다. 이 글에서는 영국 기업들이 생성형 AI를 활용하는 것에 대한 고민과 대응, 그리고 기업 내부적으로 어떻게 하고 있는지, 또 영국 정부에서는 어떤 지침과 동향이 있는지 살펴보고, 또한, 기업들이 직원들의 생성형 AI 활용 능력을 강화하기 위해 어떤 교육과 정책을 실행하고 있는지 구체적인 사례를 통해 살펴보고자 한다.




생성형 AI 확산에 대한 영국 기업들의 고민, 그리고 대응


“ChatGPT를 내가 하고 있는 업무에 써도 될까?” 이것은, 영국 직장인들에게도 낯설지 않은 질문이다. 2024년 10월에 영국 인사관리협회 CIPD (The Chartered Institute of Personnel and Development)와 영국 표준 협회 (British Standards Institute)에서 미국, 영국, 중국 등 주요 9개국의 총 932명 기업 리더들을 대상으로 생성형 AI 활용 여부를 조사한 결과를 발표한 바 있다. 해당 조사 내용을 살펴보면, 영국은 절반 가량 (약 55%)의 기업들이 기업 내에서 생성형 AI 활용을 적극적으로 하고 있는 반면, 미국은 77%, 중국은 92%에 이르렀다. 영국 내 기업의 리더들에 대한 인식과는 달리, 개별 직장인들의 생성형 AI 사용율은 더 높다. 2024년 1/2분기 Digitalisation World에서 조사한 바에 따르면, 영국 사무직 근로자의 49%가 최소 주 1회 생성형 AI를 사용하고, 5명 중 1명(19%)은 매일 사용하고 있다고 한다. 이들은 이메일이나 보고서 초안 작성, 간단한 분석, 리서치까지 광범위하게 활용하고 있다.


같은 조사에서 밝혀진 걱정스러운 문제는, 영국 내 사무직 근로자의 38%(약 5분의 2)가 자신이나 동료, 고객의 프로필과 관련된 정보, 그리고 재무/세일즈 데이터와 같은 민감한 정보를, 기업 내 서버로 관리되는 Enterprise 모델이 아닌, 공개 생성형 AI 도구에 입력하거나 자료를 업로드 한 적이 있다고 인정했다는 점이다. 이들의 절반 이상은(약 60%), 생성형 AI 프롬프트를 통해 입력된 정보가 회사 밖으로 유출될 수 있다는 사실을 인식하지 못하고 있었으며, 이로 인해 조직이 데이터 개인 정보 보호 규정을 위반할 수 있다는 사실 역시 깨닫지 못하고 있었다.


이러한 문제 인식을 반영하는 듯, 영국 내 많은 기업의 경영진은 생성형 AI 활용에 대한 데이터 보안 위험과 규제 준수 문제로 골머리를 앓고 있다. BlackBerry의 연구에 따르면 영국 기업의 약 66%가 데이터 보안 및 개인 정보 보호 위험에 대한 우려로 인해 직장에서의 생성형 AI 사용을 금지했거나, 사용 제한을 고려하고 있다고 한다. 이처럼 과반 이상의 기업이 생성형 AI의 사용의 전부 혹은 일부 제한을 고려할 정도로 우려가 큰데, 이는 직원들이 민감 정보를 AI에 입력해 사외로 유출될 가능성, 사이버 보안 위협 등을 경계하기 때문이다. 하지만 모든 기업이 “무조건 금지”로만 대응하는 것은 아니다. 일부 기업의 의사결정권자들은 오히려 전면적 금지는 지나친 우려라고 보고 있다. 보안과 프라이버시 우려는 분명히 이해하지만, 업무 효율과 생산성 향상에 긍정적인 측면도 크기 때문이다. 이 때문에, 최근 기조는 “직장 내에서 생성형 AI의 활용을 금지(원천차단)하는 것 대신, 명확한 가이드라인과 윤리 기준을 세워 무엇을 해도 되고, 무엇을 하면 안 되는지, 직원들에게 명확히 알려주는 것이 중요하다”라는 관점으로 가는 듯 보인다. 영국 기업들 사이에 생성형 AI 활용을 완전히 막기보다는 “통제된 자유”를 주는 방향, 즉 내부 정책 마련으로 무게중심이 이동하고 있다.




기업 내부 가이드라인: 무엇을 어떻게 정하고 있나?


영국에서도 규모가 큰 기업들은 Enterprise 용으로 제공되는 생성형 AI 모델을 별도로 구독하거나, 혹은 생성형 AI 서비스를 제공하는 기업과 협업하여 자체적으로 Customised Generative AI 모델을 구축하고 있다. 기업과 협업하여 생성형 AI 서비스를 기업에 맞게 제공하는 곳들로, 대중에 널리 알려진 곳으로는 ChatGPT를 제공하는 OpenAI, 구글, 메타, 안트로픽(Anthropic), xAI 등이 있다. 하지만, 기업들은 자체 산업 분야별로 더 특화된 AI 서비스를 제공하는 곳들과 파트너십을 맺기도 한다. 영국의 경우, 미디어 분야에 특화된 생성형 AI기업인 신테시아(Synthesia), 옥스포드 대학에서 스핀오프하여 국방 및 안보 분야에 특화된 생성형 AI 솔루션을 제공하는 마인드 파운드리(Mind Foundry), 오디오 및 음성 기술 분야에 특화된 생성형 AI기업으로 일레븐랩스(ElevenLabs), 텍스트로 예술작품을 생성하는 이미지 생성 AI인 스태빌리티 AI (Stability AI) 등이 있다. 일레븐랩스의 경우, 미국 뉴욕에서 시작했지만 유럽 지역 오피스는 영국 런던에 있다. 각 산업 영역에 특화된 이러한 기업들은 고객 기업과 파트너십을 맺고 자체적인 생성형 AI 모델 구축을 진행한다.


하지만 기업 내부에 별도의 생성형 AI 모델을 구축하거나, Enterprise 서비스를 활용하지 않고 있는 대부분의 기업 및 직장인들은 공공에 오픈된 생성형 AI를 무료버전으로 혹은 개인이 구독하여 사용하고 있다. 문제는 앞서 언급했듯 상당 수의 직원들이 회사의 고객정보나 재무 데이터 같은 민감 정보를 공공 생성형 AI에 입력해본 적이 있다고 고백했는데, 이 중 상당수가 그것의 위험성을 인지하고 있지 못했다는 것이다. 즉, 기업의 기밀이 유출되고 데이터 보호 규정 위반 소지가 있음에도 불구하고, 가이드라인 부재가 이런 리스크를 키우고 있는 상황이다.


이렇다 보니 기업들은 생성형 AI 활용에 대한 사내 정책 및 가이드라인을 빠르게 수립해 가고 있는데, 기업별 AI 활용 가이드라인에는 주로 다음과 같은 것들이 있다.


1) 민감 정보 입력 금지: 가장 중요하면서도 기본적인 원칙은 회사 기밀이나 개인정보를 절대 AI에 입력하지 말아야 하는 것이다. 영국 정부의 공무원 지침을 보면, “민감한 정보로 분류되어 있거나, 외부에 아직 공개되지 않았지만 정부의 정책을 짐작할 수 있는 정보는 절대 입력하지 말라”고 못 박고 있다. 많은 기업들이 이와 유사하게 고객 데이터, 소스코드, 재무정보 등을 AI prompt에 넣는 행위를 금지하여 데이터 유출과 규제 위반을 예방한다. 예를 들어 일부 기업은 “내부 보고서나 초안 작성에는 ChatGPT를 써도 되지만, 대외 발송 문서 작성에는 사용 금지”와 같은 기준을 둔다. 이는 외부 공개 문서에 AI 활용 상에서 발생하는 오류가, 문서에 함께 실려 기업의 평판 손상을 초래하는 것을 막기 위함이다. 또한 승인된 AI 도구 목록을 제시하여, 공식적으로 검토된 안전한 도구만 사용하도록 유도하는 곳도 있다. 영국 사회보장국(DWP, Department for Work and Pensions)의 경우 아예 공식업무 중 공개된 생성형 AI 사용을 금지하고, MS Copilot 기반의 내부 도구만 활용하도록 전환하기도 했다.


2) 결과물에 대한 사람의 직접 검증: 생성형 AI의 “할루시네이션(hallucination)” 문제는 이미 잘 알려져 있다. ChatGPT만 하더라도 하단에 “ChatGPT can make mistakes. Check important info.”라고 적혀 있어서, 생성형 AI 사용자가 결과물에 대한 문제가 발생할 수 있음을 인식하게 하고 있다. AI는 우리가 보기에 그럴 듯해 보이지만 틀린 정보, 혹은 없는 정보를 있는 것 같이 만들어낼 수 있기 때문에, 출력 결과를 검토하고 책임지는 것은 결국 사람의 몫이다. 이에 따라 기업들의 생성형 AI 활용 가이드라인에는 “AI가 만들어낸 초안이나 코드에 대하여, 반드시 사람이 검토할 것”을 포함하고 있다. 실제 사례로, 영국 로펌 앨런앤오버리(Allen & Overy)는 ChatGPT 기술 기반의 법률 AI 챗봇인 Harvey를 도입하면서 “Harvey가 제공한 초안은 반드시 담당 변호사가 면밀히 검토해야 한다”는 원칙을 내세웠다. 회사는 Harvey의 답변이 여전히 오류나 편향 가능성이 있음을 공지하고 변호사의 전문적 판단과 교차 검토를 통해 활용하도록 하고 있다. 이처럼 “AI를 활용할 수 있되, 최종 작업물을 인간이 직접 검증한다”가 현재 상황에서 생성형 AI를 사용하는 기업들의 가이드라인이다.


3) 저작권 및 윤리 준수: 생성형 AI가 산출한 콘텐츠의 저작권 문제가 불확실하기 때문에, 기업들은 AI가 만들어낸 텍스트나 이미지를 외부에 사용할 때 주의를 기울이고 있다. 일부 기업들은 AI의 생성물을 대외적으로 사용 금지하거나, 필요한 경우 내부적으로 법무팀을 통해 검토한 후 사용하도록 규정한다. 또한 훈련 데이터의 편향으로 인한 AI의 차별적 결과 출력을 경계하여, “AI가 작성한 결과물은 반드시 편향 여부를 검토한다”는 가이드를 담고 있는 경우도 있다. 이는 기업이 AI 윤리 원칙을 지키겠다는 의지이기도 하다.


4) 생성형 AI 사용 사실의 투명성: 직원들이 생성형 AI를 활용하여 업무 산출물을 냈다면, 이를 명시적으로 밝히도록 권장하거나 의무화하는 추세다. 예컨대 “보고서 일부에 생성형 AI를 활용했다면 해당 부분을 표시하거나 상사에게 보고”하도록 요구함으로써, AI 활용을 투명하게 관리하려는 것이다. 이는 동료나 관리자가 결과물을 평가할 때 AI 개입 정도를 인지하고 적절히 피드백할 수 있게 해준다. 조사기관에 따라 수치의 차이가 있긴 하지만, 작년 기준으로 Deloitte와 The Access Group에서 조사한 영국 내 직장인들의 생성형 AI 활용 실태에 대한 자료를 보면, 23%~35%의 직원들이 상사나 고용주에게 직접적으로 알리지 않고 생성형 AI를 활용해 업무를 수행하고 있다고 한다. 고용주나 리더 입장에서 직원 개인의 생성형AI 활용 여부를 실시간으로 감시/감독할 수 없는 현실을 고려할 때, 생성형 AI 사용에 대한 명시적인 가이드라인의 필요성은 더욱 중요해 보인다.


이처럼 기업들이 생성형 AI 활용에 대한 가이드라인으로, 어떤 것들이 가능하고, 어떤 것이 가능하지 않은지 여부의 경계를 명확히 하면, 직원들은 안심하고 생성형 AI를 활용하여 업무 혁신을 추구할 수 있다.




영국 정부의 AI 활용 지침과 정책 동향


영국 정부는 국가 차원에서 생성형 AI 활용을 북돋으면서 동시에 윤리적 사용 가이드라인을 마련하는 투 트랙(two-track) 접근을 보이고 있다. 우선, 정부 내부 지침으로 영국 공무원 대상 생성형 AI 활용 가이드라인이 2023년 말에서 2024년 초에 걸쳐 제정되었다. 핵심 내용을 보면, 정부가 민간 기업에 권고하는 사항과 맥락을 같이 한다. 요약 지침에서 가장 강조되는 원칙은 “절대로 민감한 정보를 입력하지 말 것”이다. 공무원들에게도 GDPR(개인정보보호 규정)을 준수하며 AI를 활용하라고 명시했고, 출력 결과의 편향성과 오류 가능성을 항상 염두에 두어 교차 확인 및 출처 표시를 하도록 당부하고 있다. 또한 범정부 프레임워크로 「HMG 생성 AI 프레임워크」를 2024년 1월에 발표하기도 했다. 이는 공공부문 전반에서 안전하게 생성형 AI를 활용하기 위한 상세 지침으로, 이후 2025년 2월 「영국 정부 AI 플레이북」으로 대체되어 계속 발전/개선 중이다. 필자가 있는 대학의 자체적인 생성형 AI 활용에 대한 가이드라인도 영국 정부의 이러한 상세 지침을 참고하여 계속 업데이트 되고 있다. 이런 움직임은 정부가 사용자이자 규범 제시자의 이중 역할을 수행함을 보여준다. 정부 조직 스스로 모범 사례를 만들고, 이를 민간에도 공유함으로써 전체 사회의 책임감 있는 AI 활용을 유도하려는 것이다.


정책 차원에서 영국은 법·제도적 접근에서의 특징이 있다. 2023년 3월 영국 디지털산업상무부(DSIT, Department for Science, Innovation and Technology)가 발표한 「AI 규제 백서」는 영국의 방향을 “혁신에 우호적인 유연한 규제”로 언급하고 있다. 여기에는 안전성, 투명성, 공정성, 책임성, 거버넌스의 5대 원칙을 제시하고, 새로운 AI법을 바로 만들기보다는 기존 각 분야 규제기관 (예를 들어, 개인정보는 ICO, 금융 AI는 FCA 등)이 해당 원칙을 AI에 적용하여 가이드라인을 내라는 접근을 취했다. 이는 일괄적 규제보다 맥락별 규율을 중시한 것으로, EU의 획일적인 AI법안과 대비된다. 예컨대 고위험 AI에 대해서는 산업별로 다른 기준을 둘 수 있도록 한 것이다. 이러한 유연 규제 정책은 기업 입장에서 규제 불확실성을 줄이고 혁신 실험을 장려하지만, 한편 명확한 법적 강제력이 없기에 가이드라인의 실효성이 관건이다.


영국 정부는 AI 윤리와 안전에도 심혈을 기울이고 있다. 2023년 11월에는 세계 최초의 AI 안전 정상회의를 주최하여, 초거대 AI로 인한 안보 및 윤리 위험을 국제 공조로 관리하자고 제안하였다. 이는 생성형 AI의 잠재 위험을 선제적으로 다루겠다는 의지로, 기업들에게도 AI에 대한 안전을 경영의제로 삼으라는 시그널을 전달하였다. 동시에 AI 인재와 역량 강화에도 투자하고 있는데, 2022년 과학기술부가 2,300만 파운드(약 370억원)를 투입해 재직자 대상 AI 기술 교육과 다양성 증진 프로그램을 발표한 것이 한 예다. 이와 같이 영국 정부는 규제기관 지침, 공공부문 모범사례, 국제협력, 인재양성 투자 등을 종합적으로 활용해 AI 활용 장려와 위험 완화의 균형을 추구하는 중이다.


이러한 정부 기조는 기업들에게도 자율적이되 책임 있는 AI 활용 문화를 정착시키는 데 영향을 미친다. 정부가 직접 규제의 칼을 빼들지 않더라도, 명확한 원칙과 권고를 제시함으로써 기업들은 내부 정책을 수립하는 나침반으로 삼을 수 있다. 예를 들어 영국 정부가 강조한 “민감정보 입력 금지”는 대부분 기업의 사내 정책에 그대로 반영되어 있다. 또한 정부 차원에서 AI 윤리 원칙을 강조하는 것은 기업들이 자체 AI 윤리 강령을 만들 때 참고 기준이 된다. 이런 배경에서, 영국의 기업들과 정부는 각각 조직 단위와 국가 단위에서 생성형 AI 활용의 가이드라인을 구축하며 상호 보완적인 움직임을 보이고 있다.




생성형 AI 시대, 왜 직원에 대한 AI 교육에 주목하는가


이미 기술 변화에 빠른 기업들은 생성형 AI 이전에도 AI의 도입 및 활용을 모색해 왔지만, 지금과 같이 개인 단위로 AI를 활용하는 수준은 아니었다. 생성형 AI는 말 그대로 AI가 익숙하지 않은 비 전문가에 대하여 AI의 접근성을 대폭 낮추었다. 비슷한 측면에서 생성형 AI는 곧, 수년 전 직장인들이 MS Office 도구들(Excel, PowerPoint, Word 등)을 학습하며 업무에 활용하는 것처럼, 기본적인 툴(tool)의 개념으로 여기며 업무의 보조 도구로 활용되어 가고 있다. 이에 기업은 생성형 AI를 업무 전반에 적극적으로, 또 이를 제대로 활용하는 인재를 육성하는 것이 기업 경쟁력임을 깨닫는 상황이다.


하지만 이러한 인식에도 불구하고, AI 중심의 업무 환경에 대비하여 주요 기업들이 직원 교육을 진행하는 속도는 생각보다 더딘 편이다. 2023년 12월 LinkedIn이 고위 임원 3,000명을 대상으로 실시한 설문조사에 따르면, 직원들에게 AI 도구 사용 교육을 실시하는 기업이 미국(38%)과 영국(44%)에서 각각 절반도 안 되었다. 반면 근로자들의 니즈는 크다. 같은 해 5월 KPMG에서 발간한 보고서에 따르면, 영국의 사무직 근로자의 61%가 Gen AI 교육을 원한다고 답한 바 있다. 그럼에도 Gen AI와 관련된 학습 자료를 빠르게 찾을 수 있다고 답변한 직원은 20%에 불과했다. 이러한 수치는 많은 기업들이 AI로 인한 업무 변화에 대비한 직원 재교육(리스킬링)을 더디 진행하고 있음을 보여준다. 실제로 회사 업무 외에도 개인이 구독하여 얼마든지 Gen AI를 사용/활용하고 있다는 현실을 감안할 때, 비즈니스에 제대로 또 윤리적인 사용을 명확히 가이드하기 위한 기업의 노력이 더 촉구되어야 함을 깨닫는다.


영국의 몇몇 선도 기업들은 이런 필요성을 민첩하게 깨닫고 대응하고 있다. 이러한 기업들의 가장 큰 특징은, 1) Gen AI를 활용하여 직원들의 역량을 향상시키는 교육적 관점으로 비좁게 보는 게 아니라, AI 중심의 비즈니스 트랜스포메이션을 하려는 전사적인 전략에 속하며, 2) 단순히 프롬프트 엔지니어링과 같은 적극적인 활용 외에 AI 윤리와 회사 내 정책 등에 대한 책임있는 AI 활용 (Responsible AI)을 함께 중시한다는 점이다. 이 글에서는 이러한 사례로 영국에서 비즈니스를 운영하고 있는 기업들 중, 이케아(IKEA), 로이드 뱅킹 그룹, 퓨처런(FutureLearn)의 Gen AI 교육 전략을 살펴본다.




이케아(IKEA): 전 직원 AI 역량 강화와 책임있는 AI 활용 교육

01.jpg

가구소매 기업 이케아는 스웨덴에서 시작되었지만, 본사는 네덜란드에 있고, 유럽 내 가장 큰 비즈니스는 정작 독일 (2024년 기준으로 55개 매장)에 있는, 말 그대로 글로벌 기업이다. 이케아는 영국 내 가구 분야 비즈니스에서 독보적인 위상을 보여주고 있는데, 비(非)기술 분야 대기업이 대규모 단위의 AI 교육 프로그램을 도입한 대표적인 사례로 꼽을 수 있다. 2024년 4월, 이케아는 전 세계 직원 16만5천여 명 중 우선적으로 약 3만 명의 직원과 500명의 관리자에게 AI 리터러시 교육을 제공할 계획을 발표한 바 있다. 흥미로운 점은 기술분야의 직원 뿐만 아니라 생산현장 및 매장 직원까지 현장 일선에서 고객과 접점이 있는 근로자도 교육 대상이었다는 것이다. 이는 이케아가 전 사업 범위에 AI기반의 업무 역량을 강화시키려는 전략적 시도였음을 알 수 있는데, 실제 시행 후 직원들의 자발적 학습 열의가 넘쳐, 시행 후 수개월 만에 목표치를 상회하는 4만명 이상의 직원들이 AI 교육을 이수한 바 있다.


“이케아 가구 매장에서 고객을 응대하는 현장 직원들이 AI를 활용할 일이 뭐가 있을까?” 라고 생각할지 모르겠다. 하지만 이케아의 경영진은 현장 직원들 역시 업무 프로세스 각 단계에서, 고객을 응대하는 상황에서, 커뮤니케이션 하는 상황에서, 물품을 정리하거나 관리, 제공, 권유하는 것 등 여러 상황에서 더 개선할 수 있는 소지가 많고, Gen AI를 통해 이를 활성화 시킬 수 있다고 보았다. 이를 위해 온·오프라인을 병행한 블렌디드 러닝(blended learning) 방식을 채택하고, 사내 자체적인 개발 과정과 외부의 전문가 초청 워크샵을 병행하여 교육 프로그램을 구성했다. 가장 핵심적인 시도는 직원들이 자기주도적으로 현업에 적용해보는 학습을 할 수 있게 하는 것이었는데, 예를 들어 “AI 탐구의 날(AI Exploration Days)”이라는 워크샵을 개최하여, 리더급 관리자들이 한자리에 모여 AI 사례를 체험하고 자사 비즈니스에 적용할 아이디어를 토론하도록 하였다.


뿐만 아니라 직급별/수준별로 다른 별도의 AI 학습 모듈을 제공한다. 모든 직원을 대상으로 하는 (즉, Ikea의 직원이면 누구나 access하여 학습할 수 있는) AI 기초(Foundations) 과정에서는 AI의 기본 개념과 생성형 AI 활용법을 다루고 있다. 업무 전문성에 따라 심화과정(advanced level)이 필요한 직원들에게는 생성형 AI 마스터 과정(Mastering Gen AI), 책임있는 AI(Responsible AI), 알고리즘 윤리(Algorithmic Training for Ethics) 등 특화된 모듈을 제공한다. 예를 들어, 마케팅 직원은 AI 기반으로 고객데이터를 분석하는 과정, HR 담당자는 AI를 활용하여 채용에서의 윤리 이슈를 어떻게 효과적으로 교육할 수 있는지 등 직무 관련 내용을 추가로 학습한다. 관리자와 리더들에 대하여는 앞서 언급했던 ”AI 탐구의 날”과 같은 별도 프로그램에서 자사 비즈니스 우선순위에 AI를 어떻게 접목할지 전략적으로 고민할 수 있는 장을 마련해준다.




로이드 뱅킹 그룹(Lloyds Banking Group): 금융권 경영진의 AI 리더십 육성

02.jpg

영국의 대형 금융회사인 로이드 뱅킹 그룹은 고위 경영진부터 AI 역량을 내재화하여 조직 전반의 변화를 추구하는 사례다. 앞서 이케아의 경우 현장 직원부터 경영진까지 가리지 않고 전사적으로 전략적인 AI 교육을 단행했다면, 로이드는 전략이 사뭇 다르다. 로이드는 2025년에 은행권 최초로 최고경영진 대상의 전문 AI 교육 프로그램을 도입했다. COO(최고운영책임자) 주도하에 약 200명의 수석 리더들을 위한 6개월짜리 “Leading with AI” 과정을 개설하고, 케임브리지대학 전문가와 에듀테크 기업 Cambridge Spark와 협력하여 교육을 진행하고 있다. 총 80시간 분량의 이 커리큘럼은 금융서비스 분야에서 AI를 통찰력 있게 도입/활용하기 위해 경영 역량을 향상시키는 것에 초점을 맞추고 있다.


금융업은 업종 특성상 IT 개발인력과 데이터 과학자가 많다. 반면 의사결정을 내리는 경영진의 경우 숫자에는 밝지만 AI라는 기술에 익숙하지 않으면, 아무래도 AI 디지털 기반의 조직 혁신이 더딜 수밖에 없다. 로이드는 이를 해소하고자 “AI를 이해하는 리더십”이라는 키워드에 포커싱 하고 있다. 이는 AI를 조직 내 기술(tech) 팀에만 의존하는 것이 아니라, AI 자체를 전체 사업에 깊숙이 통합함으로써, 은행 업계에서 가장 AI 역량이 뛰어난 리더십 팀을 구축하는 것을 목표로 하는 것이다. 아무래도 경험이 많은 경영진이 AI의 상업적 활용 기회를 더 빠르게 식별할 것이고, 의사결정 권한이 있는 만큼 AI에 대한 이해도가 높으면 실질적인 혁신을 주도할 수 있을 것이라는 계산이 배경에 깔려 있다. 이를 통해 경영진이 AI 디지털 전환을 리드하여 로이드 뱅킹 그룹 조직 전체가 AI를 효율적으로 받아들이도록 하는 한편, 고객들에게 AI 기반의 혁신적인 서비스를 제공하여 경쟁에서 앞서 나가려는 의도라 볼 수 있다.




퓨처런 (FutureLearn): 파트너십을 통한 AI 역량 강화 프로그램 제공

03.jpg

앞선 Ikea와 Lloyds Bank도 그렇지만, 대부분의 기업들이 직원들의 AI 활용 능력을 강화하려 하지만 자체적인 교육 모듈이나 콘텐츠가 부족한 게 현실이다. 영국 기업들도 비슷한 상황이다보니, 직원들의 AI 역량 격차(Gap)를 줄이기 위해 외부 전문 교육기관과 손을 잡아 이를 제공하는 사례가 늘고 있다. 그 중에서도 주목할 만한 것이 FutureLearn과의 협업이다. FutureLearn은 영국 오픈대학교(Open University)가 설립한 온라인 교육 플랫폼(MOOC)으로, 전 세계 여러 대학들과 기업 파트너들이 제공하는 다양한 온라인 강좌를 보유/제공하고 있다. 기업들이 FutureLearn과 협력하는 방식은 크게 두 가지로 볼 수 있는데, 첫째, FutureLearn의 공개 강좌를 활용해 직원 개개인이 원하는 AI 관련 과목을 수강하도록 지원하는 것이다. 두번째는 FutureLearn이 해당 기업에 대하여 직접 “기업 학습 솔루션”을 통해 회사 맞춤형 교육 패키지를 제공하는 것이다. FutureLearn의 경우 2022년부터 기업 대상으로 “FutureLearn 기업 맞춤형 패키지” 서비스를 출시했는데, 이를 통해 기업은 상황에 맞는 온라인 강좌 묶음을 설계할 수 있다.


FutureLearn 플랫폼에는 대학 및 기업에서 제공하는 AI 과정도 즐비하다. 예를 들어, 글로벌 컨설팅 기업인 Accenture(영국법인)는 영국의 디지털 기술 격차 해소를 위해 FutureLearn과 손잡고 “디지털 스킬” 온라인 무료 과정을 개발한 바 있다. 또한 영국의 코벤트리 대학교와 코딩연구소(Institute of Coding)가 개설한 “인공지능: 허구와 현실 구분” 강좌는 AI 알고리즘 편향 문제와 윤리를 다루며, 기업의 AI 윤리 교육자료로 각광받고 있다. 일부 certificate을 유료로 발급하긴 하지만 이러한 공개 강좌가 늘어나다보니, 직원들이 자율적으로 수강하도록 장려하거나, HR 부서에서 학습 동아리를 만들어 함께 수강하도록 지원하는 기업들이 늘어나는 상황이다. 더 나아가, 근무 시간에 교육 수강을 인정해주거나 수료증 취득을 장려하는 기업 문화도 생겨나고 있다. FutureLearn이 조사한 바에 따르면, 구직자의 76%는 경력 개발 기회를 중시하여 학습 문화를 가진 기업을 선호한다고 하니, 이러한 투자는 인재 유치 및 유지 측면에서도 의미가 있다.




마치며 - 한국 기업들을 위한 시사점


물론 영국 기업들의 사례가 “정답(right answer)”이라고 볼 수는 없다. 하지만 적어도 어떻게 생성형 AI의 명과 암을 대하고 있는지에 대한 여러 시사점을 제공해 주는 것은 사실이다. 먼저 중요하게 생각해 볼 것은 “규제와 활용의 균형”이다. 지난 호 1부에서 자세히 살펴봤듯이, 생성형 AI를 조직 내에서 활용하는 것에 대한 성급한 전면 금지나 무책임한 방임 대신, 명확한 가이드라인을 정하여 직원들이 안전하게 AI를 활용하도록 이끄는 것이 핵심이다. 어떤 데이터가 금지되고, 어떤 업무에 활용 가능하며, 결과물 검증은 어떻게 할지 등에 대한 정책을 수립하고 공유함으로써 리스크는 낮추되 더 나은 유익을 기대할 수 있다.


임직원 교육 투자의 중요성 역시 생각해봐야 한다. Ikea와 Lloyds Bank 사례에서 보았듯, 직원의 AI 이해도와 활용 능력을 높이는 것이 곧 경쟁력이 되는 세상이다. 조직 내 자체적으로 교육 커리큘럼을 구성하기도 하지만, FutureLearn과 같은 기업과의 파트너십을 통해 전문적인 AI 교육을 진행하기도 한다. 한국의 경우 패스트캠퍼스(FastCampus), 휴넷, 인프런, 멀티캠퍼스와 같이 Gen AI 실무 교육을 제공하는 곳부터 K-MOOC(한국형 온라인 공개강좌) 그리고 여러 대학까지, 이러한 교육을 제공하는 기업과 파트너십을 통해 양질의 AI 교육 콘텐츠를 활용하는 것이 핵심이라 볼 수 있다. 더불어 업무 시간 내 교육 허용, 교육비 지원, 수료 인증에 따른 보상 등의 장치가 중요할 것이다. 조직 차원의 노력만으로는 한계가 있기 때문에, 정부에서 AI 윤리 기준, 안전 가이드라인 등을 제시하고, 기업들이 참고할 수 있는 표준 정책 예시 등을 만들어 공유할 필요도 있다. 산학협력 AI 교육 프로그램 지원, 세제 혜택 등을 정책적으로 지원하면 기업들의 AI 측면 인재육성 노력을 뒷받침하는 데 효과적일 것이다.



*위 내용은 국내 HR매거진 '월간인재경영' 2025년 4, 5월호 기고 글의 일부가 반영되어 있습니다.

무단 전재 및 복제, 재배포가 불가하니 참고바랍니다.



keyword
작가의 이전글영국대학 대규모 정리해고 사태를 바라보며