brunch

You can make anything
by writing

C.S.Lewis

by 유밥 Aug 19. 2024

직장에서 생성형 AI를
사용할 때 주의점

ubob insight


ChatGPT의 활용 범위가 넓어질수록 관련 이슈 논쟁도 뜨겁습니다. 대표적으로 ChatGPT가 제공하는 정보의 정확성, 출처, 편향, 표절, 사생활, 직업, AI 윤리 및 규제 등을 예로 들 수 있습니다. 이러한 문제들은 직장과 HR 업계 내에서 AI 사용 확산을 반대하는 사람들, 그에 동의하는 지지자들 모두에 의해 지속적인 논의와 검토가 이루어지고 있습니다.


국내에서도 업무에 ChatGPT를 활용하는 이용자가 빠르게 증가하면서 민감 정보 유출을 우려하는 기업들의 목소리도 커지고 있는데요. 대화형 AI인 ChatGPT로 질문하는 과정에 회사의 기밀 정보 등이 외부로 유출될 수 있기 때문입니다. 실제로 일부 이용자들의 대화 이력이 타인에게 유출되는 사례도 있었지요. 관련 사고 예방을 위해 사내에서 ChatGPT 사용을 금지하거나 별도의 활용 지침을 제시하는 기업들도 늘고 있습니다.





국내 대기업 S사는 ChatGPT 사용 지침을 만들기 위한 임직원 대상 설문조사를 진행했었고, 사내 PC를 통한 사용을 금지하기로 발표했지요. 민감한 고객 정보를 다루는 뱅크오브아메리카, 골드만삭스 등 글로벌 은행에서도 일찌감치 ChatGPT 사용을 전면 금지했다는 소식입니다.


이처럼 업무에 ChatGPT를 활용하는 직장인들이 늘어남에 따라 많은 기업들이 주목할 수밖에 없는 생성형AI. 이에 대한 논의도 계속 이루어질 것으로 예상되는 만큼 직장에서 ChatGPT를 사용함으로써 야기될 수 있는 문제점은 어떤 것들이 있으며, 앞으로 어떤 점들을 고려해야 하는지 자세히 알아봅시다.










1. 정확성 (Accuracy)


ChatGPT는 온라인상에 공개되어 있는 정보들을 토대로 학습, 데이터베이스로 활용하기 때문에 실제 정보 외에도 잘못된 가짜 정보를 생성할 수 있습니다. 때문에 정보의 정확성이 떨어지거나, 이와 관련된 여러 문제를 야기할 가능성이 끊임없이 논의되고 있는데요. GPT를 통한 허위 정보를 줄이고 정확성을 높이고 싶다면 챗봇이 전문 지식을 다루는 사이트(Deep Knowledge domains) 기반의 검증된 소스를 기반으로 움직이게끔 해야 합니다. 그렇게 된다면 보다 가까운 미래에 훨씬 많고 다양한 '싱글 도메인' 챗봇을 볼 수 있게 될 것이며, HR 및 관련 서비스에서도 텍스트 생성형 챗봇 애플리케이션이 도입된 훨씬 강력해진 서비스를 경험할 수 있게 될 것입니다.





2. 편향 (Biases)


사람이 개발한 알고리즘이 인간의 편견을 내포하고 있는 것은 어찌 보면 당연합니다. 주된 AI 시스템으로는 인지 기술, 데이터베이스, 사회적 편견 등이 있습니다. 인지 편향은 설계자가 알고리즘 개발 과정에 가정을 수립하면서 무의식적으로 오류를 도입하고, 불완전하고 대표성이 없는 데이터셋을 사용하거나, 학습에 필요한 데이터에 사회적 편견을 포함시킬 때 발생하곤 합니다. 알고리즘이 사회적 편견에 취약하다는 주장에 대한 예시로는 인종차별, 성차별, 연령 차별, 앵글로 색슨과 다국적 기업 헤게모니 등을 들 수 있으며, 관련된 자료들도 쉽게 찾아볼 수 있습니다. 즉, 인사 담당자가 HR 관련 서비스를 보강 또는 대체하기 위해 AI시스템(ex.알고리즘 등)을 사용할 경우, 해당 시스템 자체적으로 사회적 편견이나 오류 등을 내포하고 있을 수 있다는 의미인데요.


만약 인사담당자가 HR 업무 처리를 위해 AI 시스템 도입을 고려하고 있다면 위와 같은 편향을 발견하고, 결함이 있는 부분의 수정에 힘써야 할 것입니다. AI에 대한 신뢰도를 높이기 위하여 비즈니스 리더 및 AI 전문가가 함께 시스템의 편향성을 최소화하는 데 집중하는 방법도 있겠지만, 궁극적으로는 기업에서 활용하는 AI 시스템이 차별적이지 않다는 것을 기업 스스로도 증명해야 하는 것이죠.



3. 출처 (Source)


ChatGPT가 생성한 텍스트 속 정보에는 링크나 참조 정보가 없기 때문에 해당 콘텐츠의 출처를 파악하기 어렵고, 정보의 신뢰성도 낮다고 보는데요. 그러나 생성형 AI(Generative AI) 검색 모델은 인용한 정보의 출처 정보도 포함하는 '시맨틱 컨텍스트 검색(Semantic search context)'을 제공하기에 앞으로 더욱 차별화되고 향상된 검색 모델로 발전할 수 있습니다.



4. 표절 (Plagiarism)


생성된 텍스트의 출처를 밝히지 않는 경우, 표절 가능성이 있기에 저작권 침해 문제로까지 확대될 수 있습니다. 또한 작가가 ChatGPT를 통해 얻은 콘텐츠 혹은 타인의 초안을 여러 개 혼합하여 작성한 글임을 인정할 것인지도 생각해 보아야 할 이슈입니다. 만약 상업적 이용을 허가하지 않는 개인적인 창작물이라면 워터마크 인증 표식을 고려해 볼 필요가 있습니다.





5. 공평 (Fariness)


미국의 자산운용사 뱅가드(Vanguard) 그룹과 같은 대규모 글로벌 기업들은 규모의 경제 영향으로 ChatGPT 등의 챗봇 활용도가 높을 수밖에 없습니다. 특히 HR 분야에서 더욱 두드러지는데요. 때문에 GPT 도입 초기에는 대기업 위주로 다소 불공정한 경쟁 우위가 형성될 가능성이 높다고 볼 수 있습니다.



6. 프라이버시 (Privacy)


HR 챗봇을 활용하는 고용주라면 개인정보 보호 및 투명성 문제를 해결해야만 합니다. 또한 테크 기반의 AI 플랫폼 기업들이 기술 및 법적 기준에 준하는 엄격한 데이터 보호 평가 제도도 통과할 수 있도록 강제해야 할 필요가 있습니다.




7. 직업 (Jobs)


인공지능(AI)가 인간을 대체하고 새로운 일자리 창출 혹은 감소로 이어질지에 대한 논쟁은 꽤 오랫동안 진행되어 왔습니다. ChatGPT 등장 초기에는 새로운 일자리를 만들어낼 것이라는 예상에 무게가 실렸었는데요. 관련 내용은 추후에 조금 더 자세히 다루겠지만, 장기적 관점에서 바라본 ChatGPT는 새로운 일자리를 창출해 내는 반면, 기존의 일자리를 빼앗을 수도 있는 양날의 검이 된 것입니다.


일례로 인간의 창의성과 대인 관계 능력, 비판적 사고 능력 등은 AI로 대체하기 어려운 분야입니다. 이 같은 기술 함양이 필요한 직원이라면, 적어도 기본적인 수준에서는 ChatGPT가 훌륭한 훈련 수단이자 도구가 될 수 있을 텐데요. 이러한 특징은 HR 분야에서도 쉽게 적용해 볼 수 있습니다. ChatGPT는 일상적이고 반복적인 업무를 효율적으로 처리해 줌으로써 HR 담당자들이 보다 가치 있고 전략적 사고가 요구되는 일에 집중할 수 있도록 도와줄 수 있기 때문입니다.


반면, 이러한 생산성 향상은 장기적 관점에서 HR 담당자의 인력 감소로 이어질 가능성도 크다고 해석될 수도 있겠죠. 따라서 인사 담당자는 현재 역할에서 겪어볼 수 있는 다양한 업무를 경험해 보고, 업무의 어떤 부분이 보완 또는 대체될 수 있을지 검토해 보고, AI로 인해 변화하는 환경에 적응하기 위한 자신의 업무 역량 개발(Upskilling)(보러가기)에 집중해야 할 것입니다.





8. AI의 윤리적 사회적 책임 (AI ethical social responsibility)


AI 사용과 관련된 윤리적 문제들도 함께 고려해야 합니다. Business Ethics의 2023년 1월 기사 (Laura Illia, Elanor Colleoni 및 Stelios Zyglidopoulos 작성)(보러가기)에 따르면 ChatGPT와 같은 AI는 자동화된 허위 정보 및 조작된 정보의 유포, 대규모 저품질 콘텐츠 생산, 그리고 이해관계자 간 의사소통에서 증가하는 단절 등을 야기할 수 있어서라고 하는데요.


이러한 이슈와 관련해 OpenAI 웹사이트는 GPT-3와의 공동 개발 콘텐츠 사용을 위한 몇 가지 지침을 제공하고 있습니다. 해당 지침을 요약하자면 GPT와의 공동 개발로 생성된 콘텐츠는 기업에 손해를 끼치면 안 되며, 유해한 콘텐츠를 사용하지 않아야 하고, AI에서 생성된 콘텐츠를 사용했다는 점을 명확히 고지해야 합니다. 또한 콘텐츠가 게시자의 이름으로 귀속된다면, 해당 콘텐츠에 따르는 책임은 게시자 당사자에게 있다는 점을 인지해야 합니다.


ChatGPT를 HR 서비스에 대입하려면 챗GPT가 ‘튜링 테스트(Turing test)*’를 통과할 수 있을지도 관건입니다. 튜링 테스트란 기계가 인공지능을 갖추었는지 판별하는 실험으로, AI가 답한 내용과 실제 인사 담당자가 답한 내용을 비교해 봤을 때, 두 가지 답변의 주체를 구별할 수 없어야 한다는 것이죠. 튜링테스트 이외에 챗봇과의 상호작용 시 '예의'와 관련된 문제도 있습니다. 예를 들어 직원들이 이야기하는 상대방이 AI인지, 진짜 HR담당자인지 직원들에게 공개해야 하는 것인지 아닌지 말이죠.





9. 규정 (Regulations)


AI 기술을 미시적 관점에서 봤을 때, '윤리적 사용(ethical uses)'과 '남용(abuses)'이 서로 양극의 성향으로 연결될 가능성이 큽니다. 예를 들어 시장의 결정에 따라 AI 개발자들 스스로 합의된 규칙을 따르거나, 규제나 법률상 강제성을 띰으로써 자체적으로 윤리 규칙을 준수할 수밖에 없도록 강제하는 방식입니다.


이를 조직 차원에서 바라본다면, 기업 역시 AI 기술 사용이 야기할 수 있는 여러 영향력을 충분히 검토해 보아야 하며, 이를 가볍게 사용했을 시 초래하게 될 문제들을 충분히 고려해 봐야 한다는 점을 시사합니다. 개발자를 비롯해 실제 업무에 AI 툴을 직접 활용하는 직원들 역시, AI 시스템의 오·남용을 방지하기 위해 적합한 시스템, 정책, 절차를 마련해야 할 것입니다.










지금까지 ChatGPT의 주요 문제와 위험성에 대해 살펴보았습니다. ChatGPT에 대해 고려해야 할 부분들을 간접적으로나마 체감하셨을까요?


앞으로 ChatGPT는 고객 서비스 및 커뮤니케이션 부문에 있어 상당한 메리트가 될 것으로 예상됩니다. 동시에 회사가 ChatGPT를 활용함에 있어서도 충분한 검토가 필요하며, 보안 이슈나 윤리적 문제, 기업의 사회적 책임 등도 적극적인 관리가 이루어져야겠죠. 조직은 이러한 위험 요인들을 사전에 식별하고 완화하기 위한 조치를 취함으로써 중요한 데이터와 기업 평판은 보호하고, ChatGPT의 긍정적인 측면들도 십분 활용할 수 있게 되기를 바라겠습니다.


* 출처 : unleash, LinkedIn








함께 보면 좋은 콘텐츠



원문 보러가기




유익한 정보를 더 알고 싶다면?

더 많은 인사이트 보러 가기 >

뉴스레터 구독하기 >


www.ubob.com 
직원 교육을 넘어 기업 성장까지 함께 고민합니다.
작가의 이전글 기하급수시대와 위임
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari