brunch

You can make anything
by writing

C.S.Lewis

by David Han Jun 15. 2023

ChatGPT 활용의 한계점 및 향후  개선 방향

HR Professional 관점에서 본 인공지능의 한계와 개선방향

“귀납적인 경험에 의해 예측이 불가능한 시대를 살고 있습니다.”


우리는 살아가면서 끊임없이 예측을 하며 살아가고 있습니다. 기상 예보를 보고 우산을 챙길지 말지를 결정하고, 시장 동향을 보고 투자를 할지 말지를 결정하기도 합니다.  그러나 상식적이고 당연하게 받아들여졌던 예측이 현실과는 달리 역행하는 경우를 일상에서 수없이 발견하기도 합니다. 어느 날 우연히 본 책 서문의 “칠면조 이야기”는 이러한 상황을 완벽하게 요약해 줍니다.


칠면조가 한 마리 있었습니다 칠면조에게 주인은 매일 먹이를 가져다줍니다. 먹이를 받아먹을 때마다 인간은 ‘친구’라는 단어와 동격이 되었고, 그 종(種)은 순전히 ‘나를 위해서’ 먹이를 가져다주는 존재라고 굳게 믿게 되었습니다. 이런 일이 반복되는 여러 날이 될수록, 순진한 인류애가 ‘세상의 보편적 규칙’이라는 칠면조의 믿음 또한 확고해집니다. 추수감사절을 앞둔 어느 수요일 오후,  예기치 않은 변화가 칠면조의 생활에 찾아옵니다. 확신에 찬 믿음을 수정하게 될 상황을 강하게 직면하게 되었기 때문입니다.


이 이야기는 레바논 출신의 미국 금융 전문가이자, 《블랙스완》의 작가 나심 니콜라스 탈레브의 유명한 이야기입니다. 우리는 습관적으로 미래를 예측할 때 과거의 정보를 모아 귀납적으로 분석을 하곤 합니다. 그래서 ‘친절한’ 먹이를 정기적으로 받는 횟수가 늘어 갈수록, 앞으로도 ‘안정적으로 먹이를 받을 것’이라는 귀납적 추론은 당연해지기도 합니다.


여기서 나심 탈레브는 이런 선형적인 추론은 ‘평범의 왕국’에서는 가능할지 몰라도, 평균의 범위가 존재하지 않는 현대 사회와 같은 ‘극단의 왕국’에서는 맞지 않는 추론이라고 단언합니다. 그의 저서에서는 2008년 서브프라임 모기지론 사태, 2001년 911 테러, 1987년 블랙 먼데이 등 같은 단 한 번의 극단적인 사례(블랙스완)는 언제든 출현 가능하며, 예기치 못한 상황이 도래하면서 그 귀납적 추론이 무너 지게 된다는 이야기를 들려주며 귀납적 경험의 의한 지식이 얼마나 제한적이고 한계가 많은지를 알려주고 있습니다.


이처럼 예측이 힘든 경영환경에서, 무엇이 중요하게 되었을까요? 대표적인 능력이 바로 유연성과 적응력이라고 말할 수 있을 것 같습니다. 예측 불가능한 상황에 빠르게 적응하고, 새로운 상황에 유연하게 대응하는 역량이 강조되는 세상을 만나게 됩니다. 이러한 역량의 중요성은 인공지능 기술, 특히 자연어 처리(NLP) 분야에서 가장 선두를 달리는 Open AI의 ChatGPT활용에도 적용된다 할 수 있습니다.


ChatGPT는 다양한 경영환경과 예측 불가능한 상황에 대응하여 유용한 정보를 제공할 수 있습니다. 그러나 예측 불가능한 상황, 즉 '블랙스완'과 같은 상황에서 ChatGpt를 어떻게 활용할 수 있고 이를 어떻게 경영환경에 적용할 수 있을 까요? 이러한 질문은 HR Professional의 시각에서 본 ChatGpt의 한계점과 향후 개선 방향에 대해 논의를 통해 작은 실마리와 힌트를 줄 것으로 생각되었습니다.


그리고 이 글의 그 이슈를 온몸으로 경험하고 있는 주요 고민들을 글로 장황(!?!) 하리만큼 작성한 Chapter 이기도 합니다. 또한 ChatGPT의 유연성과 적응력을 어떻게 끌어내고 향상할 수 있을지에 대한 논의가 깊이 있게 필요하다는 것이 이 글의 주요 내용이기도 합니다.


ChatGPT를 활용함으로써 우리의 일상과 경영환경 그리고 업무에 변화가 조금씩 시작되었지만 여전히 HR 분야에 완벽하게 적용되기 위해서는 아직 극복해야 난제와 한계점들이 많음을 알게 되었습니다. 이러한 한계점들을 인지하고 이해하는 것은 인공지능 기술을 더 효과적으로 활용하고, 그 한계를 초월하는 데 도움이 될 것이라고 생각했습니다. 각 한계점들을 정의하고, 실제적인 예를 통해 이를 더욱 명확하게 이해하는 것 또한 필요하다고 생각했습니다. 그러기 위해서는 먼저 기본적으로 도구를 활용하고, 그 도구 활용에 한계점을 명확히 이해해야 의미 있게 도구를 사용하는 게 가능하다는 것이 이 글을 주제로 쓰게 된 주요 동기 이기도 합니다.


ChatGpt의 한계를 한마디로 표현한다면 “ChatGpt는 ‘만능(Perfect)’이 아니라는 점”입니다 다시 말해, ChatGpt는 인공지능 모델 중 하나로, 뛰어난 학습 능력과 종합적인 추론 능력을 가지고 있고, 기존에 배우지 않았던 문장이나 언어 표현을 스스로 창작할 수 있다는 점은 인공지능 전문가들도 동일하게 동의를 하고 있지만, 제작사 Open AI 사 측에서 직접적으로 언급한 근본적인 기술적 한계점 8가지가 주는 시사점은 정말 크다고 생각됩니다.


먼저 첫 번째로, ChatGpt는 기술적 한계의 핵심 사항 중 하나는 항상 학습 데이터를 기반으로 응답 내용을 생성한다는 것이었습니다. 이는 학습 데이터의 출처가 명확하지 않거나 제한적인 경우, ChatGpt가 제공하는 정보에 의존하는 것은 큰 리스크가 초래할 수 있다는 것입니다. HR 분야에서 정확하고 신뢰할 수 있는 정보는 무엇보다도 중요하며, 이를 위해 결국 인사관리자(HR)(인간)의 전문적인 가치판단과 운영경험이 무엇보다도 필요함도 강조되고 있습니다.


두 번째로, ChatGpt는 일반적인 상식과 추론 능력이 부족하다는 것입니다. 한 예로 인간이 간단히 종이를 접는 가장 기초적인 행동을 이해하는데 ChatGpt는 상당한 어려움을 겪습니다. 대규모 데이터로 학습하지만 여전히 학습형태가 사진 또는 text 형태로 이해하는 기술적 한계로 상식과 추론 능력은 여전히 현저하게 떨어진다는 것입니다. 왜냐하면 일상생활과 기본적인 내용을 이해하는데, 근본적인 어려움을 겪기 때문입니다.


HR 업무에서는 종종 복잡한 문제를 해결하거나 다양한 상황을 객관적으로 판단해야 할 때가 있습니다. 그러나 ChatGpt는 학습 데이터에 있는 패턴 데로 운영되기 때문에 새로운 상황에 대한 이해와 판단력이 제한적일 수밖에 없고 이는 인사관리의 의사 결정에 심각한 오류가 될 수 있기 때문입니다. 또한 이러한 상황이 장기적으로 노출될 경우 운영에 커다란 악영향을 미칠 수 있는 중요한 요소로 발전될 수도 있기 때문에 중요하게 고려되어야 할 한계 이기도 합니다.


세 번째로, 피드백 수용 능력이 부족합니다. ChatGPT는 사용자의 피드백을 실시간으로 학습하거나 적용하는 능력이 부족합니다. 인사관리자(HR)라면, 직원이나 후보자로부터 받은 피드백을 바탕으로 그들의 요구사항을 이해하고 공감하며, 개선 사항을 제안할 수 있습니다. 그러나 ChatGPT는 이러한 공감능력과 피드백 수용능력이 부족해, 피드백을 학습하고 응용하는 구조설계 능력이 현재는 많이 부족한 영역이기도 합니다.


네 번째로, 개별적 상황 인지 능력이 제한적입니다. ChatGPT는 개별적인 대화의 문맥을 이해하거나 대화의 배경을 인지하는 능력이 매우 제한적입니다. 이는 경영의 이슈들을 Clear 해야 하는 HR 담당자와 경영자들에게는 큰 단점이 될 수 있습니다. HR 담당자는 지원자 또는 임직원의 개인적인 상황, 그리고 그 상황이 어떻게 그들의 업무에 영향을 미칠지를 이해하는 데 중요한 역할을 해야 되기 때문이고, 이러한 이슈들이 장기적으로 해결이 안 된 다면 큰 문제로 발전할 수 있기 때문입니다.


다섯 번째로, 신뢰성과 일관성이 부족합니다. ChatGPT는 때때로 부정확하거나 모순된 정보를 제공할 때가 있습니다. 인사관리자(HR)에게 신뢰성과 일관성은 일의 성패를 가를 수 있는 매우 중요한 요소입니다. 그들의 판단은 종종 중대한 결정에 영향을 미치며, 이러한 결정은 직원의 삶과 경력에 심각한 영향을 미칠 수 있기 때문입니다. 이러한 면에서 ChatGpt의 디지털 기술은 여러 면에서 신뢰성과 일관성을 지속적으로 학습하여, 시스템과 의사소통 요소에 적용될 필요가 있습니다.


여섯 번째로 감성을 이해하고 대응하는 능력이 부족합니다. ChatGPT는 사용자의 감정 상태나 감성을 파악하고 적절하게 대응하는 능력이 제한적입니다. 인사관리자(HR)의 역할 중 하나는 직원들의 감정 상태를 이해하고, 그에 따라 지원하거나 대응하는 능력은 중요합니다. 이는 알고리즘이 단순히 텍스트 기반의 대화를 처리하는 현재의 ChatGpt로는 수행하기 어려운 영역이고, 근본적으로 개선해야 할 중요한 요소이기도 합니다.


일곱 번째로 변화에 대한 적응력 이슈입니다. ChatGPT의 학습 데이터는 2021년까지의 정보에 제한되어 있어, 그 이후의 변화나 발전을 반영하는데 에는 큰 어려움이 있습니다. 인사관리자(HR)의 핵심 역량 중에 변화하는 시장 트렌드, 기술의 변화, 법규 변화 등을 파악하고 이에 적응하고 활용하는 역량이 필수적으로 요구되는데, 초 격변하는 경영환경에 빠르게 대응하기 위해 최근 가장 기초적으로 요구되는 역량이기도 합니다.


여덟 번째로 윤리적인 고려 사항이 있습니다. ChatGpt는 학습 데이터를 기반으로 응답을 생성하기 때문에 비윤리적이거나 편향된 정보를 지속적으로 학습한다면 이러한 편향성이 지속적으로 영속화될 가능성이 있습니다. 인사관리자(HR)는 이러한 문제를 인식하고 적절한 기준과 프로세스 운영 기준을 정리하고 대응 방안과 실제적인 운영상 이슈를 고려해야 합니다.


결론적으로 해당 내용을 요약하면, ChatGpt는 HR 분야에서 유용한 도구일 수 있지만, 그 한계를 인식하고 적절하게 활용하는 것이 필요하며, 인간과 인공지능의 협업을 세밀하게 고려해야 HR 업무의 효율성과 정확성을 개선할 수 있고, 이러한 관점을 갖고 ChatGpt를 사용하는 것이 올바른 활용 방법이라 할 수 있겠습니다.


위 한계점에 대한 개선 방향은 기본적으로 전문분야를 세분화하여, ChatGpt의 학습 알고리즘에 더 많은 실시간 피드백을 통합하거나, 감성 인식 기능을 세부적인 사례 별로 개발하고, 인간이 할 수 있는 영역과 ChatGpt를 활용할 수 있는 영역을 좀 더 세분화, 협업의 영역을 구분하는 것이 절대적으로 필요하다는 것 또한 보여 주고 있습니다. 또한 시스템과 프로세스적으로 정리하여 운영하는 것이 현실적인 방안으로 또한 도출될 수 있음을 이야기해 주고 있습니다.


요약하면 인사관리자(HR)는 ChatGpt를 실제적인 보조 도구로 활용하는 것이 적합하다고 볼 수 있습니다. ChatGpt를 사용하여 일상적이고 반복적인 업무를 자동화하거나 정보를 제공하는 데 활용할 수 있지만, 의사결정이 필요한 중요한 문제에 대해서는 여전히 인간의 전문적인 판단과 경험이 필요하다는 말로 바꾸어 설명이 가능할 것입니다. ChatGpt의 결과를 검토하고 검증하는 역할을 수행하여 ChatGpt의 한계를 극복하는 것이 현실적이고 합리적인 활용방법이라고 사료되기도 합니다.


앞서 언급했듯 ChatGPT는 대화형 인공지능 시스템으로서 엄청난 양의 인터넷 텍스트 데이터를 학습하여, 복잡한 인간의 언어를 따라 하는 능력을 갖고 있습니다. 하지만, 이러한 학습 방식으로는 인간의 고유한 창의성이나 추론 능력을 완벽하게 모사할 수는 없습니다. 이런 한계점들은 인공지능을 개발하는 입장에서도 인정하는 부분이며, 향후 연구와 개발의 중점이 될 것입니다.


ChatGPT는 여전히 그 활용에 있어 여러 한계점을 가지고 있는 디지털 인공지능 도구이지만, 그럼에도 불구하고, 여전히 많은 잠재력을 지닌 도구인 것도 부정할 수 없는 사실입니다. 인간의 창의력과 결합하면, ChatGPT는 우리의 사고를 확장하고 새로운 아이디어를 제공하는데 많은 도움을 줄 수 있습니다. 실제 경영환경에서 전략보고서 및 기획서 작성 시에 AI를 보조 도구로 활용할 수 있습니다.


내용의 기본 틀에 아이디어를 얻어, 작성하고 해당 내용을 HR 담당자가 검증하여, 새로운 아이디어를 도출하고, 직무 완성도를 높이는 예는 이런 상호 보완적인 관계를 잘 보여 줄 수 있는 예가 될 것입니다. 더 나아가, ChatGpt와 같은 생성형 AI가 물리적인 로봇과 결합된다면 더 많은 가능성 또한 열어볼 수 있습니다. 카메라와 스피커 등의 센서를 통해 데이터를 입력받고, 실제로 행동하는 로봇에 ChatGPT를 결합하면, AI는 직접적인 경험을 통해 세상을 학습하고 이해할 수 있게 될 것이고 이를 통해 또 다른 차원에 인공지능 세계가 열릴 것이라고 확신합니다.


위에서 ChatGpt 활용에 한계점을 세부적으로 알아봤다면, 새로운 관점으로 향후 개선 방향 또한 고려해야 하는 인사 전문가로서 해당 기술의 장단점을 면밀히 이해하고, 이러한 도구를 활용하여, 현 조직과 직원들을 지원할 수 있는지에 대해 좀 더 의미 있는 분석이 필요하다고 생각합니다. 인간처럼 사고하고, 정서적으로 교감하며, 전략을 창의적으로 생각하는 AI가 아직은 미래의 먼 일 일수 있지만, 그 시대가 우리가 생각했던 것보다 조금 더 빠르게 다가오고 있다는 것이 분명함을 역설적으로 ChatGPT의 한계점들을 살펴보면서 이해하게 되었습니다.


이러한 변화가 정해진 미래이고, 준비된 미래 라면, 이 변화를 준비하는, 인사관리자로서 향후 개선방향을 좀 더 열린 시각으로 보는 것 또한 필요함도 이해하게 되었습니다. 불확실한 경영상황과 “위기가 기회”라는 변하지 않는 격언처럼 조직이 이 기술을 최대한 활용할 수 있도록 계획을 세우고 향후 개선 방향 또한 정리해 보는 것도 필요하다고 생각됩니다. 위에서 언급한 한계점에 대한 개선 방향을 좀 더 세부적으로 설명하면 아래와 같이 정리할 수 있겠습니다.


첫 번째로 정보 출처와 신뢰성에 대한 한계 극복을 위한 개선 방향입니다. 현재의 ChatGpt를 활용할 때, 한 예로 인사 담당자가 경력 개발에 대한 조언을 얻기를 원할 때, 그 학습 데이터가 어디서 왔는지 명확히 알 수 없습니다. 인사 담당자가 조직의 리더십 스타일에 대한 조언을 얻기 원할 때에도, ChatGpt는 광범위한 학습 데이터를 활용하지만 그 출처를 명확히 밝히지 않는 한계 또한 있는 것입니다.


이로 인해 정보의 신뢰성이 떨어질 수 있고, 이러한 한계점을 개선하기 위해, 학습 데이터의 출처를 명확히 표시하고, 사용자가 정보의 출처를 확인하고, 선택할 수 있도록 정리된 Microsoft Bing 검색을 보완적으로 이용하여, 출처표시와 정보의 웹주소와 소스를 기본적으로 제공하는 것을 좀 더 의미 있는 개선 방향으로 생각할 수 있겠습니다. 향후 이러한 부분들이 여러 영역에서 좀 더 세밀하게 활용되길 기대해 봅니다.


두 번째로 상식과 추론 능력의 한계에 대한 향후 개선 방향에 대한 이야기입니다.  인공지능과 ChatGPT는 데이터를 기반으로 한 패턴을 식별하는 데는 탁월하지만, 복잡한 인간의 감정이나 동기에 대한 깊은 이해는 어렵다는 것을 위 글에서도 언급했던 내용이었습니다. 요컨대, 인공지능과 ChatGpt 기술을 이용하여 한 직원이 회사를 떠나려는 이유에 대한 통계나 정량적이고 일반적인 이직과 퇴사 이유를 제공받을 수 있겠지만, 그 직원의 개인적인 상황이나 감정을 완벽하게 이해하거나 설명하는 데에는 여러 한계점을 가지고 있는 것은 사실입니다. 이러한 이슈를 인공지능을 이용한 종합적인 예측 모델링을 통해 조금 더 개선된 방향으로 인공지능과 ChatGPT를 활용하고 있는 기업의 예를 들 수 있겠습니다.


좀 더 자세히 설명한다면 이직 예측 모델링 작업을 통해 AI기술을 직원들의 이직 의사를 예측하는 데 사용합니다. 구체적으로는, 머신러닝 알고리즘이 직원들의 성과, 직무 만족도, 교육 이력, 급여 흐름 등 다양한 변수를 분석하여 이직 위험을 예측하고 이를 통해 HR 담당자는 이직을 준비하고 있는 직원들을 미리 알아채고, 적절한 조치를 취할 수 있습니다. 또한 퇴직한 직원들의 피드백을 분석하여 퇴직의 주요 원인을 파악하는 자연어 처리(NLP) 알고리즘을 사용하여 자유 형식의 피드백에서 중요한 키워드와 패턴을 추출하고, 이를 분석하여 HR 담당자가 퇴직률을 줄이는 데 필요한 구체적인 내용을 확인하고 정리할 수 있습니다. 해당 내용은 유수 다국적 기업이 이를 활용하고 있으며, 이러한 구체적이고 정량적인 사도들을 통해, 상식과 추론 능력을 개선하는 방법으로 제시될 수 있겠습니다.


세 번째로 피드백 수용 능력의 한계 개선방향입니다. ChatGPT의 피드백 수용 능력을 향상하려면 더 전문적이고 다양한 유형의 데이터를 사용하여 학습시키는 것이 무엇보다도 중요합니다. 요컨대 수많은 편향성 있는 정보보다, 이 방대한 량의 정보의 본질 또는 업의 본질의 핵심을 짚어내고 정리하는데 결국은 신뢰할 만 전문성 있는 전문가를 통한 피드백이 수용능력의 한계를 근본적으로 개선할 수 있는 방법 이기 때문입니다. 결과적으로 한 전문 영역 한 예로 HR 영역을 특화시켜, AI 피드백 수용능력을 획기적으로 개선하는 것입니다. 근본적으로 기술이 고도화된 사회와 조직과 회사 또한 결국은 신뢰할 수 있는 “사람”이 만든 학습 데이터가 핵심 경쟁력으로 더욱더 강조되고 있음을 보여 주는 실증적인 사례로 볼 수 있겠습니다.


넷째로, 개별적 상황 인지 능력을 개선하는 방향입니다. 결국 개별적 상황의 인지능력을 개선하기 위해서는 Context 즉 해당 이슈나 문제에 대한 전문가적 관점과 배경을 이해해야 하고, 이를 개선하기 위해서는 해당 분야의 지속적인 학습과 특정상황에 특화된 데이터 학습이 중요합니다.


HR 부문을 예로 언급한다면, 종합예술이라고 불릴 만큼, 전반적이고 통합적인 경영 이슈들을 Mission Clear 하기 위해서는, 지속적인 Case by Case Study, 방대한 Bench Marking 사례, 그리고 시기마다 해당 내용에 대한 트렌드 성격의 학습데이터가 필수적으로 업데이트되고, 지속적으로 학습 데이터 훈련이 병행되어 야만 개선 될 수 있는 인지 능력은 다양한 상황에 대한 history와 배경, 맥락에 대한 가중치 높은 학습이 결국 개별적 상황을 인지하는데 중요한 역할을 감당할 수 있기 때문입니다.


다섯 번째로, 신뢰성과 일관성이 부족의 개선 방향에 대해서는 다음과 같습니다. ChatGPT의 부정확하거나 모순된 정보 제공 및 신뢰성과 일관성 이슈는 , 부정확한 기본 학습정보와 편향된 왜곡 정보의 상충으로부터 나오는 평균값에 대한 피드백으로 나타나는 경우가 많습니다. 또한 HR 영역에서의 대표적인 예로, 편향적 학습데이터와 정보의 누락, 성과정보에 대한 다른 해석으로 시스템 반영이 잘못 이루어져, 검증 없이 라이브 하게 평가되어 결국에 직원의 경력과 회사의 조직문화를 크게 손상시키는 사례 또한 많았습니다.


이를 개선하기 위한 방법 또한 공통적인데, 인공지능 시스템에 사용자 피드백을 통한 의견 수렴을 하고, 이를 검증하여, 재 학습 하는 형태로 시스템을 개선하여 운영하는 형태로 시스템을 개선할 수 있습니다 또한 이를 통해 시스템상 편향성과 잘못된 정보를 제공받거나, 모순된 답변을 수정이 가능할 수 있고 주어진 정보를 좀 더 정확하게 해석하고 일관된 답변을 제공할 수 있도록 시스템을 개선하는 것입니다. 요컨대 특정상황에 대한   피드백과 조정이 그 핵심이라 할 수 있겠습니다.


여섯 번째로 감성을 이해와 대응하는 능력 개선 방향입니다. ChatGpt 3가 user가 사용했던 과거와는 조금 다르게 최근 ChatGpt Plus업데이트를 통해 제한적이나마, 대화 중 감정 파악능력이 향상되었습니다. 사용자의 텍스트에서 중에 긍정적인지, 부정적인지, 그리고 언어적 단어 선택의 감정의 강도가 어느 정도 인지에 대해 한계는 있지만, 이러한 기능들이 부가기능으로 더욱더 확대된 모습을 볼 수 있었습니다. 구체적인 예로 최근 IBM의 인공지능 시스템 Watson의 여러 기능 중 채용 또는 평가 피드백뿐만 아니라 일반 보고서나 이메일 답장 피드백을 통해 사용되는 직원의 감정상태를 분석하여, 직원들의 조직문화 및 복리후생과 업무 만족도를 높이고 그에 따른 적절한 지원이나 대응을 할 수 있는 능력들이 개선되는 방향으로 운영되는 사례로 볼 수 있겠습니다.


일곱 번째로 변화에 대한 적응력 이슈 즉 ChatGpt의 학습 데이터가 2021년 9월까지만  정보 제공 한계에 대해서는 확장 프로그램(Webchat, Alprm) 및 해당 Plugin 프로그램을 통해 인터넷과 연결되어 21년 9월 이후 또한 최신 정보를 제공함으로써, 현재 고정된 학습 데이터 기반 외 추가해서 새로운 정보를 지속적으로 학습할 수 있도록 기능을 추가하여, 새로운 시장 트렌드, 기술, 법규 등의 변화가 제한적으로 나마 가능하게 되었고, 해당 기술 들이 실시간 데이터와 연동되어, 실시간 뉴스 피트나 HR 데이터 베이스 또한 반영이 제한적으로 나마 기능이 될 수 있도록 응용프로그램을 추가하고 있습니다. 다만 ChatGpt 4.0에서는 현재 해당 플러그인이 업데이트 오류로 사용이 현재 제한되는 것으로 확인됩니다.


여덟 번째로 윤리적인 고려 사항 이슈 개선 사항입니다. Open Ai 공지에서도 알 수 있듯 ChatGPT 이용자는 일반 데이터 보호 규정과 개인정보를 엄격하게 요건을 제한해 13세 이하 어린이들은 서비스가 불가능하도록 권고하고 있습니다. 이는 부적절하고 민감한 내용이 13세 이하 어린이들에게 제공되는 것을 방지하기 위해서 나이 제한을 두고 있습니다. 또한 사용되는 데이터에 대한 개인정보 및 경영정보가 무차별로 유출될 수 있기 때문에, 사내에서 ChatGPT를 사용하는 것을 금지하고, 국내외 유수 기업들은 사내 보안망을 통행 제한을 두고 있습니다. 알고리즘의 투명성과 정보유출 및 보안기능 강화가 향후 여러 윤리적, 도덕적 법적 책임을 선제적으로 대응하기 위해, 개선 요소로 고려되는 사항입니다.


과거 일상의 회복으로 전환되는 시점에서 다양한 디지털 기술이 발전되었고, 새롭고 불확실한 경영환경에서 어떤 기술보다 큰 관심을 끌었던 NFT(Non-Fungible Token-블록체인 일명 : 코인)와 메타버스 기술은 팬데믹 기간 동안 어떤 기술보다 큰 관심을 불러왔으나 99% 자산 폭락과 메타버스 세상을 천명한 페이북 또한 뚜렷한 결과물을 내놓지 못한 가운데, 오히려 디지털 기술에 대한 회의감만 증폭시켰습니다. 이러한 디지털 기술에 대한 회의적 분위기 가운데 21년 11월 30일 오픈 AI 가 공개한 ChatGpt는 출시 2달 만에 월간 이용자수 1억 명을 돌파하면서 전반적인 흥행에 성공하면서 자타가 공인한 디지털 기술의 스타플레이어입니다.


하지만 미국 변호사, 의사 및 와튼스쿨 MBA를 통과한 ChatGpt가 역설적이게도 사람에게 당연한 “상식’인 종이 잡은 두 손 중 한 손을 놓을 때 어떤 일이 일어나는지에 대한 지극히 상식적인 대답조차 못하는 ChatGpt는 한편에서는 허당(!?)의 본보기로 비판을 받기도 했습니다. 더불어 기초적인 소통의 요소인 감정, 공감 능력이 어린아이보다 부족한 모습에는, 그 역량과 능력을 평가절하받기에 충분한 요소들을 가지고 있기도 합니다. 이러한 일면 때문에 일각에서는 ChatGPT가 그냥 환상적인 대화형 값비싼(!?) 장난감으로 치부되는 일도 있었습니다. 인공지능 시대의 화려한 개막을 알린 ChatGpt 에겐 너무나 불명예스러운 일이지만, 이러한 면을 바라보면서 ChatGpt의 민 낯을 의미 있게 이해하기도 하였습니다.


짧은 글에 모든 내용과 생각을 담을 수 없겠지만, ChatGpt 활용의 한계점 및 향후 개선방향의 글을 마무리하면서 이미 장황하리만큼 언급한 대표적인 한계점 8가지, 개선방향 8가지 총 16가지 항목을 구체적으로 정리 서술하면서 장미 빛 환상적인 만능기계로써의 인공지능이 아니라, 현실적인 민 낯의 ChatGPT 그리고 실제적인 장점과 한계를 적절하게 활용한다면, 업무처리에 있어서 뛰어난 효율성과 실시간 문제해결과 대응을 가능케 한다는 것을 의미 있게 배웠습니다.

또한 인공지능에 밀려난 폐품으로써 의 인간 또는 HR Professional 이 아닌, 인공지능 AI가 대체할 수 없는 창의력과 복잡하고 난해한 이슈에 대한 문제 해결 능력, 그리고 정서적인 상호 작용과 공감력을 무기로 주도적인 업무의 주체로써 의 가능성 또한 인식하게 되었습니다. ChatGPT 또는 인공지능 시스템을 단순하게 정보 조회 도구로써 만 사용하는 것이 아니라 경영환경에 맞춤화된 정보와 서비스를 제공하는 보조 파트너로서 사용하고, 급변하는 경영환경과 이슈들을 빠르게 Mission Clear 하는 디지털 도구를 활용하는 미래의 HR Professional 비전 또한 그려 보게 되었습니다.

마지막으로 한 문장으로 이 Chapter를 마무리하고자 합니다.


“세상에서 가장 무서운 사람은 한 권도 책을 읽지 않는 사람이 아니라, 책을 한 권만 읽는 사람이다”


그만큼 사고의 편협성과 지적 독선이 그만큼 위험하다는 이야기 일 것입니다. ChatGpt 활용과 한계점 및 향후 개선 방향이란 대주제를 정리하면서, 한쪽면만 강하게 본 나머지, ChatGPT와 인공지능의 위대함을 찬양하거나, 값비싼 성인 장난감(!?!)으로 인식하는 일이 없기를 바라는 마음으로 이 글을 작성하게 되었습니다. 객관적이고 균형적인 잡힌 시각에서 보는 인공지능 기술 ChatGpt는 좋든 싫든 이제 손끝의 기술로 우리들의 일상에서 현실화되고 있습니다.


막연한 환상이나 장미 빛 전망 또는 비관적인 무용론에 가까운 비싼 장난감의 인식하는 접근방법과 관점의 차이가 곧 미래와 기회를 여는 열쇠의 분기점이 될 것이고, 그 활용의 한계를 정확히 이해하고, 향후 개선의 방향 설정을 통해, 다양한 이슈와 난제들을 해결하는 디지털 도구와 업무 파트로써 ChatGpt 가 의미 있게 활용되길 기대하면서 이장을 마무리하고자 합니다.

--------

현) 외국계 펀드 운영 회사 경영지원실 그룹장
 외국계 및 국내 유수 대기업, 인수합병 및
 PMI  HR Professional로 25년 근무
 중앙대학교, 세종대학교, 명지대학교, KOTRA
 외 유수 대학,  HR 강의 및 특강 다수
 전) KOTRA 공기업 위원

작가의 이전글 인공지능 기술과 인사관리(HR) 활용
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari