brunch

You can make anything
by writing

C.S.Lewis

by Brian Cheong Jan 30. 2024

AI는 우리의 일자리를 어떻게 바꿀까?

    2023년 최대의 화두는 누구나 생성형 AI(Generative AI)였다고 말하지 않을까? ChatGPT의 가입자 수는 1억 8천만 명을 넘어섰고, 주간 이용자는 1억 명에 육박한다. 언론은 물론 너도나도 다 생성형 AI에 관해 이야기하고 있다. 이에 나도 한번 사용해 볼까, 생각해 보지만, 막상 어떤 질문을 해야 할지, 이 기술이 어떻게 내 업무나 회사에 적용될지 막막하다. 슬쩍 테스트를 해보니 결과물도 생각보다 대단한 것 같지 않고, AI는 아직 한참 멀었다고 생각하고 잊어버린 사람들이 대부분인 것 같다.


    이 글에서는 오픈에이아이(OpenAI)의 GPT-4와 같은 대규모 언어 모델(LLM)을 중심으로 AI 에이전트가 비즈니스 세계를 어떻게 변화시키고, 개인의 업무와 미래에 어떤 영향을 미칠지에 대해 이야기해 보고자 한다.


(아랫글 진행 중엔 이해 편의상 AI, AI 에이전트, 생성형AI(Generative AI), LLM을 섞어 사용했다. 기술적으로 따지면 모두 조금씩 다른 뜻을 가지고 있지만, 그냥 쓰기 쉽고 이해하기 쉬운 방식으로 혼용했다.)



생성형 AI 가 지식 노동자들에게 끼치는 영향은?



    AI가 지식 노동자 고용 시장에 미치는 영향은 생각보다 더 크고 광범위하다. 최근 한 연구에 따르면, ChatGPT와 미드저니(Midjourney) 출시 후 주요 온라인 프리랜서 플랫폼에서 카피라이터와 그래픽 디자이너의 일자리와 수입이 크게 감소하였다. 이는 생성형 AI의 생성물이 사람이 만들어낸 결과물과 직접 비교 경쟁이 대상이 되고 있다는 것을 의미하며, 그들의 직업에 직접적인 영향을 미치고 있음을 시사한다. 

OpenAI는 새로운 인공지능의 발전이 가장 높은 임금을 받는 직업들에 가장 큰 위험을 가져올 것으로 추정하고 있으며, 고임금 노동자가 상대적으로 저임금 노동자 보다 약 3배 더 위험에 노출되어 있다고 분석하고 했다. 이는 AI가 단순하고 반복적인 일자리뿐만 아니라 전문 지식을 필요로 하는 일자리에도 영향을 미칠 수 있음을 나타낸다.


    ChatGPT의 등장은 대부분의 기업 이사회에서 AI 전략에 대한 논의를 활성한 중대한 계기가 되었고, 실제로 AI 도입률도 더욱 급격하게 증대되었다. 생성형 AI 솔루션이 가치를 입증하고 다양한 업무 프로세스에 접목됨에 따라, 그 적용 범위는 앞으로 더욱 확대될 것으로 보인다.


    우리는 AI가 일자리를 단순히 대체하는 것이 아니라 변화시키고 있다는 점을 인식해야 한다. AI는 반복적인 업무를 자동화함으로써 직원들이 전략적이고 창의적인 작업에 더 많은 시간을 할애할 수 있도록 돕고, 이를 통해 생산성과 효율성을 향상해 비즈니스의 성장을 촉진하고 새로운 일자리를 창출한다. AI 기술은 이미 비즈니스 환경을 근본적으로 변화시키고 있으며, 산업 전반에 걸쳐 인력 구조와 직업 형태를 재편하고 있다.



생성형 AI가 생산성에 진짜 도움이 될까? 어떻게?


    대표적인 AI 솔루션인 깃헙 코파일럿(Github Copilot)은 소프트웨어 개발자를 도와 개발 프로세스의 속도를 높이고 오류 가능성을 줄여준다. 최근 공개된 자료에 의하면, 코파일럿을 사용한 개발자는 코드의 명확성과 작성 속도에서 70% 이상의 개선을 경험했다고 한다. AI의 도움은 초보 개발자에게 특히 유용하여, 코딩 기술을 더 빠르게 배우고 개선하는 데 도움이 되는 것으로 나타났다. 이는 생산성과 품질을 향상할 뿐만 아니라 학습 도구로서의 역할도 할 수 있는 AI의 잠재력을 보여준다.


    마이크로소프트의 AI 솔루션 코파일럿(Copilot)의 사용자를 대상으로 한 조사에 따르면 1) 이용자들은 미팅 진행, 이메일 작성, 문서 작성과 같은 작업에서 평균적으로 27%의 작업 속도 향상을 경험했다. 2) 독립적인 전문가 패널에 의한 평가에서는 Copilot을 통해 작성된 이메일이 명확성 면에서 18%, 간결성 면에서 19% 더 우수하다는 평가를 받았다. 3) AI를 활용한 사용자들은 다양한 출처로부터 정보를 수집하여 정리하는 데 있어서도 27% 더 빠른 성과를 보였다.


    하버드 비즈니스 스쿨은 최근 보스턴 컨설팅 그룹(BCG)의 직원들을 대상으로 GPT-4가 생산성과 업무의 퀄리티에 미치는 영향을 조사했다. 이 연구는 BCG 컨설턴트들이 일련의 컨설팅 작업을 수행하는 동안 GPT-4를 사용하도록 배정된 컨설턴트들이 도구를 사용하지 않은 동료들보다 더 생산적이었다는 것을 발견했다. 구체적으로, AI의 도움을 받은 컨설턴트들은 작업을 25% 더 빠르게 수행했으며, 12% 더 많은 작업량을 처리했다. 뿐만 아니라, 그들의 업무 품질은 AI를 사용하지 않은 동료들보다 40% 더 우수하다고 평가되었다.



    이 연구에서 발견된 재미있는 내용 중 하나는, 평가에서 하위 50%에 해당하는 사용자들이 AI 도구를 사용함으로써 43%의 성과 향상을 보인 반면, 최상위 사용자들은 17%의 향상을 보였다는 것이다. 이는 숙련도의 차이에 상관없이 모든 직원이 AI 활용의 이점을 누렸으나, 특히 기존에 낮은 평가를 받은 직원들이 더 큰 도움을 받았음을 의미한다. 이 결과는 인공지능이 사람들 간의 작업 수행 능력 격차를 줄일 수 있고, 구성원 모두에게 전반적인 업무 품질을 높일 수 있음을 시사한다.



    이 연구에서는 AI와 협업하는 방식에서 차이를 보이는 두 그룹에 대해서도 소개하고 있다. '사이보그'로 불리는 첫 번째 그룹은 AI와 긴밀히 협력하며 지속적으로 답변을 생성하고, 검토하며, 정제하는 방식으로 업무를 진행하는 반면, '켄타우로스'로 명명된 두 번째 그룹은 자신들의 전문 영역에 집중하면서 AI에 적합한 하위 보조 작업을 맡기는 방식으로 역할을 분담하는 모습을 보였다.


    마지막으로 연구에서 지적한 내용은 AI의 역할과 효과가 모든 업무 분야에 있어 동일하게 나타나지 않았다는 것이다. 특히, 문제에 대해 더 깊은 이해나 해결 과정에서 미묘한 판단을 요구하는 일부 작업에서는 AI가 위에 언급된 것과 같은 개선 효과를 제공하지 못했다. 이는 AI가 다양한 영역에서 생산성과 품질을 향상할 수 있는 잠재력을 가지고 있지만, 인간의 깊은 인지 능력과 전문성을 완벽하게 대체할 수 없다는 점을 보여준다.



그런데 왜 우리는 아직?


    수많은 연구 내용과 기사는 이미 변화된 세계에 대해 이야기하고 있다. 그런데 왜 나는 AI를 제대로 활용하지 못하고 있을까? 왜 내 주변에서는 아무도 AI를 사용하지 않는 것 같을까? 문제는 무엇일까?


    다양한 사람들과 업무에서의 AI 활용에 대해 이야기를 나누다 보면, 사람마다 AI에 대한 이해와 활용 능력에 큰 격차가 있다는 사실을 알 수 있다. 사람들은 생성형 AI의 역할, 능력, 한계에 대해 다양한 생각을 가지고 있으며, 이를 어떻게 활용하고 어떻게 작업을 맡겨야 하는지에 대해서도 다양한 모습을 보인다. 이는 AI 활용 능력에서 큰 격차로 이어진다. 이런 상황이 지속되면 사람들 간의 아웃풋 격차는 계속 커질 수밖에 없다.


    아직도 많은 사람들은 GPT와 같은 대형언어모델(LLM)을 단순한 검색 엔진으로, 혹은 단순한 지식 데이터베이스로 간주하고 있다. 그러다 보니 최신 이벤트에 대한 정보가 없거나 특정 전문 지식에 대해 정확한 답변을 하지 못할 때 LLM의 능력을 과소평가하기 쉽다.


    사실 우리는 GPT와 같은 LLM 모델을 추론 엔진(Reasoning Engine)으로 이해해야 한다. 추론은 관찰된 정보나 수집된 데이터를 분석하여 규칙성이나 패턴을 발견하고, 이를 바탕으로 미래의 사건에 대해 예측하거나, 더 깊은 이해를 위한 결론을 내리는 정신적 작업을 뜻한다. 이 과정은 정보의 연결고리를 찾아내고, 복잡한 문제에 대한 해결책을 제시하며, 새로운 아이디어를 창출하는 데 필수적이다. 지식 기반 사회에서 이러한 추론 능력은 과학자, 엔지니어, 의사, 변호사, 비즈니스 분석가 등 다양한 전문가들이 매일 업무에서 활용하는 핵심 능력이다. 다양한 연구 결과에 따르면 많은 분야에서 GPT-4의 추론 능력과 의사결정 능력은 이미 일반적인 사람의 수준보다 높게 평가되고 있다. LLM은 창의성, 혁신, 분석, 설득 등에서 중요한 역할을 할 수 있다.



대형언어모델(LLM)만으로는 부족하다.


    그런데 왜 내가 쓸 때마다 LLM은 항상 멍청한(부족한) 대답만 하는 걸까? 그것은 LLM이 단기 및 장기 기억력을 갖추지 못하고, 적절한 참조 자료 혹은 가이드라인을 가지지 못했기 때문이다. LLM은 제한된 컨텍스트 윈도우(Context Window)를 가지고 있어, 짧은 정보, 짧은 순간에만 집중할 수 있다. 너무 많은 정보를 한 번에 처리하려고 하면, 오히려 제대로 처리하지 못하고 전체적인 이해를 잃어버린다. 제대로 된 가이드가 없으면, LLM은 생각나는 대로 마구 이야기하기 시작하고, 없는 사실도 만들어내며, 중요한 사실을 잊어버리기도 하고, 잘못 기억하기도 한다.


    그럼에도 불구하고, LLM이 잠재적으로 강력한 역할을 할 수 있는 이유는 추론 능력을 기반으로 다양한 도구(Tool)와 지식 기반(Knowledge base)을 활용할 수 있기 때문이다. 이를 통해 LLM은 좀 더 정확한 정보를 바탕으로 더 나은 판단을 내리고, 다양한 도구를 사용해 실질적인 행동을 취할 수 있다. LLM의 성능은 극적으로 향상된다. 물론 그러기 위해서 올바른 데이터 소스와 적절한 도구의 선택은 LLM의 효과적인 활용을 위해 꼭 필요하다. LLM은 단순한 검색 엔진이 아니라, 추론 엔진이다.



어떻게 하면 AI에 일을 더 잘 시킬 수 있을까?


    AI에 하는 명령을 우리는 '프롬프트'라고 부른다. 그런데 어떤 프롬프트를 입력하느냐에 따라 우리가 받아보는 결과물은 완전히 달라질 수 있다.


    잠시 다른 이야기를 해보자. 여러분이 신입사원 혹은 인턴으로 일을 처음 시작했을 때, 다양한 사수를 만났을 것이다. 처음 업무 지시를 받아 일을 시작할 때를 생각해 보자. 좋은 사수는 업무의 목적을 잘 정의하고, 상대방의 능력과 경험을 잘 이해하며, 실행 방법에 대해 미리 조언해 주고, 실수할 수 있는 부분은 미리 알려준다. 그리고 구체적인 결과물에 대한 기대치까지 명확하게 전달한다. 이런 경우 능력 있는 부하직원은 업무의 목적을 명확히 이해하고, 요구하는 결과물을 내놓기 위해 최선을 다하기 훨씬 쉽다. 보통 이런 경우 최종 결과물도 더욱 좋기 마련이다. 반대로, 나쁜 사수는 업무에 대한 정의가 불확실하고, 상대방에 대한 이해가 없으며, 결과물을 추상적으로 요구한다. 당연히 그런 업무지시로는 좋은 결과물을 얻기가 어렵다. (나쁜 사수는 왜 결과물이 이것밖에 되지 않느냐고 또 트집을 잡겠지만…) 사실 AI와의 협업도 이것과 매우 비슷하다. 당연히 여기서 이야기한 좋은 사수가 훨씬 좋은 프롬프트를 작성할 수 있고, 더 좋은 결과물을 얻을 수 있다. 물론 개떡같이 말해도 찰떡처럼 알아듣는 부하직원이나 AI가 있다면 이상적이겠지만, 그건 아직 어려워 보인다.   


    1) 추론 엔진으로써 AI의 역할을 알고, 그 기능과 한계를 잘 이해하는 사람이 더 정교한 프롬프트를 설계할 수 있다. 2) 어떤 자료를 입력해야 하는지, 어떤 결과물을 원하는지 잘 아는 사람은 더 좋은 프롬프트를 작성할 수 있다. 이런 의미에서 업무 영역의 지식과 경험이 풍부한 사람이 더 좋은 프롬프트를 작성할 확률이 높다 3) 다양한 팀원들과 협업한 경험이 있는 사람들은 일반적으로 인공지능과 챗봇 플랫폼을 더 효과적으로 사용할 가능성이 높다. 이런 사람들은 AI로 하여금 더 정확하고 유용한 응답을 유도하는 데 능숙하다. 4) 업무를 구조화하는 능력 역시 프롬프트 설계에 중요한 영향을 미친다. 구조화된 사고방식을 가진 사용자는 목표를 분명하게 설정하고, 실행 과정을 잘 설계하며, AI에 필요한 정보를 효과적으로 전달할 수 있다. 이를 통해 복잡한 문제를 해결할 때 문제의 각 부분을 세분화하고 그에 맞는 프롬프트를 작성하여 AI의 능력을 최대한 활용할 수 있다.


    사용자는 AI의 응답을 전체적인 맥락에서 이해하고, 필요한 경우 추가 정보를 요청하거나 더 구체적인 질문을 이어갈 수 있다. (위에 언급한 사이보그 유형과 유사) 이러한 접근 방식은 AI와의 상호작용을 통해 더 나은 결과물을 얻는 데 결정적인 역할을 한다. 사용자는 AI가 제공하는 데이터를 분석하고, 전략을 수립하며, 의사결정을 하는 과정에서 AI의 강점을 잘 활용할 수 있다. 이를 통해 사용자는 AI의 응답을 최대한 활용하여 더 효율적이고 효과적인 업무 수행이 가능하다. 사실 이 능력은 AI를 활용한 업무뿐만 아니라 휴먼 직장 동료 간의 협업에도 매우 중요하다.



비영어권 사용자들의 영어 문제


    대부분의 LLM 개발은 영어권에 이루어진다. 영어는 국제적인 커뮤니케이션과 학술 연구에서 가장 널리 사용되는 언어이며, 영어 데이터에 대한 접근성은 다른 언어에 비해 훨씬 높다. 당연히 영어 훈련 데이터셋의 구성 또한 더욱 용이하다. 이러한 결과로, LLM의 영어 처리 능력은 다른 언어에 비해 월등하다. GPT-4와 같은 최신의 LLM은 다양한 언어에 대한 처리 능력을 향상하기 위해 비영어권 언어의 훈련 데이터를 사용하고, 다국어 학습 방법론을 개선하며, 특정 언어에 대한 특화된 훈련을 진행해 왔다. 하지만 이런 노력에도 불구하고, LLM 사용 시 영어와 다른 언어 간에는 여전히 성능 격차가 존재한다.



    GPT-4를 예로 들면, 프롬프팅이 영어와 다른 언어로 이루어질 때 결과물의 차이는 꽤 크다. 동일한 내용에 대한 질문도, 사용하는 언어 따라 결과의 정확도가 달라진다. GPT-4는 영어 질문에 대해 85.5%의 정확도를 보이지만, 한국어 질문에 대해서는 77%의 정확도로, 11%의 차이를 보인다. 이 차이는 얼핏 보면 크지 않아 보일 수 있다.


    하지만 더 복잡한 추론이 필요한 경우, 언어 간의 성능 차이는 더욱 두드러진다. 예를 들어, 복잡한 하나의 추론을 진행하기 위해, 세 가지 독립적인 추론이 필요한 경우, 각각을 정확하게 수행할 확률은 연속된 사건의 확률을 곱하여 계산한다. 영어로 세 가지 추론을 모두 올바르게 하는 확률은 대략 (0.855)^3, 즉 약 0.624이다. 한국어로는 (0.77)^3으로 계산할 때 약 0.456이다. 이는 한국어로 세 가지 독립적인 추론을 모두 맞출 확률이 영어에 비해 약 37% 낮다는 것을 의미한다.


    물론, 이 계산은 모든 추론이 완전히 독립적일 때에만 적용된다. 실제 상황에서는 추론 사이에 상관관계가 있을 수 있고 격차가 이만큼 크지는 않을 수 있다. 하지만 이러한 계산을 통해 우리는 언어 간의 결과물 차이가 얼마나 클 수 있는지에 대해 대략적인 이해를 할 수 있다.


    프롬프트와 사용 방식을 개선함으로써 이러한 문제를 어느 정도 극복할 수 있다. 언어에 상관없이 AI의 사고과정을 지정해 차근차근(Think step by step) 고민하게 하거나, 모든 과정을 논리적으로 세분화하여 처리하고 마지막에 다시 한번 검토하는 방식으로 성능을 개선할 수 있다. 물론 이 또한 다양한 실험과 개선의 노력(노가다)이 필요하다.


    적어도 현재 상황에서는, 영어 능력과 AI 활용 능력이 직접적인 상관관계를 가질 수 있다. 지금까지 계속 한국어로만 프롬프팅을 해왔다면, 이번엔 영어로 시도해 보길 권한다. 완전히 다른 결과를 얻을 수도 있다. AI 시대에 영어가 중요할까? 여전히 매우 중요할 가능성이 높다.



데이터 안전 이슈


    ChatGPT는 가성비가 매우 좋다. 무료 버전이 제공되며, Pro 버전을 사용하면 일정 시간 제약이 있긴 하지만, GPT-4를 계속 사용할 수도 있다. 같은 양의 테스크를 API를 통해 직접 연결하는 경우에는 훨씬 더 큰 비용이 발생한다. 왜 ChatGPT는 무료일까? 왜 더 저렴할까? 업계의 유명한 격언을 빌려 이야기하자면, 


"If you're not paying for the product, you are the product." 


즉, 당신이 비용을 지불하지 않는다면, 당신의 데이터가 바로 상품이라는 의미이다.


    LLM 기업들은 ChatGPT와 BARD와 같은 자사의 웹 기반 제품을 통해 사용자의 대화 데이터를 수집하고 이를 모델 훈련에 활용한다고 명시적으로 밝히고 있다. 이러한 플랫폼들은 사용자들에 의해 제공된 대화 데이터를 통해 데이터 부족을 해결하고, 다양한 사용 사례를 수집하여 모델을 개선하는 데 활용한다. 당신이 ChatGPT에 중요한 정보를 입력할 경우, 이 정보는 그들이 원하는 기간 동안 저장되어(as long as they want), 그들이 원하는 방식으로 훈련 과정에 사용될 수 있다. 이는 중요한 정보의 유출 가능성을 의미한다. 실제로, 최근에는 ChatGPT가 훈련 과정에서 사용된 이메일 주소를 결과물에 포함해 노출한 사례가 보고되기도 했다.



    위의 내용은 아마도 누군가의 이메일 내용이 훈련에 사용되었고 그 결과물이 어쩌다가 완전히 동일하게 튀어나온 경우일 것이다. 물론, 이는 당신이 ChatGPT에 입력한 업무 자료가 훈련 데이터로 사용되어 위와 같이 다른 사람의 결과물에 나타날 수도 있음을 의미한다.


    대안으로, 오픈소스 LLM을 On-premise 환경에 설치하는 방법도 있다. 이 방법을 채택하면 모든 데이터를 자신의 서버 내에서 관리할 수 있다. 그러나 이러한 시스템을 설치하고 안전하게 유지 관리하는 데는 생각보다 큰 비용이 들어간다. 오픈소스 LLM은 상용 모델보다 성능 면에서 여전히 상당한 차이를 보인다. 여러 벤치마크를 통해 최근 오픈소스 기반의 LLM 성능이 많이 향상되었다고 언급되긴 하지만, 실제 사용 환경에서는 벤치마크 점수가 반영하는 것보다 낮은 성능을 경험할 가능성이 매우 높다. 이런 문제는 특히 외부 지식 접근이나 도구의 사용과 같은 영역에서 더욱 두드러진다. 또한, 영어 외의 언어로 프롬프팅을 진행하고 결과물을 받을 때 그 격차는 더욱 커진다. 그리고 이러한 차이는 단기간에 해소되기 어려울 것으로 보인다.


    다음으로 GPT를 API 형태로 사용하는 방법이 있다. OpenAI, Microsoft Azure, Google, Anthropic은 모두 API 형태로 LLM을 제공하며, 이 경우 전달되는 데이터가 훈련용으로 사용되지 않는다고 명시하고 있다. API를 통해 필요한 데이터만 전송하게 되므로 전체 컨텍스트를 공유할 필요가 없다. 이를 완전히 안전한 방법이라고 할 수는 없다. 하지만 AWS나 GCP 등 다양한 클라우드 서비스가 처음 도입될 때 많은 기업이 유사한 우려를 했던 것을 기억해 보자. 결국 성능, 비용, 그리고 전반적인 효용성이 애초에 가졌던 우려를 뛰어넘었다. 만약 당신이 업무에 이미 AWS, GCP, Slack, Notion, Google Docs 등을 사용하고 있다면, LLM API 사용에 대한 추가적인 우려는 불필요할 수 있다. (별 차이가 없다)


    결론적으로, 현재 상황에서 가장 효과적이고 접근이 용이한 LLM 사용법은 GPT, Claude, Gemini의 API를 활용하여 자체 솔루션을 개발하거나, Kompas AI와 같이 LLM API를 간접적으로 이용하는 서비스를 사용하는 것이다.   직접 개발을 택할 경우, Retrieval-Augmented Generation (RAG)이나 시스템 프롬프트, 메모리, 도구 사용 등의 다양한 기술적 과제를 해결할 준비가 필요하다. LLM을 잘 활용하기 위해서는 여러 분야에 걸쳐 잘 알려지지 않은 세심한 튜닝(노가다)이 요구되며, 이는 상당한 전문성(삽질의 경험)을 필요로 한다.



그럼 우리의 업무에 어떻게 적용될 수 있을까?


    몇몇 연구를 통해 밝혀진 내용으로 LLM이 뛰어난 성과를 보이는 영역은 1) 창의성 및 혁신, 2) 분석, 설득, 관리, 3) 작업물에 대한 1차 피드백 제공, 4) 의사 결정 도움 및 또 다른 의견(Second Opinion) 제시 등으로 알려져 있다. 예를 들어, 작가나 디자이너는 LLM을 사용하여 텍스트나 디자인 컨셉의 여러 버전을 생성한 후 가장 적합한 것을 선택하거나 다듬을 수 있다. 비즈니스 분석가나 데이터 과학자 역시 LLM을 활용하여 데이터로부터 인사이트를 추출하고, 이를 추가 분석하여 정보에 근거한 더 나은 의사 결정을 더 빠르게 내릴 수 있다.


    위에서도 설명하였듯 LLM은 검색 엔진이 아닌 추론 엔진이다. 프롬프트에 명확한 목표, 작업 진행 방식, 기대되는 출력물 등을 잘 반영하고 올바른 지식, 도구를 연동시키면, 복잡하고 다양한 작업을 수행하고, 업무에 즉시 사용할 수 있는 고품질의 결과물을 얻을 수 있다. 



아래에 몇 사용 예시를 모아봤다. (좀 길다)



 1) 업무에 필요한 영문 메일은 정말 간단하게 작성할 수 있고


2) 간단한 시장 경쟁 보고서도 뚝딱 만들어낼 수 있다. 



3) 각종 전략 분석 프레임을 사용해 전략 분석도 해볼 수 있다.


4) 가설을 가정하여 잠재적인 시장 영향에 대해 분석해주기도 한다.



5) 데이터 던져 주면 (좀 뚝딱거리긴 하지만) 분석해서 시각화까지 해준다.


위의 예시에서 제시된 것 외에도, 


- 다양한 비즈니스 의사 결정 과정에 유용한 의견을 제시할 수 있다.

- 복잡한 리서치를 도와줄 수 있다.

- 복잡한 데이터를 처리하고 분석해줄 수 있다.

- 창의적인 기획안을 제시해줄 수 있다.

- 코딩은 물론 디버깅도 도와줄 수 있다.

- UX Writing을 도와줄 수 있다.

- 수많은 이력서를 자동으로 스크리닝 해줄 수 있다.

- OKR/KPI를 대신 작성하고 분배해줄 수 있다.

- 댜양한 문서의 자료를 분석해 보고서를 작성할 수 있다.

- 내 복잡한 생각을 대신 정리해 주고 우선순위 세팅을 도와줄 수 있다.

(그 외에 너무 많지만 너무 길어지므로 생략...)



    그런데 위에서 언급한 예시의 AI 에이전트는 사실 대부분 ChatGPT에서는 바로 실행하기 어렵다. 우선은  여러분이 다양한 프롬프트를 직접 작성할 수 있어야 한다. 그리고 조금 복잡한 태스크를 실행하려 하면 ChatGPT는 (자원 제약으로 인해) 작업을 거부하는 경우가 많고, 설령 실행하더라도 중간 단계에서 시간 제약(Timeout)에 걸려 중단될 가능성이 높다.


    이렇게 고도화된 AI 에이전트를 실행하기 위해서는 제약 없는 운영 리소스와 여러 차례의 반복 처리가 가능한 인프라가 필요하다. 기존 Code Interpreter의 60초 실행 제약 또한 뛰어넘어야 한다. 검색엔진은 Bing보다는 Google의 결과물이 훨씬 낫다. (비영어권에서 Bing 검색 결과물은 거의 재앙에 가깝다) 이러한 기능을 구현하기 위해서는, 자체 LLM 운영을 위한 인프라를 개발하고 AI 에이전트를 직접 세팅하거나 Kompas AI와 같은 서비스를 이용해야 한다. 앞서 언급한 결과물은 모두 Kompas AI를 통해 GPT, Claude 기반의 AI 에이전트를 사용하여 생성된 것이다.


    Kompas AI를 계속 언급하게 되는데, 이는 내가 Kompas AI를 개발하고 있기 때문이다. 이 기회를 들어 프로덕트 소개를 간단히 해보자면   

Kompas AI는 잘 설계된, 다양한 목적의 AI 에이전트를 제공한다. 이를 통해 사용자는 간편하고 신속하게 우수한 결과물을 도출할 수 있다. (현재 약 70여 종 제공)

Kompas AI는 Google 연동, 매우 높은 Iteration 횟수, 다양한 LLM 모델 지원, 강력한 Advanced Code Interpreter 등을 기반으로 훨씬 복잡하고 어려운 문제를 해결하는 AI 에이전트를 제공한다.

다양한 방식으로 다국어를 지원하여 비영어권 사용자도 좀 더 편리하게 더 나은 결과물을 얻을 수 있다.

팀 단위 사용자를 위한 기능도 갖추고 있어, 맞춤형 AI 에이전트를 생성하여 팀원 간에 공유할 수 있다.

무엇보다 Kompas AI는 데이터 거버넌스와 개인정보 보호에 대한 엄격한 정책을 통해 트레이닝 데이터의 사용을 배제하고, 사용자가 자신의 데이터를 완전히 통제할 수 있도록 보장한다.


궁금하신 분들은 https://kompas.ai 에서 free trial을 이용해 보시길



아직 AI를 활용하고 있지 않다면?


    Salesforce의 최신 리포트에 따르면 설문에 참여한 사람들 중 28%가 이미 AI를 자신의 업무에 활용하고 있다고 답했다. 이들 중 절반 이상인 51%는 AI 기술이 직업 만족도를 높일 것으로 기대하고 있으며, 44%는 AI 기술을 습득하지 못한 동료들보다 더 높은 급여를 받을 수 있을 것으로 전망한다.


    하지만 동시에 아직 많은 회사에서는 아직 AI의 업무 적용 가능성 및 방식 등에 대해 명확한 가이드라인을 내놓지 못하고 있다. 업무에 ChatGPT를 사용하는 사람들 중 55%는 회사의 공식적인 허가 없이 AI 서비스를 사용 중이라고 한다. 기업을 운영하는 리더들은 아직 AI 기술을 멀고 불완전한 미래의 기술로 인식하고 있는 것 같다. AI는 2023년에도 한 해 동안 비약적인 발전을 보여주었으며, 2024년에는 더 많은 변화가 예상된다. 지금이라도 우리는 AI 도구의 기능과 한계를 이해하고, 적절한 사용 정책을 마련해야 한다. 구성원들이 안전하게 데이터를 보호하면서도 새로운 기술을 충분히 활용하여 생산성을 높일 수 있게 해야 한다.


    마지막으로 세계 경제 포럼의 경제학자 Richard Baldwin이 한 말을 인용하면 “인공지능이 당신의 직업을 빼앗아 가진 않을 것이다. AI를 사용하는 사람이 당신의 직업을 빼앗아 갈 것이다! (AI won’t take your job, but someone who uses AI will!)” 나는 여기에 덧붙여 “인공지능이 당신의 회사를 망하게 하진 않을 것이다. AI를 효율적으로 잘 사용하는 회사가 당신의 회사를 망하게 할 것이다! (AI won't ruin your company, but a company that effectively uses AI will)”라고 말하고 싶다.


    늦었다고 생각할 때가 가장 이르다. 앞으로 우리가 겪을 전반적인 변화에 비하면, 우리는 아직도 변화의 초입에 와있다.   




경험과 지식이 일천하여 잘못된 내용 혹은 부족한 내용이 있을 수 있습니다.  지적해 주시면 개선할 수 있도록 하겠습니다.


참고자료:

1) https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4573321

2) https://www.salesforce.com/news/stories/ai-at-work-research/

3) https://github.blog/2022-09-07-research-quantifying-github-copilots-impact-on-developer-productivity-and-happiness/

4) https://www.ft.com/content/6f016bc2-8924-11da-94a6-0000779e2340

5) https://www.microsoft.com/en-us/worklab/work-trend-index/copilots-earliest-users-teach-us-about-generative-ai-at-work   


                    

작가의 이전글 앞으로의 계획

작품 선택

키워드 선택 0 / 3 0

댓글여부

afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari