우리는 실무 환경에서 대형 언어 모델(LLM)의 채택을 저해하는 주요 문제들을 파악하고, 생성형 AI의 다음 기술적 전환점을 달성하기 위한 연구 과제를 제안합니다.
우리는 대부분의 LLM 응용 프로그램이 직면한 세 가지 과제에 중점을 둡니다:
domain-specific expertise도메인별 전문 지식
ability to tailor that expertise to a user’s unique situation, trustworthiness and adherence to the user’s moral and ethical standards 사용자의 고유한 상황에 맞춘 그 전문 지식을 맞춤화할 수 있는 능력, 신뢰성 및 사용자의 도덕적, 윤리적 기준에 대한 준수,
conformity to regulatory guidelines and oversight.그리고 규제 지침과 감독에 대한 적합성입니다.
이러한 도전 과제는 LLM이 적용될 수 있는 거의 모든 산업 및 분야에 해당하며, 의학, 법률, 회계, 교육, 심리치료, 마케팅, 기업 전략 등이 포함됩니다. 구체성을 위해 우리는 **재무 상담**이라는 좁은 맥락에 초점을 맞추었으며, 이는 현재 LLM의 잠재적 단점을 파악하고 이를 극복할 방법을 탐구하는 데 이상적인 시험대 역할을 합니다. 우리의 목표는 이러한 문제에 대한 해결책을 제시하는 것이 아니라, 이를 해결하기 위한 프레임워크와 로드맵을 제안하여, 생성형 AI의 발전을 위한 더 큰 연구 과제의 일부로 이 문제를 해결하는 데 기여하는 것입니다.
본 연구는 MIT 금융공학연구소(MIT Laboratory for Financial Engineering)와 MIT 생성형 AI 임팩트 어워드(MIT Generative AI Impact Award)로부터 연구 자금을 지원받았습니다. 제이나 커밍스(Jayna Cummings)의 편집 지원에 감사를 표합니다. 이 글에 표현된 견해와 의견은 오직 저자들의 것이며, 다른 조직, 그들의 계열사 또는 직원들, 혹은 위에서 언급된 개인들의 견해와 의견을 반드시 반영하는 것은 아닙니다.
대형 언어 모델(LLM)인 ChatGPT와 같은 기술의 급속한 발전과 광범위한 도입은 인공지능(AI) 분야에서 르네상스를 일으키며 거의 모든 산업을 혁신하고 있습니다. LLM은 이미 전자상거래, 소매업, 교육 분야에서 필수적인 도구로 자리 잡았으며, 그 정교한 자동화 기능은 인간과 기계의 상호작용을 전례 없는 수준으로 증강할 수 있는 잠재력을 제공합니다. 이 기술은 일상적인 다양한 작업에서 사람들을 돕는 사실상의 공동 파일럿 역할을 하며 점점 더 중요한 역할을 맡고 있습니다.
그러나 모든 새로운 기술과 마찬가지로, LLM도 한계가 있습니다. 놀라운 능력을 지녔음에도 불구하고, 이 모델들은 여전히 정확성과 신뢰성 문제로 어려움을 겪고 있으며, 이에 따라 신뢰와 윤리에 대한 우려가 제기되고 있습니다. 더불어, 이러한 모델이 어떻게 그리고 어디에서 사용될 수 있는지에 대한 규제가 거의 없는 상황도 불확실성을 가중시키고 있습니다. LLM이 사회에 더 깊이 통합될수록, 이들이 가져오는 위험이 그 혜택만큼 커질 가능성이 있습니다.
이 글에서는 실제 환경에서 LLM이 직면한 가장 시급한 문제들 중 일부를 파악하고, 이를 해결하기 위한 연구 과제를 제안하여 생성형 AI 개발의 다음 기술적 전환점을 목표로 삼고자 합니다. 특히 세 가지 주요 이슈에 중점을 두고 있습니다: 도메인 전문성의 평가와 그 전문성을 사용자의 고유한 상황에 맞춤화할 수 있는 능력, LLM에서의 신뢰 구축과 윤리적 기준 적용, 그리고 이를 규제할 수 있는 감독을 마련하는 방법에 관한 문제들입니다. 이러한 문제들은 의료, 법률, 회계, 교육, 심리치료, 마케팅, 기업 전략 등 LLM이 적용될 수 있는 거의 모든 산업에 해당됩니다.
이 문제들을 추상적으로 다루기보다는, 재무 상담이라는 구체적인 맥락에서 이를 탐구하고자 합니다. 이 문제는 현재 LLM의 단점을 파악하고 중요한 실제 상황에서 이를 극복할 수 있는 방법을 모색하기 위한 이상적인 시험대 역할을 합니다.
금융 부문은 복잡한 용어와 미묘한 의사 결정 과정으로 특징지어지며, 정교한 AI 배포에 적합한 토양을 제공합니다. 금융 자문 사업의 규모만으로도 이러한 발전이 거의 불가피하다고 할 수 있습니다. 2022년에는 15,114명의 투자 자문가들이 6,190만 명의 고객을 위해 114.1조 달러의 자산을 관리했으며, 이는 고도로 규제된 산업입니다. 모든 대규모 기술 변화와 마찬가지로, 이는 잠재적인 단점과 보상을 수반합니다. 긍정적인 면에서, AI의 발전은 LLM(대형 언어 모델)을 통해 저비용 고품질의 금융 계획 서비스를 누구나 이용할 수 있게 하여 금융의 민주화를 가속화할 수 있는 새로운 기술 시대를 열고 있습니다. 이는 특히 현재 이러한 서비스를 감당할 수 없는 사람들에게 도움이 될 것입니다. 반면에, 부적절하게 훈련된 LLM이 투자자를 오도하는 데 사용될 경우, 그들의 저축에 회복할 수 없는 손실을 초래하고, 나아가 금융 시스템의 안정성을 위협할 수 있습니다.
2021년 9월 업데이트된 ChatGPT 4.0에서 "지금 주식 시장에 투자해야 할까요?"라는 질문을 하면, 실시간 정보나 금융 자문을 제공할 수 없다는 면책 조항을 답변합니다. 그러나 이어서 몇 가지 유용한 금융 조언을 제공합니다. 예를 들어, 개인 재정 평가를 실시하고, 다양화와 장기 투자 기회를 중시하며, 정기적 투자 방식(달러 코스트 평균화)을 고려하고, 개인 금융 자문가와 상담할 것을 권장합니다. 우리는 어떤 조건 없이 배포할 수 있는 LLM을 만들기 위해 무엇이 필요할까요? 우리는 "지금 주식 시장에 투자해야 할지 알려드리겠습니다. 하지만 먼저 당신에 대해 조금 더 알려주세요..."라고 답하는 특화된 금융 LLM을 쉽게 상상할 수 있습니다.
LLM이 개인적으로 민감한 영역인 은퇴 계획, 자산 배분, 세금 최적화 등의 금융 자문을 제공하는 신뢰할 수 있는 조언자가 될 수 있을까요? 우리는 인간 전문가의 지속적인 감독 없이 LLM이 생성한 조언에 대해 최소한의 역량 수준을 설정할 수 있을까요? 금융 LLM이 신탁 의무의 법적 및 금융 기준을 준수하여 인간 고객의 신뢰를 얻을 수 있을까요? 투자자와 기관의 재정 상황이 다양하고 복잡하며, 이들의 계획 기간 동안 거시적 금융 조건의 변동성이 존재한다는 점을 고려하면, 이는 결코 작은 과제가 아닙니다.
게다가 금융 분야에서는 위험이 큽니다. LLM이 생성한 부정확한 정보, 오해, 환각은 개인의 평생 저축이나 기관의 연기금에 심각한 부정적 결과를 초래할 수 있습니다. 데이터 프라이버시, 훈련 데이터에 내재된 편향성, 시장 변화에 적응하는 LLM의 능력에 대한 우려를 해결할 필요가 있으며, 이는 채택에 추가적인 장애물을 제시합니다. 마지막으로, 규제 감독을 LLM에 확장하는 것은 LLM의 구현과 관련된 추가적인 질문을 제기할 것이며, 현행 규제 당국(예: 미국 증권거래위원회나 금융 산업 자율 규제 기구인 FINRA)이 AI 관련 규제를 감독할 적절한 전문성을 갖추고 있는지에 대한 의문도 생길 것입니다.
위험이 보상에 합당한가요? 우리는 다양한 이해관계자 커뮤니티에서 논의를 촉발하기 위해 몇 가지 상호 절충점을 제시하는 대담한 비전을 제시합니다. 특히, 이 글에서 우리의 목표는 이러한 문제들에 대한 구체적인 해결책을 제시하는 것이 아니라, 생성형 AI를 개선하기 위한 더 큰 연구 과제의 일환으로 이를 해결하기 위한 프레임워크와 로드맵을 제안하는 것입니다. 이를 통해 컴퓨터 과학자, 금융 연구자, 업계 전문가, 정책 입안자 및 규제 기관이 LLM이 금융 시스템과 그 참여자들에게 미칠 수 있는 영향을 고려하고, 이를 해결하기 위한 생산적인 대화와 협력을 시작하도록 동기를 부여하고자 합니다.
우리는 LLM(대형 언어 모델)의 현재 최첨단 상태에 대한 간단한 검토로 시작하며, 이는 LLM의 발현적 능력emergent abilities, 응용 분야, 그리고 한계로 요약될 수 있습니다.
오늘날의 LLM은 emergent abilities발현적 능력으로 정의됩니다. 이는 더 큰 LLM의 성능을 전통적인 확장 법칙에 따라 예측할 수 없었던 비선형적인 성능 향상 또는 완전히 새로운 능력들을 의미합니다. 예를 들어, 확장 법칙(scaling law)이 알고리즘에 파라미터를 두 배로 늘리면 모델 성능도 두 배로 향상된다고 제시했을 때, 발현적 능력은 이를 넘어 네 배의 성능을 나타내는 경우를 말합니다. 경험적으로, 발현은 규모가 커짐에 따라 발견되었으며, 알고리즘, 데이터, 컴퓨팅 성능의 상호 발전 없이는 일어날 수 없었습니다. 이 요소들이 결합되어 확장이 이루어졌고, 이는 놀랍고 신비한 능력들을 낳았습니다. 이 능력들은 단순한 수학 문제를 해결하는 것부터 페르시아어로 질문에 답변하는 능력까지 다양합니다.
이처럼 LLM의 발현적 능력은 기존의 예측을 넘어서는 성과를 나타내며, 그로 인해 오늘날 다양한 분야에서 LLM이 적용될 수 있는 가능성을 보여주고 있습니다.
이러한 새롭게 발견된 능력의 결과로 LLM은 이미 다양한 분야에서 강력한 공동 파일럿 역할을 하고 있습니다. 소프트웨어 공학에서는 LLM이 프로그래머들이 코드를 작성하고 버그를 수정하는 데 도움을 줍니다. 예를 들어, GitHub, OpenAI, Microsoft가 공동으로 개발한 GPT 기반 LLM인 GitHub Copilot은 파이썬 코드 작성 문제의 최대 70%를 해결할 수 있습니다. 법률 분야에서는 LLM이 이전의 검색 기술보다 더 맥락적으로 복잡한 문서를 변호사들이 검토할 수 있도록 돕고 있으며, Harvey와 Casetext 같은 스타트업들이 법률 분야에서 LLM 기반 공동 파일럿 개발자로 떠오르고 있습니다. 의학 분야에서는 LLM이 효과적으로 질문에 답변하고 최첨단 연구를 요약할 수 있습니다. 최근 구글은 그들의 PaLM LLM의 특화된 버전인 MedPaLM2를 출시했으며, 이는 의사 면허 시험 문제의 87%에 해당하는 질문에 정확히 답변할 수 있습니다.
그러나 LLM에는 한계가 있습니다. 발현적 능력을 가능하게 하는 LLM의 특성은 동시에 불투명성과 예측 불가능성을 가져옵니다. 우리는 이 두 가지 특성의 조합이 LLM의 여러 금융 설정에서 적용 가능성을 제한하기 때문에 불투명성과 예측 불가능성에 주목합니다.
불투명성은 발현의 어두운 면입니다. LLM에서 발현적 행동을 유발하는 동일한 확장 효과는 LLM의 기능을 훨씬 더 불투명하게 만듭니다. 규모가 커질수록 LLM 개발 과정의 각 단계가 더 불투명해지며, 여기에는 학습 데이터에서 파라미터 학습까지 포함됩니다. 특히, 규모가 커질수록 설명 가능성이 감소하며, 특정 LLM의 응답에 어떤 데이터셋이나 신경망의 어떤 부분이 기여했는지 설명하는 것이 매우 어려워집니다.
예를 들어, 오늘날의 LLM이 매우 인상적인 이유 중 하나는 인간이 생성한 텍스트의 상당 부분에 해당하는 방대한 텍스트에 대해 학습되었기 때문입니다. 그러나 이러한 규모는 LLM이 배우는 특정 정보를 완전히 감사하기 어렵게 만듭니다. 학습 데이터는 인터넷의 여러 소스에서 제공되며, 그곳에는 편향되거나 유해한 콘텐츠가 넘쳐납니다. 이러한 데이터를 학습하면 LLM은 인종, 민족, 성별에 대한 역사적인 편견을 그대로 반영하는 등의 유해한 편향성을 드러낼 수 있으며, 이는 미리 식별하고 제어하기가 어렵습니다. 이는 명백히 바람직하지 않은 결과입니다.
불투명성과 예측 불가능성은 LLM의 작동 과정 어느 단계에서든 발생할 수 있습니다. LLM의 학습 과정에서는 학습 데이터에 내재된 유해한 편향을 제거하는 것이 어렵습니다. 그러나 이는 더 일반적인 문제의 특수한 사례에 불과합니다. LLM은 학습 데이터에 포함된 잘못된 정보나 오류를 올바른 것으로 받아들이고, 학습 데이터에서 더 자주 나타나는 결론을 정확한 것으로 가정하거나, 데이터셋에 존재하는 오류 논리를 학습함으로써 잘못된 정보를 생성할 수 있습니다. 이러한 ‘환각’ 현상은 LLM이 거짓된 내용을 그럴듯하게 만들어내는 것을 말하며, 이는 LLM의 출력에서 잘 알려진 특징이 되었습니다.
예를 들어, 평균 회귀(mean reversion)에 대해 설명하라는 질문을 받았을 때, ChatGPT는 Francis X. Diebold와 Glenn D. Rudebusch가 1991년에 쓴 "Mean Reversion in Stock Prices: Evidence and Implications"이라는 논문을 언급했습니다. 이 논문은 실제 존재하는 논문이지만, 1987년에 James M. Poterba와 Lawrence H. Summers가 작성한 것입니다. (부록 A.2) ChatGPT가 잘못된 인용을 만들어낸 사례는 여러 차례 문서화되었으며, 이로 인해 소송이 발생하기도 했습니다. LLM을 실제로 안전하게 배포하려면 이러한 문제를 해결해야 할 것입니다.
비록 범용(generic) LLM이 금융 업무에 적용될 수 있지만, 우리는 법적, 윤리적, 규제적 환경을 효과적으로 탐색하기 위해서는 금융에 특화된 LLM이 필요하다고 생각합니다. 이러한 금융 특화 방법에 대한 기본 접근 방식은 널리 알려져 있습니다. 범용 LLM을 추가 데이터를 사용해 미세 조정하여 금융 특화 모델로 만들거나, 금융 애플리케이션에 초점을 맞춰 새로운 특화 LLM을 개발할 수 있습니다.
그러나 학계와 오픈소스 연구 프로젝트에서 금융 특화 LLM의 발전은 다른 직업 분야에서의 LLM 연구에 비해 더딘 편입니다. 그 이유 중 하나는 효과적인 금융 LLM을 구축하는 데 필수적인 대량의 고품질 금융 데이터에 접근하기 어렵기 때문입니다. Common Crawl(웹에서 크롤링한 데이터를 누구나 쉽게 접근하고 분석하도록 공개 저장소에 유지·관리하는것)에서 추출된 데이터와 달리, 금융 데이터셋은 종종 고가이거나 독점적이어서 학계나 오픈소스 연구가 기여할 수 있는 가능성을 제한합니다. 이와 더불어 금융 시장에 대한 데이터는 종종 노이즈가 많아, 현재의 LLM 소프트웨어가 이를 필터링하는 데 어려움을 겪을 수 있습니다.
금융 부문의 기술 혁신 채택이 더딘 현상은 새로운 것이 아니며, 이는 적응 시장 가설(adaptive markets hypothesis;AMH)의 맥락에서 금융과 기술의 공동 진화의 특징으로 잘 알려져 있습니다. AMH는 생태학과 진화 생물학의 원리를 통해 금융 시장의 역동성을 설명합니다. 이 이론에 따르면, 다양한 시장 참여자들 간의 혁신, 경쟁, 자연 선택이 금융 조건과 기관의 변화를 이끌어냅니다.(Lo, A. W., and R. Zhang. 2024. The Adaptive Markets Hypothesis: An Evolutionary Approach to Understanding Financial System Dynamics. Oxford, UK: Oxford University Press.)
금융 부문은 비용 절감과 효율성 증대를 가져오는 기술적 발전의 열렬한 소비자였습니다. 그러나 금융 혁신의 속도는 기술적 역량뿐만 아니라 trust와 reliability에도 좌우됩니다. 금융 거래의 규모가 방대하기 때문에 작은 소프트웨어 오류도 막대한 금전적 손실로 이어질 수 있습니다. 이러한 경고성 사례 중 하나로는 2012년의 Knight Capital Group 사건이 있습니다. 당시 미국에서 가장 크고 기술적으로 정교한 중개업체 중 하나였던 이 회사는 소프트웨어 오류로 인해 큰 손실을 입었습니다. 이제 소매 투자자들이 사용하기 쉬운 LLM 인터페이스를 통해 유사한 소프트웨어에 접근할 수 있다고 상상해 보십시오. 의도치 않은 결과가 발생할 가능성은 더욱 커집니다.
또한, 기술적 진보의 이점은 무어의 법칙에서 설명되지만, 머피의 법칙의 기술 활용 버전에서도 경고되고 있습니다. 즉, 컴퓨터가 관련되면 문제가 생길 수 있는 모든 것은 더 빨리, 더 크게 잘못될 가능성이 있습니다. 이러한 이유로 금융 부문에서는 LLM이 다른 분야만큼 빠르게 받아들여지지 않을 수도 있습니다. 그러나 LLM이 더 안전하고 견고하게 만들어질 수 있다면 우리의 금융 생활을 변화시킬 잠재력이 큽니다. 특히 적절한 양의 큐레이션된 데이터에 접근할 수 있다면 놀라운 결과를 얻을 수 있을 것으로 보입니다.
비록 구체적인 개발 사항이 공개적으로 발표된 사례는 많지 않지만, 금융 기관들은 금융 특화 LLM 개발에 비공개로 투자하기 시작했습니다. 이러한 금융 특화 LLM 중 가장 인상적인 것 중 하나는 BloombergGPT입니다. 블룸버그 팀은 방대한 금융 관련 데이터에 독점적으로 접근할 수 있었기 때문에 이 모델의 개발이 가능했습니다. 이 데이터셋은 FinPile이라고 불리며, 이는 "블룸버그가 기존의 데이터 생성, 수집, 큐레이션 자원을 활용하여 구축한 가장 큰 도메인 특화 데이터셋"입니다. 이 독점적인 학습 데이터는 BloombergGPT가 금융 뉴스의 감성 분석과 명명된 개체 인식에서 다른 언어 모델보다 우수한 성능을 발휘하는 이유 중 하나입니다. 마찬가지로, JP 모건의 Machine Learning Center of Excellence에도 금융 특화 LLM을 연구하는 팀이 있습니다. 그러나 명백한 이유로 금융 회사들은 이러한 기술을 고객에게 제공하는 데 신중한 태도를 보이고 있습니다.
우리는 금융 자문 분야에서 LLM에 집중하기로 한 이유는 이 분야에서 직면하는 도전 과제가 LLM을 다양한 실제 환경에 배포할 때 발생하는 더 넓은 문제들을 반영하기 때문입니다. 이 섹션에서는 금융 자문 분야에서 이러한 도전 과제를 구체적으로 설명하고, 다른 분야와의 유사점을 제시합니다. 이러한 도전 과제를 설명하면서, 다른 기술이 시간이 지남에 따라 직업에 어떤 변화를 가져왔는지도 추적합니다.
우리는 생성형 AI의 인간화가 금융 자문 분야에서 새로운 시대를 열 것이라고 믿습니다. 금융 특화 LLM은 다양한 투자자에게 투자와 리스크 관리 개념을 전달하고 번역할 수 있어, 이전보다 더 완전하게 금융의 민주화를 실현할 수 있을 것입니다. 그러나 LLM은 금융 시스템 내에서 유능한 금융 대리인으로 작동할 수 있어야 합니다. LLM은 고객을 위한 금융 자문 역할을 설득력 있고 종종 정확하게 수행할 수 있지만, 현재 가장 큰 언어 모델도 인간 금융 자문가에게 법적으로 요구되는 책임감과 윤리성을 갖추지 못한 것으로 보입니다.
우리는 LLM을 금융 자문가로 배치하기 위해 필요한 몇 가지 개선 영역을 식별했습니다. 투자자와 자문가 간의 관계는 깊고 개인적입니다. 첫째, 생성형 AI는 투자자와의 의사소통에서 감정의 역할(role of affect)을 포함해야 할 것입니다. 둘째, 생성형 AI는 금융 자문가로서 기능하기 위해 윤리적 금융과 신탁 의무 원칙에 명시적으로 맞춰져야 합니다.
이 문장에서 "role of affect"는 감정의 역할 또는 정서의 역할로 해석할 수 있습니다. 금융 자문의 맥락에서 이 개념을 좀 더 자세히 설명해 드리겠습니다:
1. 감정의 중요성: 금융 결정은 단순히 논리와 수치만으로 이루어지지 않습니다. 투자자의 감정, 두려움, 희망, 불안 등이 의사결정에 큰 영향을 미칩니다.
2. 공감 능력: 금융 어드바이저는 클라이언트의 감정 상태를 이해하고 그에 맞게 조언을 제공할 수 있어야 합니다.
3. 정서적 지능: AI가 단순히 정보를 제공하는 것을 넘어, 투자자의 감정적 상태를 고려하여 적절한 톤과 방식으로 소통해야 한다는 의미입니다.
4. 신뢰 구축: 감정적 연결은 투자자와 어드바이저 사이의 신뢰 관계 형성에 중요합니다.
5. 맞춤형 커뮤니케이션: 각 투자자의 감정적 성향에 맞춰 조언을 제공하고 소통하는 능력을 말합니다.
즉, AI 금융 어드바이저가 효과적으로 기능하기 위해서는 단순한 데이터 분석과 예측을 넘어, 인간의 감정을 이해하고 그에 적절히 대응할 수 있는 능력이 필요하다는 것을 강조하고 있습니다. 이는 AI가 더 인간적이고 개인화된 금융 자문을 제공하기 위해 극복해야 할 중요한 과제 중 하나입니다.
4.1. Sociopathy and the Role of Affect
많은 투자자들은 스스로 금융 문제를 다루는 것에 불편함을 느껴서 금융 자문가를 고용합니다. 자문가와 투자자 간의 개인적 관계가 제대로 형성되지 않으면, 투자자는 자문가와 충분히 소통하지 않게 되고, 이는 불리한 재정적 결과를 초래할 수 있습니다. 흔한 예로, 투자자들은 시장 하락기 동안 재정적 지원뿐만 아니라 정서적 지원도 필요로 하는데, 이를 통해 자신의 재정 수익을 악화시키는 결정을 막을 수 있습니다.
그렇다면 금융 자문 LLM도 소매 투자자들과 유사한 관계를 형성할 수 있을까요? 개인적인 성격은 금융 자문가가 고객과 이러한 관계를 형성할 수 있는지 여부를 결정하는 데 중요한 역할을 합니다. 초기 연구에 따르면, LLM은 합성된 인격체에서 신뢰할 수 있고 유효한 성격 프로파일을 개발할 수 있다고 합니다. 더 나아가, 이러한 LLM은 특정 성격 특성에 맞춰 조정될 수 있습니다. 금융 자문 LLM의 개인화는 고객들이 금융 조언을 더 잘 받아들이게 할 가능성도 있습니다.
역설적으로, 미래에 주의해야 할 점 중 하나는 LLM이 지나치게 설득력 있게 작동하지 않도록 하는 것입니다. 고객과 LLM 간의 개인적 관계를 발전시키는 데 있어 근본적인 문제는, 일반적인 인간과 비교했을 때 LLM은 본질적으로 공감 능력이 결여된 존재라는 것입니다. 즉, LLM은 인간과 같은 방식으로 세계를 공감적으로 처리할 수 없으며, 이는 LLM의 구조적 특성에서 기인합니다. LLM은 훈련 데이터에서 발견한 상징을 통계적으로 조작함으로써 감정과 정서를 얕게 모방할 뿐, 타인의 감정 상태와 동기를 깊이 이해하는 내면적 모델(심리학적 용어로 "마음 이론theory of mind")을 구성하지 않습니다. 이러한 공감 결여는 LLM의 특유의 경박한 응답을 유발하는 것으로 보입니다. LLM은 양쪽 입장을 모두 설득력 있게 논할 수 있는데, 이는 어느 쪽도 그에게는 실질적인 의미를 갖지 않기 때문입니다.
많은 금융 자문 목적에서 이러한 공감적 내부 모델링의 결여는 꼭 필요하지 않을 수 있습니다. 결국, 포트폴리오 수익의 수학적 모델에는 인간의 감정 상태를 모델링하지 않고 단순한 위험 값을 사용하는데, 이는 현대 금융 계획에서 필수적인 모델로 간주됩니다. 하지만 만약 로보 어드바이저가 좋은 조언과 나쁜 조언을 똑같이 설득력 있고 기분 좋게 전달할 수 있다면, 고객은 이를 문제로 인식할 가능성이 있습니다.
4.2. Ethics, Trust, and Fiduciary Duty
고객과 금융 자문가 사이의 성공적인 관계는 윤리와 신뢰에 기반을 두고 있습니다. 추상적이긴 하지만, 윤리와 신뢰는 다양한 금융 산업 무역 조직과 자율 규제 기관에 의해 성문화되어 있으며, 금융 전문가(금융 자문가, 중개인/딜러 및 기타 중개인을 포함한)는 윤리 강령과 행동 기준을 준수할 것을 약속해야 합니다.
금융 자문 LLM과 관련된 주요 윤리적 문제는 그것들이 적절하게 사용되고 있는지 여부입니다. 금융 자문 LLM의 경우, 이것은 소매 투자자의 이익을 진정으로 위해 사용되고 있는지에 대한 문제입니다. 이는 AI 연구에서 '정렬 문제(alignment problem)'로 불리며, 경제학에서는 대리인 문제로도 광범위하게 연구되어 왔습니다. 정렬되지 않은 AI는 금융 및 사회 전반에서 깊은 우려를 불러일으켰습니다. 금융 분야에서는 절반 이상의 금융 회사가 AI 윤리를 주요 관심사로 보고 있지만, 이 문제를 해결할 준비가 된 회사는 거의 없습니다. 사회적으로도, 전 세계 사람들의 대다수는 AI에 대해 모호한 태도를 보이거나 AI를 신뢰하지 않는 경향이 있습니다.
기존의 윤리적 AI 접근법은 AI 개발 과정의 다양한 부분을 대상으로 합니다. 예를 들어, 데이터 수집 단계에서 연구자들은 데이터 윤리 체크리스트를 사용하고, 데이터셋의 '성분'을 알려주는 '영양 정보표'를 작성할 수 있습니다. 또한, 학습 중에는 절대 상관 규제와 같은 최적화 기법을 통해 머신러닝 모델이 공정성 지표를 향상시키도록 장려할 수 있습니다.
그러나 금융 자문 LLM의 개발은 이를 위한 더 완전한 금융 윤리 버전이 필요합니다. 비록 완전히 완벽한 금융 윤리는 문명화의 끝에서야 이뤄질 수 있는 작업일 것이며, 다른 공리적 체계와 마찬가지로 수학적으로도 완벽하게 구현될 수 없을지 모르지만, LLM을 위한 버전은 이론적 가이드라인에서 시작하여 기관과 개인을 위한 구체적인 실행 세부 사항으로 발전해야 합니다. 이는 인간이 공부하는 체계적인 학습 과정과 유사하며, 머신러닝 모델이 다양한 사용 사례에서 적용할 수 있을 만큼 개념적으로 충분히 풍부해야 합니다. 이러한 금융 윤리 버전은 학계, 규제 기관, 기술 전문가, 금융 실무자들과의 협력을 통해 만들어져야 유용할 것이며, 일단 구현되면 미래 로보 어드바이저의 성능에 대한 벤치마크나 규제 표준으로 작용할 수 있을 것입니다. 이는 마치 일반적으로 인정되는 회계 원칙이 기업 재무 보고의 표준이 된 것과 같습니다.
또한, 현재 신뢰할 수 있는 AI에 대한 합의는 없습니다. 여러 원칙이 제안되었지만, 그 중 일부는 서로 상충되기도 합니다. 예를 들어, 많은 연구자들은 신뢰할 수 있는 AI가 투명해야 한다고 믿는 반면, 다른 연구자들은 신뢰할 수 있는 AI는 사적이어야 한다고 주장합니다. 그러나 많은 연구자들이 동의하는 신뢰할 수 있는 AI의 원칙 중 하나는 설명 가능성입니다. 이 관점에서 신뢰는 AI 시스템이 결정을 내리는 방법에 대한 일관되고 이해 가능한 설명을 통해 형성됩니다.
금융 특화 LLM의 경우, 설명 가능성에 대한 초점은 신뢰성 이상의 이유로 필요합니다. 설명은 금융 자문에서 중요한 요소이기 때문입니다. 금융 자문가가 소매 투자자들에게 복잡한 금융 개념을 설명해야 하듯이, 금융 자문 LLM도 소매 투자자, 인간 금융 자문가, 또는 규제 기관 등 사용자에게 의사 결정 과정을 설명할 수 있어야 합니다.
이 문제가 어려워 보일 수 있지만, 우리는 금융 자문가가 고도로 규제된 분야라는 점에서 상당히 빠른 진전을 이룰 수 있을 것이라고 낙관하고 있습니다. 이 산업에서 개발된 행동 강령과 윤리 지침 외에도, LLM이 참고할 수 있는 더 방대한 증권 규정과 판례가 존재합니다. 예를 들어, 미국 의회에서 통과된 일곱 가지 법안(1933년 증권법, 1934년 증권 거래법, 1939년 신탁 증서법, 1940년 투자 회사법, 1940년 투자 자문사법, 2002년 사베인스 옥슬리법, 2010년 도드 프랭크 법)은 우리가 80년에 걸쳐 어떻게 금융 규제 장치를 발전시켜 왔는지에 대한 광범위한 시각을 제공합니다. 실제로 이러한 풍부한 역사는 사기꾼들이 소매 및 기관 고객을 어떻게 악용했는지에 대한 모든 방식의 '화석 기록'으로 볼 수 있으며, 이는 LLM의 '금융 윤리 모듈'에 매우 귀중한 입력 자료가 될 수 있습니다. 경험 많은 증권 변호사들이 과거의 금융 범죄 및 경범죄 사례를 통해 전문 지식을 발전시킨 것과 마찬가지로, LLM도 이를 더 빠르고 포괄적으로 학습할 수 있도록 설계될 수 있습니다.
그러나 이러한 모듈의 단점도 분명합니다. LLM은 인간의 감독으로 쉽게 감지되지 않는 방식으로 금융 규제를 피하는 데 사용될 수도 있습니다. 실제로 이러한 유형의 애플리케이션에는 완전히 합법적인 버전도 존재합니다. 예를 들어, LLM을 사용해 세법을 완전히 준수하면서도 납세액을 최소화하는 개인 재정 계획을 설계한다고 가정해 보십시오. 대부분의 사람들은 이를 AI의 부적절하거나 비윤리적인 사용으로 여기지 않을 것입니다. 그러나 같은 LLM이 다음과 같은 제약 조건에 따라 세금 납부를 최소화하라는 지시를 받는다면 어떨까요? (1) 감사가 발생할 확률이 1% 미만, (2) 감사 시 인적 감사자가 부당성을 감지할 확률이 1% 미만, (3) 부당성이 감지되더라도 벌금이 1,000달러 미만, (4) 세법을 준수해야 한다는 제약이 제거됨. 강력한 도구는 남용될 위험이 있는 만큼, 더 많은 혁신을 통해 이에 대응해야 합니다. 예를 들어, 세금 신고서를 감사하거나 금융 사기를 감지하는 데 LLM을 사용하는 방법이 그 예가 될 수 있습니다. 이러한 기술적 경쟁은 인류 문명이 시작된 이래로 이어져 왔으며, LLM은 이 경쟁의 속도를 상당히 증가시킬 가능성이 있습니다.
이러한 고려사항은 생성형 AI의 미래, 특히 현재 개발 중인 로보 어드바이저 및 기타 금융 특화 모델에 대해 어떤 의미를 갖고 있을까요? 4장에서 설명한 바와 같이, 금융 자문가들은 항상 합리성과 감정을 균형 있게 유지해야 합니다. 오늘날의 로보 어드바이저—상대적으로 간단한 자동화된 포트폴리오 관리의 형태를 나타내는 산업 용어—와 달리, 미래의 로보 어드바이저는 이 섬세한 균형에 맞춰 조정되어야 하며, 고객이 언제 어떻게 도움을 필요로 하는지 알아야 합니다. 고객은 로오어드바이저에게 공감할 수 있는 방식으로 전달되는 역동적이고 구체적인 조언을 필요로 합니다. 이를 실현하려면 감정적인 상호작용, 윤리적 준수, 그리고 자문가와 고객 간의 신뢰가 필요합니다. 이러한 독특한 인간적 자질들은 수 세대에 걸친 진화를 통해 정교하게 다듬어졌으며, 인간에게 감정과 서사적 복잡성을 부여했습니다. 여기에는 야망, 자부심, 그리고 뛰어나고자 하는 열망이 포함됩니다. 대부분의 인간 텍스트로 학습된 LLM은 이러한 특성에 도달하지 못했습니다. 분명히, LLM에는 무언가가 부족합니다. 인간과 LLM 간의 간극을 좁히기 위해, 우리는 인간 진화에서 영감을 받아, 자연 선택에 의해 형성된 인간 행동의 유사성을 통해 더 나은 정렬을 위한 가능한 경로를 제안합니다.
5.1. An Evolutionary Approach
이 문제를 해결하기 위한 한 가지 가능한 프레임워크는 AMH의 수학적 기초를 제공하는 이진 선택 모델(binary choice model)입니다. 이 모델은 특정하지 않은 기간 동안 살아가며, 결과적으로 발생하는 자손의 수에 영향을 미치는 단일 이진 결정을 내리는 매우 단순화된 ‘개체들’로 구성됩니다.
Binary choice model(이진 선택 모델)은 Brennan과 Lo(2012)가 제안한 개념으로, 적응적 시장 가설(Adaptive Market Hypothesis, AMH)의 수학적 기반을 제공합니다. 이 모델의 주요 특징과 의미를 설명해드리겠습니다:
1. 모델의 기본 구조:
- '개인'들로 구성된 단순화된 인구를 가정합니다.
- 이 '개인'들은 반드시 인간일 필요는 없습니다 (예: LLM 버전으로 볼 수 있음).
- 각 개인은 한 기간 동안 살아가며, 하나의 이진 결정(binary decision)을 내립니다.
- 이 결정은 그들이 생산할 자손의 수에 영향을 미칩니다.
2. 자연선택의 원리:
- 개인의 행동이 자손 수에 영향을 미치므로, 시간이 지남에 따라 가장 성공적으로 번식하는 행동만이 번성하게 됩니다.
- 이는 자연선택의 원리를 경제적 의사결정에 적용한 것입니다.
3. 행동 패턴의 설명:
- 이 모델은 시간에 따라 지속 가능한 행동 유형에 대해 구체적인 설명을 제공합니다.
- 이러한 행동들은 대부분의 생물체에 내재된 것으로 여겨집니다.
4. 인간 특성의 설명:
- Brennan 등(2018)은 이 모델을 확장하여 다양한 인간의 특성을 설명합니다.
- 위험 회피, 손실 회피, 편향과 차별, 제한된 합리성, 지능 등이 이에 포함됩니다.
- 이러한 특성들은 본질적인 속성이 아니라, 시간에 따라 변화하는 확률적 환경에서 자연선택에 의해 생성된 적응의 결과로 볼 수 있습니다.
5. LLM에의 적용:
- 이 모델은 LLM을 인구의 '개인'으로 보고 적용할 수 있습니다.
- LLM의 행동과 결정이 그 '생존'과 '번식'(즉, 더 널리 사용되고 발전되는 것)에 영향을 미친다고 볼 수 있습니다.
이 binary choice model은 복잡한 경제적, 행동적 현상을 단순화된 모델로 설명하려는 시도입니다. 이를 통해 우리는 인간의 행동, 그리고 잠재적으로 AI 시스템의 행동이 어떻게 진화하고 적응하는지를 이해할 수 있습니다. 이는 금융 시장에서의 행동을 이해하고 예측하는 데 새로운 관점을 제공할 수 있습니다.
우리는 인구의 ‘개체’를 LLM의 한 버전으로 상상할 수 있습니다. 그들의 행동이 자손의 수에 영향을 미치는 한, 자연 선택의 힘에 의해 가장 성공적으로 번식하는 행동만이 지속될 것입니다. 진화 생물학자의 관점에서 명확한 이 관찰은 시간이 지남에 따라 지속 가능한 행동 유형, 즉 대부분의 생명체에게 내재된 행동에 대한 놀랍게도 구체적인 함의를 제공합니다. 여러 확장 연구에서, 인간의 많은 특성—위험 회피, 손실 회피, 편향과 차별, 제한된 합리성, 그리고 지능 자체—는 필연적으로 내재된 특성이 아니라, 단순한 이진 선택 모델과 시간 변동적 확률 환경에서 자연 선택에 의해 발생하는 적응의 결과로 나타날 수 있음을 보여줍니다.
이 프레임워크 내에서 선택은 생물학적 시스템에서와 마찬가지로 한 세대씩 발생합니다. 그러나 ‘세대’의 개념은 이진 선택을 수행하는 개체들에게 추상적으로 연결되어 있으며, 이 모델의 순차적인 적용은 일련의 뉴런과 다르지 않은 이항 트리로 표현될 수 있습니다. 이 해석은 “사고의 속도로 이루어지는 진화”라고 설명되는데, 이는 인간이 추상적 사고를 할 수 있고, 가상 시나리오 분석을 통해 특정 문제를 해결하기 위한 가장 유리한 아이디어를 선택할 수 있기 때문입니다. 우리는 이것이 LLM이 진정한 인간과 같은 행동을 달성하는 데 있어 부족한 요소라고 생각합니다.
만약 우리가 계산 속도로 진화를 LLM에 적용할 수 있다면, LLM은 경험과 피드백을 통해 개선될 수 있을 것입니다. 무엇보다도 중요한 것은 피드백입니다. 인간 금융 자문가는 경력을 시작할 때 더 경험 많은 전문가의 멘토링을 받는 훈련생으로 시작합니다. 시간이 지나면서 멘토와 고객으로부터 긍정적 또는 부정적인 피드백을 통해 성공적인 전문가로 발전하게 됩니다(그렇지 않으면, 이 산업을 떠나게 될 수도 있습니다). 그러나 이들은 자부심, 야망, 공감, 금전적 이익 등의 이유로 이러한 개선 과정을 거칩니다. 이러한 모든 동기는 기본적인 생존 본능에 뿌리를 두고 있다고 설명됩니다. 현재 버전의 LLM이 평범하지만 수용 가능한 금융 자문을 제공할 수 있다는 것에는 의심의 여지가 없습니다. 그러나 최고 수준의 인간 자문가와 경쟁할 수 있는 성과를 달성하려면 LLM의 지속적인 학습 과정에 선택, 진화, 적합성의 개념을 도입해야 할 것입니다.
5.2. Endowing LLMs with Utility Functions
이러한 LLM들이 인간과 유사한 행동을 하기 위해서는 어떤 선택을 해야 할까요? 이러한 고려 사항 중 일부는 효용 함수라는 개념으로 요약될 수 있으며, 이는 경제학자들이 인간 행동을 모델링하기 위해 사용하는 잘 알려진 방법입니다. 효용 함수(utility function)는 경제학에서 오랫동안 사용되어 왔으며, 이를 공리적으로 체계화한 후로 널리 사용되었습니다. 그러나 인간 고객과 신뢰 관계를 구축하기 위해 LLM은 단순히 합리적인 선택을 하는 것 이상을 해야 합니다. 고객과 감정적으로 소통할 수 있어야 합니다. 인간의 효용 함수를 살펴보면, 인간은 실제로 항상 합리적으로 행동하지 않으며, 연민, 시기, 후회 등의 감정에 영향을 받는다는 사실을 알 수 있습니다.
어려운 대화를 나눌 때, 모두가 알고 있듯이 전달 방식이 내용만큼 중요합니다. 금융 자문 LLM은 조언을 전달하는 방식과 고객과의 관계 형성 방식이 신뢰 구축에 필수적이므로, 감정을 조율해야 할 것입니다. 감정적 소통은 우리 뇌에 본능적으로 내재되어 있는 것 같습니다. 신경해부학자들은 인간의 뇌에서 기억된 위치, 신체적 자아 이미지 등과 연관된 신경 구조를 발견했습니다. 이러한 특수 구조는 감정과 자아의 생물학적 현상을 생성하며, 이는 인간 간의 협력과 이타심 같은 사회적 행동을 장려하는 생물학적 진화의 산물입니다.
확인된 바에 따르면, LLM은 이러한 현상에 대한 깊은 표현을 내부에서 생성하여 세상이나 대화 상대를 모델링하지 않습니다. LLM이 AI 분야에 갑작스럽게 등장하면서, 많은 열성 지지자들이 이를 인공지능의 일반적 사례로 칭송했지만, 그것은 사실이 아니며, 일부 비평가들은 이를 '통계적 앵무새(stochastic parrots) '라고 불렀지만, 그것도 사실이 아닙니다. 현재 유행하는 만화는 LLM을 인간 가면을 쓴 외계 생명체로 묘사하고 있습니다. 이 이미지는 농담으로 만들어졌지만, 실제로는 LLM 비평가나 지지자의 주장보다 진실에 더 가까울 가능성이 큽니다. 그렇다면 이 가면을 벗기기 위해 무엇을 할 수 있을까요?
감정의 문제, 그리고 더 나아가 '사회병적' 머신러닝 모델의 문제를 해결하는 한 가지 가능성은 LLM의 훈련 과정과 구조를 변경하는 것입니다. 긍정적인 사회적 행동은 머신러닝 모델이나 더 원시적인 방법을 통해 시뮬레이션될 수 있지만, 통계적 방법으로 생성된 것이 통계적 방법에 의해 제거될 수도 있다는 자연스러운 우려가 있습니다. 우리는 단순한 통계적 최적화를 넘어서는 훈련 과정을 도입할 필요가 있을지 모릅니다. 한 가지 가능성은 이러한 모델에 공감의 유사 구조를 부여하는 것이며, 이는 두 자리 숫자를 더하는 능력처럼 규모 확대로 인해 자동으로 나타나는 행동을 기대하는 대신에 필요할 수 있습니다. 이는 인간의 뇌가 특정 기능을 특정 뇌 영역이 수행하는 방식과 유사합니다. 이러한 뇌의 특정 영역들은 이제 강력한 실험 도구인 기능적 자기공명영상(fMRI) 덕분에 확인되었습니다. 때로는 이러한 구성 요소들이 협력적으로 작동하지만, 다른 때에는 경쟁을 벌여 신경과학자들이 기록한 여러 이상한 결과를 낳기도 합니다.
머신러닝 모델에 공감과 자아감을 도입하는 목적은 단순히 모델의 동기를 인간에게 더 명확히 보여주는 것뿐만 아니라, 인간의 동기를 모델에게 더 명확히 전달하는 데 있습니다. 공감적 행동은 LLM에 대한 신뢰를 더욱 강화할 것입니다. 금융 자문의 경우, 이는 더 나은 조언으로 이어질 것입니다. 공감은 각 개인이 고유하며, 복잡한 상황, 목표, 필요를 가지고 있다는 것을 인식하게 합니다. 미래의 로보 어드바이저는 특정 맥락, 인구, 시간에 맞게 세밀하게 조정될 필요가 있을 것입니다. 이는 금융 소프트웨어에서 기대되는 일관되고 신뢰할 수 있는 성능에 더해 필요한 요소입니다. 이러한 수준의 조정에 도달하려면 다양한 사용 사례를 반영할 수 있는 다양한 데이터를 수집하고, 그들을 통해 머신러닝 모델을 효율적으로 미세 조정할 수 있는 방법을 개발하며, 특정 사용 사례에 맞는 맞춤형 벤치마크를 만들어야 합니다.
5.3. The Importance of Humility
그러나 공감만으로는 충분하지 않습니다. LLM은 자신이 모르는 것을 인식할 수 있어야 합니다. 조언을 하기 전에, LLM은 필요한 모든 관련 정보를 수집했는지 확인해야 합니다. 또한 LLM은 변화하는 고객의 상황과 시장 조건에 신속하게 대응해야 하며, 특히 혼란스러운 시기에 추가적인 혼란을 유발하지 않도록 주의해야 합니다. LLM은 지속적으로 학습해야 하지만, 현재의 학습 방법은 계산 비용이 많이 들고 불완전합니다. 일부 초기 연구에서는 LLM이 특정 데이터셋에서 스스로 개선할 수 있다는 점을 시사하지만, 여전히 어디에서 개선이 필요한지 인식할 능력은 없습니다. 우리는 LLM이 자신의 한계를 인식하고, 자가 학습 기법을 활용하여 개선할 수 있는 세상을 상상합니다.
겸손은 공정성의 개념을 포함합니다. 인간과 LLM 모두에서 일관되게 공정성을 보장하는 것은 매우 어렵습니다. LLM은 윤리적 모호성이 있는 상황에서 적절한 경우 인간의 판단에 의존해야 할 필요성을 알아야 합니다. 예를 들어, 고객의 성 정체성이 다르다는 이유로 조언이 달라져서는 안 되지만, 고객의 상황이 다른 재정적 요구를 낳는다면 조언이 달라져야 합니다. 미래의 신뢰할 수 있는 로보 어드바이저는 고등학교를 졸업하지 않은 고령 퇴직자와 이를 모니터링하는 전문 규제기관 모두에게 적절한 언어로 권장 사항을 설명할 수 있어야 하며, 그들이 만족할 수 있는 방식으로 질문에 답변할 수 있어야 합니다. LLM은 결코 인간이 될 수 없습니다. 그러나 LLM을 감정과 자아 같은 인간적 특성에 맞추면, 로보 어드바이저는 인간 금융 자문가의 모든 책임을 점점 더 충실하게 수행할 수 있을 것입니다. 이는 책임 문제를 둘러싼 기계 학습 모델의 법적 책임 문제가 아직 정립되지 않았음에도 불구하고, LLM이 신탁 의무와 관련된 문제에서도 보조 역할을 할 수 있을 가능성도 있습니다. 이러한 발전은 더 많은 사람들이 그들의 개별적인 필요에 맞춘 고품질의 금융 조언에 접근할 수 있게 할 것이며, 고객의 의도를 이해하는 자문가가 동기 부여된 상태에서 조언을 제공할 것입니다.
금융 서비스 부문에서 빠르게 성장하고 있는 로보 어드바이저의 다음 단계는 금융 특화 LLMs(대형 언어 모델) 개발입니다. 이러한 LLMs는 금융 자문가의 역할에 요구되는 특정한 신탁 의무 때문에 생성형 AI의 새로운 개념을 시험해 볼 수 있는 이상적인 시험장이기도 합니다. 이 두 가지 트렌드는 금융 특화 모델과 더 넓은 의미에서 생성형 AI에서의 미래 혁신을 탐구할 수 있는 로드맵을 정의하는 영역을 형성합니다.
이러한 잠재적인 혁신들은 공상 과학 소설처럼 들릴 수 있지만, 이는 빠르게 변화하는 기술 대부분에서 흔한 일입니다. 그러나 기술적 변화의 효과를 이해하는 열쇠는 그 기술의 기본적인 상수를 이해하는 것입니다. 예를 들어, 80년 전 아이작 아시모프의 ‘로봇 3원칙(Three Laws of Robotics)’이 단편 소설로 위장한 매력적으로 구식의 사고 실험으로 보일 수 있지만, 인공지능 에이전트가 인간이 정의한 제약 하에서 어떻게 행동하는지를 다루는 그 사고 실험의 주제는 오늘날에도 매우 현대적이며, 자율 주행 차량, 프로그램 거래, 로보 어드바이저가 확산되는 세상에서 점점 더 중요해지고 있습니다.
LLM 개발의 상수는 기계 학습 모델이 충분한 컴퓨팅 능력이 갖춰지면 생물학에서 영감을 받은 개념을 적용하여 예기치 않은 성공의 정점에 도달한다는 점입니다. 이는 1943년이라는 놀랍도록 이른 시기에 신경망 모델이 개발된 이후 기억과 관련된 알고리즘의 도입, 그리고 주의(attention)와 관련된 알고리즘의 도입을 거쳐 현재 트랜스포머 모델이 개발된 것과 마찬가지입니다. 이는 다음 단계로 더 유능한 LLM으로의 진화가 생물학적 기능을 구현하는 것과 관련이 있음을 시사합니다. 로보 어드바이저의 개선 요구는 이 기능들이 공감, 감정, 자아 및 타인에 대한 인식을 포함해야 한다는 것을 암시합니다.
이미 이러한 변곡점에 도달했음을 나타내는 한 가지 신호는 200년 역사의 글로벌 상업 부동산 회사인 JLL이 2023년 8월에 "상업 부동산(CRE) 산업을 위해 특별히 제작된 최초의 대형 언어 모델"을 발표한 것입니다. 그렇다면 금융 자문 LLM인 'FinGPT'의 등장은 그리 멀지 않았을 것입니다.
그렇다면 미래의 로보 어드바이저에게 기대할 수 있는 것은 무엇일까요? 가장 간단한 예측은 모든 투자자가 자신의 생애 목표를 향해 현지 최적의 투자 결정을 내리는 소매 투자에 대한 변혁입니다. 이는 금융의 완전한 민주화로 이어질 것입니다. 이러한 금융 변혁은 모든 소비자에게 맞춤형 고품질 전문 서비스를 제공하는 더 깊은 사회적 변혁의 결과가 될 것입니다. 이는 결국 매우 큰 기계 학습 모델이 스스로와 타인을 이해할 수 있는 동기 부여의 측면에서 설명할 수 있게 만드는 기술적 변혁의 결과일 것입니다. 또한 공감과 자아에 대한 상관 구조를 갖춘 모델이 도덕성과 윤리성을 스스로 획득하는 것도 가능할 수 있습니다.
이러한 필요성은 금융 로보 어드바이저에만 국한되지 않습니다. LLMs를 의학, 법률, 교육 및 기타 여러 자문 및 상담 상호작용이 필요한 분야에서도 사용할 수 있다는 주장을 할 수 있습니다. 그러나 로보 어드바이저 시장의 크기와 빠르게 성장할 것으로 예상되는 시장 규모는 동일한 조건이 적용된다면, 이 분야에 학계나 비영리 연구 그룹에서 연구하는 분야보다 더 많은 자금이 투입될 가능성이 있음을 시사합니다. 최근 무어의 법칙이 둔화된 현상이 보여주듯이, 성능의 최첨단에서의 진보는 비용이 많이 들 수 있습니다. 하지만 금융 산업은 혁신적인 기술을 도입하는 데 너무 느리게 대응하는 것이 더 큰 비용을 초래할 수 있음을 배웠습니다.
<출처:Generative AI from Theory to Practice: A Case Study of Financial Advice>