brunch

매거진 Tech Ethics

You can make anything
by writing

C.S.Lewis

카카오뱅크의 AI를 설명하는 방법

<<Tech Ethics 12호>

AI(인공지능)의 발전은 세상을 빠르게 바꾸고 있습니다. 대화형 서비스로 대중의 폭발적 관심이 시작됐지만 지금은 로봇, 자율주행, 헬스케어 등 다양한 영역으로 그 적용 범위가 확대되고 있습니다. 카카오뱅크 역시 AI 기술로 이용자들에게 도움이 되는 새로운 서비스를 개발하고 기존의 기술을 고도화하고 있습니다. 


AI를 통한 새롭고 안전한 이용자 경험 제공


최근 카카오뱅크는 금융 서비스 분야에서 AI를 통해 이용자에게 새로운 경험을 제공하고 있습니다. 24년 1월 출시한 '오늘의 mini 일기'는 AI를 활용해 개발한 서비스 중 하나입니다. 카카오뱅크 mini는 만 7세 이상 18세 이하 청소년만 개설할 수 있는 선불전자지급수단으로 '오늘의 mini 일기'는 mini 카드를 이용하는 청소년 고객의 결제 이력을 분석해 자동으로 일기 형태의 글로 만들어줍니다. mini를 이용 중인 청소년이 1) 방학 중 아침에 게임을 사고 2) 고속버스를 예매한 상황을 상상해 보겠습니다. mini는 이용자의 결제 내역을 바탕으로 아래와 같은 일기를 써줍니다.      

       

안녕! 오늘은 기분이 좋아! 왜냐하면 내가 새로운 게임을 샀거든! 오늘 새벽에 땡떙게임즈에서 게임을 결제했어. 그리고 오늘은 고속시외버스 티켓도 샀어! 방학이니까 친구들이랑 여행을 가기로 했거든. 이번 방학은 정말 즐거울 것 같아!!!


카카오뱅크는 새로운 경험과 더불어 안전한 기술도 중요한 가치로 삼고 있습니다. AI 기술을 부정한 금융 거래를 탐지하는 시스템을 고도화하는 영역에 활용하면 이용자의 자산을 더욱 안전하게 보호할 수 있습니다. 특히 AI 기술을 보안 영역에 적용하면 부정한 금융 거래 탐지 정확성도 높아집니다. 앞서 설명한 mini 카드의 이상 거래 탐지 사례를 설명해 보겠습니다. 

 

예시 상황 : 17세 남학생 mini 카드로 금요일 아침 6시 30분에 아이스크림 할인점에서 약 7,000원 결제

 

해당 거래에 대해 기존의 AI 알고리즘은 'AI 이상 거래 예측률'을 토대로 이상 거래 여부를 결정했습니다. 하지만 최근 고도화된 AI 기술을 적용하면 아래와 같은 질문 체계를 통해 더욱 높은 확률로 부정거래를 탐지할 수 있습니다.


                                  그림1. 고도화된 알고리즘으로 추가된 이상거래 탐지 질문


                             그림2. XAI(eXplainable AI : 설명가능 AI)를 활용한 부정 거래 탐지 과정


이렇게 추가된 프로세스는 기존 알고리즘에 비해 근거자료를 제시함으로써 정확도를 높이고, 근거자료를 제시함으로써 카카오뱅크 이용자의 불편을 최소화하고 자산은 더욱 안전하게 보호할 수 있는 시스템을 구축합니다. AI를 활용한 카카오뱅크의 FDS(Fraud Detection System, 이상거래 탐지 시스템) 적용 사례는 카카오뱅크 기술 블로그를 통해 보다 자세히 확인하실 수 있습니다.  

☞ 카카오뱅크 기술 블로그 바로가기


세계적으로 강조되는 Ethics of AI...'설명 가능성'에 주목한 카카오뱅크


이처럼 금융 거래는 개인의 결제 내역, 자산 규모 등 높은 수준의 개인정보와 밀접하고 안전과 신뢰에 큰 영향을 주는 산업이기 때문에 AI 윤리가 중요합니다. 이를 반영하듯 세계적으로 AI에 대한 규제 움직임도 구체화하고 있습니다. AI에 대한 명문화된 법적 규제를 가장 먼저 도입한 건 유럽 연합입니다. 유럽 연합은 넓은 범위의 AI에 포괄적으로 적용할 수 있는 수평적인 윤리를 중심으로 'AI 규제법(AI Act)'을 지난 3월 최종 승인하였습니다. 해당 법안은 AI에 대한 규제뿐만 아니라 AI 혁신 패키지(AI Innovation Package), AI 조정 계획(Coordination Plan on AI) 을 통해 기술 개발과 규제의 균형을 찾는 것을 목표로 하고 있습니다. 그러면서 규제가 새로운 기술의 발전을 저해하지 않도록 설계되었습니다.

 

미국은 AI의 안전한 개발과 활용을 위한 행정명령을 발표하며 AI의 산업이 발전됨에 따라 발생할 수 있는 다양한 부작용을 해결하는 쪽으로 방향을 잡았습니다. 특히 개인정보 보호에 초점을 맞추고 이를 구성하는 주요 가치 체계를 보호하기 위한 각 국가기관 및 부처의 역할에 중점을 뒀습니다. 기업과 개발자, 이용자에게 초점을 맞춘 EU의 AI Act와는 다소 다른 양상을 보입니다. 

 

국내에서도 AI에 대한 윤리를 주의 깊게 다루고 있습니다. 특히 금융 분야는 'AI개발·활용 안내서', 'AI 기반 신용평가 모형 검증 체계' 등 가이드라인을 준수한 AI 윤리에 대한 논의가 활발하게 진행되고 있습니다. 

카카오뱅크는 AI 윤리의 핵심 논점 중 하나인 '설명 가능성'에 중점을 두었습니다. 금융 거래에 적용되는 기술의 투명성을 확대하는 것이 금융회사의 의사 결정 과정에 대한 신뢰도를 높이고, AI 모델의 공정성과 신뢰를 확보하는 중요한 요소라고 생각하기 때문입니다. 이를 위해 카카오뱅크는 설명가능 AI를 서비스에 적용하고 확대하기 위해 노력하고 있습니다. 


AI가 이야기 해주는 'Why'


설명가능 인공지능 (XAI, eXplainable AI)란 AI 모델의 신뢰성과 안전성을 검증하기 위해 AI 모델이 특정 결과를 도출하게 된 작동 원리(방식)을 사람이 이해할 수 있도록 설명을 제공하는 기술입니다. 즉 복잡한 AI의 작동 방식을 분석하여 전문 지식이 없어도 이해할 수 있는 설명성을 제공하는 것에 목표가 있습니다. 


      그림3. 일반적 AI 알고리즘과 설명가능 알고리즘 비교(출처 : https://bitnine.tistory.com/408)


XAI를 통해 사람은 단순히 AI의 결과를 수용하는 수동적인 역할에서 벗어나 AI의 의사 결정 과정을 깊이 이해하고 분석하는 능동적인 역할로 전환됩니다. 이는 AI 모델의 작동 원리와 데이터 처리 과정을 명확히 이해함으로써 AI 시스템에 대한 신뢰도를 높이고, 결과의 해석 가능성을 높여줍니다. 이러한 변화는 AI의 예측과 권고 사항에 대한 인간의 의존도를 적절히 조절할 수 있게 하며, AI 시스템의 투명성과 설명 가능성을 보장하여 윤리적 문제와 책임 소재에 대한 명확한 기준을 확립하는 데 기여합니다.

 

XAI는 다양한 연구 갈래로 발전해 왔습니다. AI의 설명을 어느 시점에 부여하는지, 어떤 방식으로 설명을 도출하는지, 설명의 범위는 어떠한지 등 다양한 요소들이 복합적으로 구성되어 결과를 나타냅니다.


그림4. XAI를 구성하는 다양한 영역의 상호관계(자세한 내용은 그림 5에서 설명)


설명가능 AI 구축을 위한 다양한 요소


이와 같은 요소들은 다양한 방법으로 조합하여 설명 가능성의 목적을 구체화합니다. 예를 들어 대표적으로 아래 3가지의 조합이 있습니다.


                                                       그림5. XAI의 전략 기법


Case1을 중심으로 자세하게 설명하면, XAI는 'AI 모델이 특정 결론을 내린 원인과 그 작동 원리(상관관계)를 밝히는 것'으로, 출력에 대한 입력의 기여도를 도출합니다. "왜 이렇게 결과가 나왔는지"에 대한 기술로 "왜 상품을 추천했는지?" 혹은 "왜 이 경로로 안내했는지?" 등 다양한 분야에 적용이 가능합니다. 

 

예를 들어 금융회사에서 중요한 요소인 신용 점수 산출을 AI에 맡긴다면 우리는 어떻게 그 결과를 해석할 수 있을까요?

                                  그림6. XAI가 적용되지 않은 상황의 질문과 응답 예시


우리는 단순히 결론으로 출력된 신용 점수 외에는 다른 출력값을 알기 어렵습니다. 어떤 요소들이 나의 신용 점수에 영향을 주었는지 알 수 있는 명시적인 방법은 없고, 단순히 추측만으로 결과를 해석하게 됩니다. 이는 잘못된 해석으로 올바르지 못한 결론을 도출하게 되어 정보의 오류 및 왜곡이 생기게 됩니다. 올바른 해석을 위해 우리는 다음과 같이 물어 볼 수 있습니다.


                          그림7. XAI가 적용되었을 경우의 질문과 응답 예시


XAI 고도화를 위한 카카오뱅크의 지속적 노력 


예시와 같이 XAI는 비선형적이고 복잡한 함수 등 다양한 알고리즘을 선형적인 관계식으로 설명할 수 있게 하므로, 많은 정보와 복잡한 의사결정 체계를 가진 전문 분야에도 그 가치를 발휘합니다. 

특히 한 번의 의사결정으로 사람에게 큰 영향을 주는 금융, 의료, 법률, 자율 주행에 사용되는 AI에 설명 가능성이 적용된다면, 상호 신뢰 하에 발전 할 수 있는 AI 생태계가 구성될 것으로 생각합니다. 

 

하지만, XAI는 실제 사례에 실시간으로 적용되기 위해서는 아직 풀어야 하는 숙제들이 많이 남아있습니다. 특히 크고 복잡한 AI 알고리즘에 관해 설명을 하거나, 수많은 사용자가 동시다발적으로 설명을 요구하는 경우, 카드 결제, 매매 체결 등 금융업과 같이 XAI가 적용되는 서비스 도메인 자체가 실시간성이 담보되어야 하는 경우도 많습니다. 여기에 최근 AI가 텍스트뿐만 아니라, 음성, 이미지 등 다양한 데이터로 입력과 출력이 가능해지면서 다양한 멀티모달 데이터를 처리해야 하는 경우 성능을 높이면 속도가 줄어드는 성능과 속도의 트레이드 오프를 극복하는 전략에 대해 각 서비스 특성에 맞춰 설계와 연구가 필요합니다. 

 

또한 LLM의 할루시네이션(AI 정보처리 과정에서 발생하는 오류)을 극복하기 위한 방법으로 단순 답변을 출력하는 것이 아닌, 추론(reasoning)하고 추론의 과정을 설명하는 모델이 많아지고 있는 가운데 이에 대한 설명성을 부여하는 연구 또한 기술의 진화에 발맞춰 진행되어야 합니다.

 

카카오뱅크는 지난 2023년부터 카이스트 설명가능 인공지능 연구센터와 함께 ‘금융 분야 설명가능 인공지능’에 대해 공동 연구를 진행하고 있습니다. 해당 연구에서는 다양한 금융 분야의 AI에 설명 가능성을 확보하면서도 성능 저하 없이 빠르게 연산할 수 있는 알고리즘을 개발하는 것이 공동연구의 목표입니다. 

 

현재 공동 연구가 진행되고 있으며, 엔지니어링과 알고리즘 측면의 양방향 개선 연구를 수행하고 있습니다. 현재 일차적 성과로는 알고리즘을 보존하면서도 속도를 가속화 할 수 있는 방안을 연구하여 73% 이상의 성능 개선을 도출하였으며, 현재 알고리즘 측면에서는 가속화의 추가 요소인 대리모델을 설정하며 보다 가속화된 방법을 탐색 및 연구 중입니다.



                        그림8. 카카오뱅크와 카이스트의 공동 연구 결과로 개선된 처리 속도


또한 서울대학교와의 신용평가 모형 고도화를 위하여 설명가능 인공지능을 접목하였고, 이로 인해 대안신용평가모형과 더불어 정교한 평가가 어려운 중·저신용 고객, 씬파일러, 개인사업자 등을 대상으로 자체 개발한 신용평가 모델을 통해 대출 등 각종 금융 거래를 제공하는 포용 금융을 확대하고 있습니다. 

 

카카오뱅크의 신재홍 최고기술책임자는 "카카오뱅크는 XAI를 활용해 대출 사기 탐지, 보이스피싱 대응 등 사회문제와 비정상적인 소액결제 이상 탐지 등 일상적인 안전 문제도 해결하고 있습니다. 더불어 고객과 직접 연결되는 AICC(AI Contact Center)를 통해 금융을 넘어 일상의 혁신을 위해 최선을 다하고 있습니다. 이는 고객 편의성과 안전, 기술 혁신 및 규제 신뢰성의 균형을 통해 달성됩니다. 카카오뱅크는 지속적인 혁신을 통해 고객의 이익을 보호하는 동시에 금융산업의 새로운 표준을 개척하기 위해 최선을 다하고 있습니다."라고 밝혔습니다.

매거진의 이전글 이용자의 안전과 데이터 보호를 우선하는 자율주행
작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari