brunch

You can make anything
by writing

C.S.Lewis

AI 가 하는 대출 심사, 과연 공정할까?

뉴스 스크랩

기사 제목: 최대 5천만원, 인공지능이 대출 해준다!... 하나은행, 국내 최초 'AI대출' 출시

기사 원문 링크: http://www.aitimes.kr/news/articleView.html?idxno=21578

하나은행이 금융권 최초로 인공지능을 활용해 대출한도를 산출하는 ‘AI 대출’을 출시했다. AI대출은 하나은행과 하나금융융합기술원이 공동 개발한 대출한도모형에 데이터를 스스로 학습하는 머신러닝을 적용하여 대출한도를 산출한다. 인공지능이 손님의 하나은행 거래 패턴을 분석하고, 200여개의 변수 및 복수의 알고리즘 결합을 통해 리스크를 분석하고 적정 한도를 부여하는 점이 AI대출의 차별적 강점이다. 본인 명의 휴대폰과 하나은행 거래 이력만 있으면, 소득 서류 제출 없이 최대 5천만원까지 대출을 받을 수 있다. 하나은행 모바일 뱅킹 앱 ‘하나원큐’에서 예상 한도와 금리 확인이 가능하고 3분안에 실행 가능할 정도로 신속한 서비스이다.  



핵심 기술 및 비즈니스 소개

머신러닝이란?

머신러닝은 인공지능(AI)의 하위 집합입니다. 학습과 개선을 위해 명시적으로 컴퓨터를 프로그래밍하는 대신, 컴퓨터가 데이터로 학습하고 경험을 통해 개선하도록 훈련하는 데 중점을 둠. 머신러닝에서 알고리즘은 대규모 데이터 세트에서 패턴과 상관관계를 찾고 분석을 토대로 최적의 의사결정과 예측을 수행하도록 훈련된다. 머신러닝 애플리케이션은 적용을 통해 개선되며 이용 가능한 데이터가 증가할수록 더 정확해진다는 특성을 가진다. 


아래는 같이 읽어보면 좋을 MIT Technology의 기사를 발췌한 것이다.  

기사 원문 링크 : https://www.technologyreview.kr/racial-bias-noisy-data-credit-scores-mortgage-loans-fairness-machine-learning/     


AI의 신용평가 편향, AI가 해결할 수 있나?

우리는 편향된 데이터와 알고리즘에 의해 왜곡된 자동화 의사결정 시스템이 저소득층과 소수인종을 차별한다는 사실을 잘 알고 있다. 예를 들어, 은행이 대출 신청자의 상환 가능성을 평가할 때 사용하는 소프트웨어는 소득 수준이 높은 백인 신청자를 주로 선호한다. 이 문제를 해결하기 위해 많은 연구자와 기업이 알고리즘의 공정성 강화에 매달리고 있다. 

그런데 실제 담보대출 데이터에 기반한 연구에서 소수인종과 다수인종의 담보대출 승인율 차이가 단순히 편향성에 기인한 것이 아니라는 점이 확인되었다. 비슷한 연구 중 최대 규모인 이번 연구는 스탠퍼드 대학교의 경제학자 로라 블래트너(Laura Blattner)와 시카고 대학교의 경제학자 스캇 넬슨(Scott Nelson)에 의해 진행되었다. 이들은 대출 승인율이 차이나는 것은 저소득층 및 소수인종의 신용이력 데이터가 부족하기 때문이라고 밝혔다.

이는 이런 데이터를 사용하여 신용점수를 계산하고 이렇게 계산된 신용점수를 채무불이행 가능성 예측에 사용한다면 예측의 정확도가 낮아진다는 것을 의미한다. 편향성 뿐만 아니라 정밀성(precision)의 부족도 불평등으로 이어지고 있는 것이다.

이는 냉정히 말해 더 공정한 알고리즘으로도 문제를 해결할 수 없을 것이라는 의미이다.

부정확한 심사 결과가 데이터 사용 방식의 편향이 아닌 데이터에 존재하는 잡음에서 비롯되었고, 따라서 알고리즘 개선을 통한 문제해결이 불가능하다는 뜻이 되기 때문이다.

“이것은 계속 반복되는 악순환”이라고 블래트너는 설명한다. “한 편에서는 대출을 받을 수 없는 이들에게 대출을 제공하고 또다른 한 편에서는 아주 많은 이들이 앞으로 대출을 받기 위해 필요한 데이터를 축적할 기회조차 전혀 얻지 못한다.” 

그렇지만 문제 해결이 쉽지는 않을 것으로 보인다. 현직 변호사로, 노스이스턴 대학교(Northeastern University)에서 기술과 인종 문제를 연구하는 라시다 리차드슨(Rashida Richardson)에 따르면 소수인종의 신용 데이터에 잡음이 존재하는 데에는 여러가지 이유가 있다. “은행 제도를 불신하는 몇몇 집단이 전통적인 신용대출을 거부함으로써 초래된 복잡한 사회적 결과물이다.” 문제를 해결하기 위해서는 반드시 근본 원인을 해결해야 한다. 세대에 걸쳐 누적된 손해를 회복하기 위해서는 대단히 많은 조치가 필요할 것이다. 그 중에서도 특히 은행업에 대한 새로운 규제의 도입과 소수인종 공동체에 대한 투자가 중요하다. “많은 잘못된 정책과 관행을 건드려야 하므로 해결이 간단하지는 않다.”

한 가지 간단한 단기 해법은 정부가 대출기관을 압박하여 알고리즘에 의해 대출 신청이 거절된 소수인종 신청자들에게 대출을 제공하고 그에 따르는 위험을 감수하게 하는 것이다. 그러면 대출기관은 이들에 관한 정확한 데이터를 수집하기 시작할 것이다. 이는 장기적으로 대출 신청자와 대출기관 모두에게 이득이 될 것이다. 



시사점 및 인사이트

세계 각국의 보험업계 및 금융업에서 AI를 한 사람의 신용을 평가하기 위해 사용하면서 알고리즘의 편향성은 계속해서 거론되었던 문제였다. 우리나라 내에서도 하나은행을 선두로 게속해서 더 많은 identification 프로세스에 AI 기술이 접목될 것으로 예상되는 만큼 이로 인해 야기될 수 있는 문제들에 대해서 생각해볼 필요성이 있다. 또한, 기존의 프로세스에 기술을 접목시킴으로써 나타나는 문제점들을 기술을 통해 해결할 수 있다고 맹목적으로 믿기 보다는 행정적, 정책적인 해결책들도 고려되어야 한다는 깨달음을 얻을 수 있다. 특히, 신용평가 과정에서 알고리즘의 편향성뿐만이 아니라 데이터 자체에 잡음, 그리고 접근 가능한 데이터의 양에 따라서도 차별이 일어날 수 있다는 점이 흥미롭다.   



같이 생각해 볼 만한 논점

1) 타 국가에 비해 상대적으로 인종문제가 대두되지 않는 우리나라에서 데이터의 편향성과 AI 알고리즘의 ‘非정밀성’ 에 의해 AI를 이용한 신용평가 과정에서 생길 수 있는 문제점은 무엇이 있을까? (e.g. 한국 사회 내에서 이로 인해 차별 받을 가능성이 있는 소수집단)


2) 위의 AI대출과 같이 금융권의 백오피스에서 인공지능이 활용될 수 있는 영역은 또 무엇이 있을까?

  


작성자: ITS 21기 김보연

작가의 이전글 IT·바이오의 결합: 바이오 인포매틱스
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari