brunch

You can make anything
by writing

- C.S.Lewis -

재주는 AI가 부려도, 돈 버는 왕서방이 책임도 져라

FAT 인공지능의 개념과 앞으로의 인공지능 윤리에 대한 논의

FAT 인공지능 개념의 등장

  인공지능은 지금 최고로 각광받는 기술이다. 잘 만든 인공지능은 수백명의 직원보다 가치가 있기에 기업들은 앞다투어 인공지능을 자사 서비스에 도입하고자 한다. 비용대비 효율이 높기 때문이다. 하지만 앞으로는 그렇지만도 않다. 아니, 모두를 위해서라도 기업이 그렇게만 생각해서는 안된다. 앞으로도 재주는 인공지능이 부리겠지만, 돈버는 왕서방이 윤리적 책임도 져야만 하는 사회적 동의가 생겨나고 있다.  


 1950년대에 처음 이론이 소개된 인공지능 기술은 학습 데이터를 일일이 만들어줘야 하는 머신러닝 방식으로, 활용에 한계가 있었다. 하지만 딥러닝 기술이 등장하고 쉽게 구현할 수 있는 딥러닝 플랫폼들이 공개되면서 무서운 속도로 전 사업 분야에 걸쳐 인공지능이 활용되고 있다. 하지만 기존 머신러닝 기술은 그 알고리즘을 인간이 어느 정도 예상할 수 있었다고 하면 딥러닝은 몇 단계에 걸친 자동화된 데이터 그룹핑과 학습으로 인해 인간이 예측하기 어려운 알고리즘을 단 시간에 만들어낸다는 특징이 있다.

 이런 이유로, 딥러닝에 의한 학습 결과에 대해 인간은 데이터를 제공해주면서도 왜 특정한 결과를 도출했는지 이해하기 어렵다. 학습된 결과에 대해서 옳고 그름을 체크할 수는 있어도, 그 과정 자체에 대해서는 평가할 수가 없다. 인간의 방식이 아니기 때문이다. 마치 최근 등장했던 기보가 아닌 알파고간의 규칙을 기반으로 딥러닝 강화학습 방식으로 학습된 알파고제로는 그 연산의 과정을 과연 인간과 동일했는가는 인간이 판단하기 어렵다는 것이다.


 그런데 인공지능이 마치 인간과 유사한 방식으로 학습하고 의사결정을 내린다면, 인공지능이 내린 의사결정에 대한 윤리적인 문제가 대두되기 시작했다. 우버가 시험 운영한 자율주행 자동차는 16년 3월에 실제 도로위에서 사상사고를 일으켰다. 도로에서 자전거를 끌고가던 40대 여성이 목숨을 잃었다. 어둠 속에서 일어난 사고라고 하기에, 레벨4의 자율주행차인 사고차에 달린 레이더와 라이다(레이저광 레이더)는 당연히 보행자를 탐지해서 정지 물체가 아닌 것으로 분류했어야 했다. 인공지능은 분명 명백히 잘못된 의사결정을 했고 사고가 났지만, 그 누구도 이 사고가 기계적 결함인지 아니면 단순히 학습이 부족해서인지 판단할 수 없다는 점이 문제다. 또한, 이 상황에서 사고에 대한 책임은 운전석에 있던 사람인지 자율주행차를 만든 기업인지 명확하게 판단하기 어렵다. 현재의 급발진 사고 발생 시에도 급발진 여부가 명백히 밝혀져야만 운전자가 혐의를 벗는 것과 마찬가지인데, 인공지능이 일으킨 사고가 오류인 것인지 증명하기 어렵다.


 이러한 문제를 적시하며 세계적인 인공지능 학자들은 인공지능을 만드는 과정에 있어서 공정성, 책임감, 투명성의 3가지 원칙이 적용되어야 한다는 ‘FAT 인공지능’ 사상을 주장하고 있다. 특히 미국의 오바마 행정부는 인공지능의 윤리적 문제에 대한 백서를 워싱턴 대학의 라이언 칼로 교수와 함께 발표했다. 2017년에는 이에 대한 개정판격인  ‘Artificial Intelligence Policy: A Primer and Roadmap’를 발표되기도 했다. 또한 2015년에는 FAT/ML이라는 비영리단체가 설립되어 전세계적인 FAT 인공지능 사상을 강조하기 시작했다.

 라이언 칼로 교수는 마이크로소프트 연구소의 케이트 크루퍼드와 2016년에 네이처지를 통해 구체적인 방법론도 제시했다.


 첫째, 이상한 결과가 나올 경우 항의하는 버튼을 만들어라. 구글 이미지 인식에서 흑인 부부가 오랑우탄으로 나왔을 때 이런 버튼을 만들었다고 한다.

 둘째, 포커스그룹을 통해 찾은 핵심가치를 시스템화 시켜라,

 셋째, ‘트롤리 문제’와 같은 대표적인 윤리문제에 대해서 경험적인 결과를 학습시켜라.

 마지막으로, 업무 적용을 시키는 분야의 사회적 관습과 행태 등의 관습적인 부분을 인간과 동일하게 자체 평가할 수 있도록 하여 다양한 부분에 대한 고려가 이루어질 수 있도록 다면적인 학습이 필요하다고 주장했다.


 이러한 FAT 인공지능 사상은 전세계로 퍼지고 있는 중이다. 최근 구글에서는 구글의 AI 기술이 절대로 군사용으로 사용되지 않고 윤리적으로 사용될 것이라는 발표를 했고, 유럽연합에서도 인공지능에 대한 규정을 지난 5월부터 발표시켰다. 최대 AI 생산국인 미국과 중국, 우리나라에서도 곧 이러한 인공지능의 윤리적 가이드라인이 만들어질 수 있도록 사회 전반적인 시선이 변화해야 할 때이다.


 그렇다면 이커머스에서 사용되는 인공지능은?


 내가 일하고 있는 이커머스 업계에서 인공지능은 굉장히 다양한 방식으로 활용된다. 고객을 대상으로 하는 서비스에서는 이미지 검색을 통한 상품을 찾아주는 간단한 AI부터 고객의 여러가지 구매패턴과 성향을 기반으로 하여 구매할 상품을 추천해주는 AI가 대표적이다. 또한 앞으로는 단순히 추천을 넘어서 고객의 라이프패턴에 맞추어 알아서 구매를 해주거나 집안일을 도와주거나 택시를 잡아주는 각종 온오프라인 서비스와 자동으로 연계하여 결제를 해주는 것도 가능하다. 또한 이커머스를 운영하는 측면에서는 물류 인프라를 좀더 효율적으로 하기 위한 물류 로봇까지 등장하고 있다.

  만약 이러한 이커머스 시장에 FAT 인공지능 사상이 도입된다면, 어떤 것들이 해야할지 고객에게 가장 직접적인 영향을 주는 ‘상품 추천 AI’를 기준으로 공정성, 책임감, 투명성 세가지 측면에 대해서 고민해보겠다.


1)    공정성

 인공지능의 ‘공정성’이라는 가치는 인공지능을 통해서 만들어진 결과값에 반영된 데이터를 공정한 기준으로 만들어졌다는 점을 강조한다. 이커머스는 기본적으로 상업적인 이익집단이기 때문에 만약 상품추천을 임의로 광고비를 많이 내거나 자사에 이익이 많이 되는 마진이 높은 상품을 중심으로 추천을 해버릴 수 있다. 그렇다면 ‘추천AI’로서 공정성에는 문제가 발생할 수 있다. 이러한 사상을 바탕으로 한다면 비즈니스 모델을 설계하는 과정에서 AI를 플랫폼이 상품공급업체를 장악하려는 목적이 아니라 정말 중립적인 AI플랫폼으로서의 사상을 갖춰야 된다고 생각한다.

 만드는 기업에게 강요만 할 것이 아니라, 고객들이 추천된 상품에 대해서 여러가지 조건을 판단할 수 있는 기반이 마련되어 정말 공정하고 의미 있는 결과인지 판단하는 컴플라이언스 절차도 중요하게 여겨야 될 것 같다. 실제로 아마존의 경우 추천상품의 유용성을 직접 고객이 선택하도록 해서 상호 감시가 이루어지고 있다.


2)    책임감

 과거 월마트의 상품추천 사례는 이 업계의 전설처럼 남아있다. 미국 여고생에게 임산부를 위한 쿠폰북을 보내서 그 부모가 크게 항의하였는데 알고 보니 정말로 임산부가 맞았던 사건이다. 보통 AI를 통한 상품추천의 위대함을 이야기하기 위해서 말하지만, 이 사건만 해도 한 집안의 큰 문제를 당사자들이 해결하기 전에 사회로 노출시켜버린 문제라고 할 수 있다.

 상품 추천 과정에서 불량청소년이나 음란물에 대해서 추천을 할 만한 프로파일이 만들어진다고 해도, 사회적으로 문제가 될 수 있는 결과에 대해서 시나리오적으로 거름장치를 만들어야 한다고 본다. 즉, 상품 추천을 하는 과정에서도 관심사에 더욱 빠져들게 할 것이 아니라 삶의 균형을 맞출 수 있도록 조정해야 할 것이라고 생각한다. 이것을 위해서 카테고리별로 포커스 집단을 만들어서 적정한 가치와 사상이 반영될 수 있도록 해야한다고 생각한다.


3)    투명성

 투명성이란 의사결정의 근거를 정확하게 드러내는 것을 의미한다. 현재도 단순한 수준의 협업적 필터링 방식의 자동화된 상품추천이 이루어지고 있는데, 고객들은 추천되는 상품에 가끔 항의를 하기도 한다. 남성인데 여성제품이 추천되거나 할 경우인데 알고 보면 ID를 함께 쓰는 가족이 있거나 여성에게 선물하기 위한 제품을 보거나 구매한 데이터를 조절하기 못해서 생긴 문제들이다.

 인공지능은 이보다 더 복잡한 의사결정 구조를 가지고 있기 때문에 추천된 상품에 대한 근거를 명확하게 표시해주는 것은 더욱 중요할 것으로 보인다. 인공지능 스스로 가장 중요시되는 근거를 표시해주고, 그 대상이 되는 프로파일을 보여줌으로써 더더욱 상호간의 신뢰를 쌓을 수 있을 것이라고 생각한다. 그리고 이 투명성을 갖추기 위해서는 당연히 앞서 공정한 데이터의 활용이 기반이 되어야 할 것이다.


언젠가는 이걸 고민해야할 날이 온다

  윌스미스가 나온 영화 '아이,로봇'에서는 로봇의 윤리적 기준이 인간과 달라서 발생한 사건이 트라우마가 된 주인공 형사가 나온다. 생존률이 높다는 이유로 아이보다 본인을 구한 로봇. 로봇은 죄가 없지만 그 판단은 윤리적으로 본다면 차마 인간적이라고 볼 수는 없었다.

 과연 우리는 AI를 활용하여 얼마나 인간적인 서비스를 만들 수 있을까? 과연 그 정도 수준을 만들어낼 수나 있을까?

 그러나 내가 직업을 바꾸지 않는 한, 언젠가는 이런 고민을 해야할 날이 올 것이다. 꼭 와야만 한다.






참고자료

우버 자율주행차 사망사고 관련 기사

http://www.bloter.net/archives/305143

http://www.etoday.co.kr/news/section/newsview.php?idxno=1608078


구글 AI의 윤리성 강조

https://www.yna.co.kr/view/AKR20180608036000009?input=1195m


AI에 대한 국내외 정책 적용 동향

http://www.econovill.com/news/articleView.html?idxno=334814


라이언칼로, Artificial Intelligence Policy: A Primer and Roadmap, 2017

https://lawreview.law.ucdavis.edu/issues/51/2/Symposium/51-2_Calo.pdf


라이언칼로, 케이트 크로포드, <There is a blind spot in AI research>, Nature, Oct. 2016

https://www.nature.com/news/there-is-a-blind-spot-in-ai-research-1.20805


이전 15화 회원이 서 말이라도 꿰어야 보배지
brunch book

현재 글은 이 브런치북에
소속되어 있습니다.

이커머스 기획자의 사고여행

매거진 선택

키워드 선택 0 / 3 0
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari
;