brunch

You can make anything
by writing

C.S.Lewis

by 기획자 연주리 Jan 28. 2021

인간을 착취하지 않는 AI를 만들기 위해,

[HCIK 2021] 인간-AI 인터랙션을 위한 디자인과 기술 개요

HCI Korea Day 1 세션 중 두 번째로 공유 드릴 세션은 KAIST 송진영 교수님의 "인간-AI 인터랙션을 위한 디자인과 기술 개요"입니다. HCI 전문가들은 AI를 단지 기술적 관점에서 바라보는 것이 아니라, AI를 서비스에 적용할 수 있는 창의적인 방안과 사용자에게 서비스로 제공할 때 고려해야 하는 요소를 연구합니다. 


"Artificial Intelligence is inspired by human intelligence, made powerful by human data, and ultimately only useful in how it positiviely affects the human experience - Jeffrey Bigham @CMU"
"인공지능은 인간의 지능으로부터 영감을 받고 사람의 데이터로 강력해지고, 인간의 경험에 어떻게 긍정적인 영향을 미치느냐에 따라서만 유용하다 - Jeffrey Bigham @CMU


인간의 경험에 긍정적인 영향을 미쳐야 유용한 서비스라니, AI 서비스가 유용하려면 어떻게 해야 할까요? AI의 발전이 너무 빨라서 인간을 착취하고 있지는 않을까요? 인간 먹여주는 데이터 없이는 스스로 태어날 수도, 서비스로 커나갈 수도 없는 AI이기에 부작용이 있을 수밖에 없습니다. 이번 세션에서는 AI로 인해 발생하는 문제와 해결방안을 다루었습니다.



나쁜 AI


크라우드 소싱   

수많은 수의 사람들이 AI를 위한 데이터를 수기로 만들고 있음. (annotation)

예를 들어, ImageNet은 크라우드 소싱을 통해 라벨링한 1,400만 개 이상의 이미지를 보유하고 있음.


Human in the loop   

부적절한 콘텐츠에 대한 검열 작업을 사람이 하고 있음 (content moderator)

보이지 않는 곳에서 부적절한 콘텐츠에 노출되며 고통을 겪고 있음


Ghost worker

많은 AI 데이터 노동자들이 보이지 않는 인권의 사각지대에서 이런 일들을 하고 있음

AI 서비스를 만들 때에는 기술 비용뿐만 아니라 사회적 비용까지 고려되어야 함


"Ghost Work" 책 표지


AI 데이터 노동자는 더 이상 미래의 직업이 아닙니다.

그들은 AI를 위해 데이터를 수집하고, 닦아서 먹여주며, 틀리면 고쳐줍니다. 한국에서도 AI 크라우드 소싱 스타트업들이 점점 늘어나고 있습니다. 주로 컴퓨터에 익숙하지만 돈이 부족한 학생들이 하루 종일 컴퓨터 앞에 앉아 정해진 분량만큼 작업을 합니다.

AI 데이터 노동자들이 먼저 일하고 있는 실리콘밸리에서 그들은 인권의 사각지대에 있다는 평가를 받고 있습니다. 해당 세션이 짧아 구체적으로 어떤 문제가 있는지까지는 듣지 못했으나 업무 강도에 비해 수입이 적고 지속적인 노동이 보장되지 않는다는 한계는 저에게도 명확해 보입니다. 또한, 검열 작업 시에 드는 정신적인 비용도 무시할 수 없는 부분입니다.


User Experience를 고려하지 않은 문제 

몇 년 전, 병원들은 IBM의 인공지능 왓슨을 도입했지만 재계약하지 않음.

그 이유는 AI가 의사들에 대한 충분한 이해가 없었고, 의사들이 이 시스템을 사용하기 어려웠기 때문에 trust issue, usability issue가 발생함.


우연한 알고리즘의 잔인함

알고리즘이 사용자의 사진을 분석해 지난 1년간 최고의 순간을 모아서 보여줬는데 사용자가 원치 않는, 트라우마를 불러일으킨 사건의 이미지가 포함됨.


내재적인 인종 차별

흑인을 고릴라로 분류한 알고리즘. AI 서비스는 예상치 못한 변수까지 고려해야 하며, 사용자에게 납득이 가능한 결과를 제공해야 함.



건강한 AI를 위한 해결방안


모델의 투명성 (transparency)을 높여라!

설명가능성 (Explainability): AI가 왜 그 결정을 내렸는지, 결정을 내릴 때 사용한 데이터가 무엇인지 전문용어 없이도 납득이 가게 설명해야 한다는 개념. 하지만 deep learning은 논리적으로 예측하는 모델이 아니기 때문에 결과에 대한 설명을 제공하기 어려움.

설명가능성과 정확도 사이 간에 trade-off가 있음: 설명 가능성이 높은 linear model, tree model은 정확도가 떨어지고, neural network 모델은 설명가능성이 낮지만 정확도가 높음.

간단하고 설명가능한 모델로도 복잡한 모델만큼 좋은 성능을 낼 수 있음: '18년도에 복잡한 모델의 설명 가능성을 올리는 것이 아니라 복잡한 모델을 설명 가능한 간단한 모델로 대체한 듀크 대학 팀이 expainable Machine learning challenge에서 우승함.


어떻게 하면 AI 서비스가 인간에게 더 긍정적인 영상을 미치게 할까

CHI 학회에서 발표된 마이크로소프트의 "Guidelines for Human-AI Interaction"

Guidelines for Human-AI Interaction

what-if tool by Google

내 데이터셋과 알고리즘을 넣고 탐색할 수 있는 기능 제공

데이터의 피처 조건을 바꿔보고 결과가 어떻게 달라지는지 확인

어떤 피처가 가장 영향을 많이 미치는지 알고 model을 tuning 할 수 있음

데이터셋이 피처 별로 얼마나 공평하게 수집되었는지 평가할 수 있음


편향된 데이터 피하기

세상의 데이터 자체가 편향되어 있기 때문일 수 있음

real-world data가 편향되어 있다면 어떻게 해결할 수 있을까?

IBM의 AI fairness 360는 머신 러닝 모델의 편향성을 측정하고 조정할 수 있는 툴킷임.

IBM AI Fariness 360


신뢰도 점수 제공

AI의 답변이 얼마나 신뢰할만한지 점수로 알려주면 사용자가 AI의 결과를 얼마나 믿을 수 있을지 판단할 수 있음

모든 알고리즘에 연산이 가능한 것은 아니기 때문에 AI에 사용할 모델을 선택할 때 신뢰도 점수 제공 여부까지 고려할 필요가 있음.


사용자의 멘탈 모델에 맞게 설계

어떻게 하면 AI 서비스를 사용자의 멘탈 모델에 맞게 제공할지 고려해야 함

learnability, efficiency, safety  

사용자의 멘탈 모델과 맞지 않는 결과가 나오면 점점 신뢰성이 떨어지게 됨

사용 후 사용자의 피드백까지 받을 수 있다면 가장 좋을 것!




제가 현재 가장 큰 문제로 여기는 것은 AI 데이터 노동자와 관련된 부분입니다. 


데이터 레이블링 노동자들은 기업에게 두 배의 효용을 제공하고 있습니다. 노동력과 데이터를 동시에 남기고 가기 때문입니다. 이들이 만약 나사를 만드는 공장 노동자라고 한다면, 이들이 만든 나사는 백번이고 천 번이고 재사용되며 AI 세상에서 끊임없이 선반과 책상, 의자를 만들고 있습니다. 


기업 대 기업으로 데이터 수급 계약을 맺을 경우, 계약 기간이 만료되면 수급한 데이터는 파기하게 되어 있습니다. 하지만 데이터 레이블러들에겐 그런 권리가 없습니다. 해당 이슈와 관련해선 아래 "AI 시대의 소작농"이라는 제목으로 적은 글에서 더 자세히 보실 수 있습니다.



이번 세션은 구글 PAIR 조직의 "People + AI 가이드북"과 상당 부분 비슷했습니다. 구글의 가이드는 아래 링크에서 보실 수 있습니다. :) 



브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari