brunch

You can make anything
by writing

C.S.Lewis

by 여행하는 기획자 Nov 18. 2021

인간적인, 너무도 인간적인 디지털 휴먼을 위하여

나를 믿게 하려면 말야,

얼마 전 성과 면담을 하였다. 팀장님과 함께 일을 한지 어언 7년 정도가 지나가고 있어 이제 어떤 것들을 기대하고 있는지는 짐작이 간다. 전교 1등을 하고 싶지만 몸이 안 따라주는 것처럼 무엇을 원하는지는 알지만 적극적인 사람, 일을 잘하는 사람이 되는 건 여전히 어렵다. 그렇지만 적어도 팀장님이 무엇을 원하는지 안다는 사실은 참 큰 발전이다. 그만큼 나의 상사에 대한 데이터가 많이 축적되어 있기 때문이다. 데이터가 많이 축적되어 있으면 데이터를 기반으로 상대방이 무엇을 원하고 내가 어떻게 부응해야 하는지 조금은 수월하게 생각할 수 있다. 


사람뿐 아니라 시스템도 마찬가지다. 사용자는 어떤 시스템의 성능이나 기능을 생각할 때 완벽하게 믿거나, 의심하거나, 혹은 그 중간 어딘가라고 생각한다. 전적으로 시스템에 대해 믿는 것도 문제이고 아예 의심부터 하는 것처럼 피곤한 일도 없을 것이다. 시스템을 만드는 사람 입장에선 이왕이면 내가 만든 시스템을 사용자가 믿고 오랫동안 사용했으면.... 싶기도 할 것이다. 시스템에 대해 의심부터 하는 사용자라면 아무리 고가의, 화려한 시스템이라 할지라도 사용자가 떠날 테니 말이다. 그렇다면 어떻게 사용자는 시스템을 믿을 수 있을까?


1) 데이터의 출처를 명확히 알려줄 때, 신뢰할 수 있다.


신뢰도를 보정하는 방법 중 가장 대표적인 방법은 바로 데이터의 출처를 명확히 하는 것이다. 모든 AI의 예측 작업은 사용자의 데이터를 기반으로 한다. 사용자가 자신의 데이터가 어디서부터 어떻게 사용되고 있는지 모른다면 문제가 될 수 있다. 혹은 자신의 데이터가 예기치 않게 사용되고 있다면 무척 당혹스러운 상황이 생길 수 있다. 신뢰를 쌓기 위해서는 어떠한 서비스를 제안할 때 이 데이터는 어떻게 수집이 되고 있으며 어떻게 데이터가 현재 사용될 수 있었는지를 사용자에게 꾸준히 설명할 필요가 있다. 




예를 들어 올해 4월 애플은 새로운 '배터리' 관련 특허를 발표하였다. '충전 조언 모듈'이라는 기술은 사용자가 그동안 충전을 해온 시점, 시간과 같은 충전 패턴과 아이폰 사용량 데이터를 종합하여 '배터리 소진 가능성'을 미리 알려주는 서비스이다. 해당 서비스는 시각적으로 정확히 사용자가 언제 어떻게 충전을 하고 있으며 아이폰 사용량은 어떻게 되는지를 시각적으로 보여주고 있다. 이렇게 지금 하는 제안이 어떤 데이터를 근거로 하고 있는지를 명확히 보여준다면 사용자가 시스템에 대한 신뢰도를 높일 수 있다. 


2) 데이터의 범위, 접근에 대한 부분을 명확히 할 때, 신뢰할 수 있다.


내가 만든 데이터를 시스템이 '어디서부터 어떻게' 사용하는지 데이터의 '범위'와 '접근성'에 대해 사용자에게 알려주는 과정도 중요하다. 나의 데이터를 사용하는 것은 알겠지만 어디서부터 어떻게 사용하는지 모호할 때 사용자가 원하는 서비스를 전달받기 어렵다. 


코로나가 장기화되면서 많은 회사들이 AI 면접으로 전화하고 있다. LG그룹도 일부 AI 면접으로 채용을 한다고 해서 찾아보니 결과 평가서만 보았을 때 꽤 흥미로웠다. 보통 우리는 면접을 본 뒤 합격을 했다면 대체 왜 합격을 한 것인지, 불합격을 하였다면 무엇이 이유인지 속 시원하게 듣기가 쉽지 않다. 운이 좋다면 면접 때 내가 발표한 내용에 대한 피드백을 들을 수 있지만 그 정도로 서로 여유롭지 못하다. 하지만 AI 면접관은 달랐다. 표정 변화, 성격 특성, 시선 처리, 머리 움직임까지 범위를 한정하여 데이터를 취득하고 있고 그 결과에 대해서 확인이 가능해 신뢰가 생겼다. 만약 데이터를 수집하는 것은 알지만 어떤 데이터가 나오는지 알지 못한 채 그저 "합격입니다." 정도만 표시된다면 시스템을 사용하는 사람들이 사용하면서도 찝찝해할 것이다. 

 



시스템이 접근한 대상을 정확히 알려주는 것도 신뢰성을 높일 수 있는 방법이다. 개인화가 '나'를 위한 개인화인지 '모든 사용자'들을 대상으로 공통적으로 파악하여 나오는 것인지 사용자에게 정확히 알려줘야 한다. 자칫 많은 사람들의 평균 데이터와 '나 자신'의 개인 데이터를 모호하게 커뮤니케이션하여 사용자가 AI의 성능이 문제 있다고 판단할 수 있기 때문이다. 


3) 부족한 점을 정확히 인지하고 있을 때, 신뢰가 생긴다. 



내가 부족하다는 것을 스스로 인정하는 건 참 어렵다. 하지만 그럼에도 불구하고 스스로 인정할 때 신뢰가 생긴다. 우리 모두는 완벽하지 않다는 사실을 너무도 잘 알기 때문이다. AI 시스템도 마찬가지로 데이터로 인해 계속 진화하고 발전해 나가는 형태이다. 데이터가 부족하다면 당연히 결과값 역시 미숙할 수 있다. 이 사실을 정확히 사용자에게 밝히고 사용자의 판단이 필요하다는 사실을 알려줘야 한다. 데이터 부족을 인정하지 않고 사용자에게 알려주지 않는다면 사용자는 AI 시스템에 대해 오해를 하게 되고 결국 시스템을 믿지 못하게 될 확률이 크다. 



4) 상황별 달라지는 결과를 반영할 때, 신뢰가 생긴다. 

구글은 방대한 데이터를 확보하고 있다. 구글의 핸드폰, 스피커는 물론이고 웹페이지를 접근한 순간 다양하고 방대한 나의 데이터는 그대로 구글의 서버에 축적된다. 가끔 과거에 어디를 갔었는지 생각이 안 날 때 내 기억보다 구글의 데이터가 더 정확해 의지할 때가 많다. 내가 어디를 가고 있는지, 무엇에 관심이 많은지 어쩌면 구글이 더 정확히 파악하고 있을지도 모르겠다. 문제는 늘 새로운 상황이다. 그동안 축적된 상황에 기대어 기억을 회상하는 것에는 AI가 탁월하지만 한 번도 경험해보지 않은 상황에서는 AI가 미숙한 추천과 판단을 내릴 수밖에 없다. 제주도를 검색하고, 자주 들여다보면 AI가 알아서 '제주도'에 대한 컨텐츠를 추천하고 보여주는 것이 인간에게 도움이 되지만 만약 제주도를 이미 다녀왔다면 '제주도'에 대한 컨텐츠를 보여주는 건 아무 의미가 없다. 이미 상황이 달라졌기 때문이다. 


AI는 상황이 달라질 때마다 데이터가 부족하면 부족한 대로, 정확한 추천을 할 수 없다면 할 수 없는 대로 사용자에게 전달해야 한다. 상황이 변화할 때마다 AI가 반응하는 것 자체가 신뢰를 얻을 수 있다. 설사 불충분한 데이터로 추천하기가 어렵다 할지라도 말이다. 상황이 변화하는 것을 알고 이에 대한 준비를 하고 있다는 사실을 사용자에게 인지하는 순간 오히려 상황이 변했는데도 엉뚱한 데이터를 보여주는 것보다 훨씬 큰 신뢰를 얻을 수 있다. 




디지털 휴먼은 곧 AI의 총체이다. 단순히 피부 표현이 인간과 동일하다고, 목소리가 인간과 같다고 모든 디지털 휴먼이 친화적인 것은 아니다. 오랫동안 계속 사용할 수 있는 디지털 휴먼이 되려면 단순히 겉모습이 아닌 '인간다움'에 집중을 해야 할 것이다. 우리가 '인간다운' 매력을 느끼는 순간이 언제이고, 사람이 언제 '신뢰'를 하는지를 면밀히 들여다볼 필요가 있다. 그런 인간다운 매력과 믿음의 포인트들이 기계에 그대로 이식되어 인간과 교감할 수 있을 때야 말로 진정한 디지털 휴먼이라고 부를 수 있지 않을까 생각해본다. 

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari