인공지능은 최근 급격한 기술 발전으로 우리의 일상 생활에 깊숙이 침투하고 있습니다. 우리는 이미 매트릭스나 터미네이터와 같은 SF 영화를 통해, 인공지능이 인간을 지배하는 디스토피아적 미래에 대한 우려에 깊이 공감 했었습니다. 최근에는 이세돌과의 바둑 대국에서 AlphaGo의 압도적인 승리와 ChatGPT의 압도적인 성능을 바라보며, 머지않은 미래에 우리들의 많은 일들이 인공지능에 대체되는 것에 대한 위협감도 느끼게 되었습니다.
그렇다면 우리 일상 생활에서의 인공지능은 어떠한가요? 이미 인공지능의 폭 넓은 영역에서의 활용은 우리 일상에 혁신적인 편리함을 제공하지만, 반면에 예상치 못한 부정적 효과로 인해 실망을 불러일으키기도 하는데요. 상업적 이득을 위해 개인 정보를 함부로 활용해 프라이버시를 침해하거나, 편향된 데이터로 학습한 인공지능 서비스는 차별을 유발하기도 합니다. 뿐만 아니라 신뢰성 낮은 자동화는 예상치 못한 인명 피해를 불러일으키기도 합니다.
인공지능이 지닌 엄청난 잠재력 만큼이나 그로 인한 부정적 효과는 쉽게 예측하기 어렵기 때문에, 인간의 가치와 사회의 공공선에 해가 되지 않는 범위에서 개발되고 활용되어야 합니다. 이러한 개념을 인공지능 윤리라고 하는데요. 사람들은 교육과 사회 활동을 통해 윤리를 습득하는 것에 반해, 인공지능은 개발한 사람의 윤리적 기준에 의존하게 됩니다. 그러므로 인공지능 기획자, 개발자 그리고 UX 디자이너는 인공지능이 인간과 사회에 유익한 가치를 제공하는 데에 책임감을 가지고 노력해야 합니다. 이번 글에서는 윤리적인 인공지능 UX를 디자인하기 위해 고려해야 할 대표적인 윤리적 이슈들에 대해 살펴보도록 하겠습니다.
인공지능 활용의 빛과 그림자 (이미지 출처. governmentciomedia)
1. 투명성(Transparency)
최근 널리 활용되는 개인화된 추천 서비스에서 인공지능이 제안한 추천 결과는 나도 몰랐던 내 취향을 알아 맞춰 신기하기도 하지만, 가끔은 당혹스럽게 만들기도 합니다. 왜냐하면 사용자 입장에서는 인공지능의 작동 방식은 블랙박스와 같기 때문입니다. 이와 관련하여 투명성(Transparency)은 인공지능이 사용자의 어떤 개인 정보를 사용하고, 알고리즘이 어떻게 작동되는지에 대해 사용자에게 투명하게 공개한다는 개념인데요. 예를 들면 아래 그림과 같이 타이틀 영역의 설명을 통해 추천된 콘텐츠가 어떻게 제안된 것인지 알려주고 있습니다. 이를 통해 사용자는 인공지능의 동작 방식을 이해할 수 있고 그 결정을 신뢰할 수 있게 됩니다.
(좌) Flow 추천 음악 , (우) Netflix 추천 영상 콘텐츠
이러한 투명성 제공을 통해 사용자는 인공지능 서스템의 작동방식과 그 한계에 대한 명확한 멘탈 모델을 형성할 수 있습니다. 특히 사용자가 처음 인공지능 서비스에 사용할 때에 이 시스템이 무엇을 할 수 있고 얼마나 잘 수행할 수 있는지에 대한 이해가 필요한데요. 만약 사용자가 인공지능 서비스에 대해 너무 높은 기대치를 설정했다면 이는 좌절과 함께 사용 포기로도 이어질 수 있기 때문입니다. 예를 들면 아래 그림의 GhatGPT의 첫 화면에는 Limitations 영역을 통해 해당 인공지능 시스템의 한계를 알려 주어, 사용자는 시스템이 할 수 있는 것과 할 수 없는 것을 감안할 수 있게 해주는데요. 이에 따라 사용자는 인공지능의 제안 결과를 신뢰할 때와 자신의 판단이 필요할 때를 가늠할 수 있게 해줍니다.
ChatGPT 첫 화면
2. 데이터 프라이버시(Data Privacy)
일상에 많은 편리함을 제공하는 개인화된 인공지능 서비스를 사용하기 위해서는 사용자는 필연적으로 개인 정보를 제공해야 합니다. 그렇지만 이러한 개인 정보의 제공은 사용자가 예기치 못한 부정적 활용으로도 이어지기도 하는데요. 예를 들면 SNS에 업로드된 얼굴과 목소리를 위조한 영상 통화로 사기 사건을 일으킨다거나, 사용자 프로필 정보를 분석하여 개인의 심리적 취약점을 이용해 정치 광고를 쏟아낸 것과 같이 이미 개인 정보 침해 사건은 현실이 되었습니다. 그러므로 개인 정보를 활용한 인공지능 서비스를 디자인할 때에는 사용자의 데이터 프라이버시를 보장하기 위한 다양한 노력이 요구됩니다.
먼저 사용자에게 개인 정보의 자기 결정권을 보장해 주어야 합니다. 이는 정보의 주체인 사용자에게 개인 정보의 접근과 사용에 대한 권한을 스스로 결정할 수 있게 한다는 것인데요. 이에 따라 개인 정보를 이용하는 인공지능 서비스를 디자인할 때에는 사용자에게 어느 정도의 개인 정보를 얼마만큼의 기간 동안 사용할 지에 대해 사전에 고지하고 동의를 받아야 합니다. 더 나아가 개인 정보 사용에 대한 많은 제어 권한을 사용자에게 제공하는 것은 좋은 인공지능 경험을 제공하는 데에 필요합니다. 아래 그림의 콘텐츠 큐레이션 서비스에서는 설정의 비공개 모드를 통해 사용자가 개인 정보를 추적하지 않도록 선택할 수 있게 하는데요. 이를 통해 사용자는 자기 의지에 따라 개인 정보를 보호할 수 있다는 신뢰감을 줄 수 있을 뿐만 아니라, 사용자가 추천 알고리즘을 길들일 수 있는 높은 통제권을 행사할 수 있도록 합니다.
Spotify 비공개 모드 (이미지 출처. Geek - 티스토리)
다음으로 사용자의 개인 정보 보호를 위해서는 보안성을 확보하는 것은 필수적입니다. 대표적으로 개인 정보를 해킹해서 피싱과 같은 금융 사고를 일으키기도 하는데요. 이러한 해킹과 같은 공격에 취약점이 없도록 사용자의 개인 정보를 보호할 수 있는 높은 수준의 보안이 요구됩니다. 더 나아가 이러한 보안성에 대해 사용자가 직접 확인하고 조치할 수 있도록 디자인하는 것이 필요한데요. 예를 들면 아래 그림은 스마트폰에서 사용자의 데이터가 어떻게 공유되는지 한눈에 볼 수 있고 보안성을 직관적으로 한 눈에 볼 수 있는 대시보드를 제공해 사용자가 안심하고 신뢰할 수 있도록 하였습니다.
갤럭시의 보안 및 개인정보 보호 기능 (출처. www.samsung.com)
3. 공정성(Fairness)
인공지능의 개발의 모든 단계에서 사람의 편견이 반영될 수 있습니다. 왜냐하면 인공지능의 학습을 위해서는 데이터가 필요한데요. 이 데이터에는 실제 세계에서 개인 혹은 사회와 문화에 축적된 경험과 편견이 그대로 반영되기 때문입니다. 이러한 데이터의 의한 편견이 인공지능 서비스에 반영된다면 예상치 못한 다양한 형태로 사용자에게 피해를 줄 수 있습니다. 대표적으로 인공지능이 특정 사용자 그룹에 대한 부정적인 고정 관념이 반영된 것을 들 수 있는데요. 아래 그림과 같이 딥러닝 기반 챗봇이 일부 이용자들에 의한 인종 차별이나 욕설 등을 학습하여 서비스가 시작되고 얼마지나지 않아 운영을 중단하였습니다. 더 나아가 편향된 인공지능이 예측한 결과로 인해 개인의 기회와 삶의 질에도 부정적인 영향을 미칠 수 있는데요. 예를 들면 인공지능이 신용 카드 사용의 한도를 성별에 따라 차별하여 적용한 경우를 들 수 있습니다.
Microsoft AI Chatbot Tay <출처. CIO >
그러므로 이러한 데이터에 의한 편향을 방지하기 위해서는 공정성이 필요합니다. 공정성(Fairness)은 인공지능의 편향을 최소화하여 그로 인한 결과가 모든 사용자에게 공정하게 적용되어야 한다는 개념인데요. 인공지능을 디자인할 때에는 이를 이용하게 될 사용자들의 성별이나 인종, 종교 등과 같이 여러 요소들이 반영된 포괄성(Inclusivity)을 반영하야 합니다. 예를 들면 음성인식 인공지능을 개발할 경우에는 영어가 모국어가 아닌 나라의 사용자 데이터를 포함시키는 것과 같이, 균형적인 데이터를 확보하여 사용할 사람들의 다양성과 문화적 맥락을 반영해 알고리즘의 편향을 최소화하여야 합니다. 더 나아가 인공지능을 개발 과정에서는 이러한 데이터를 평가하고 검증하는 프로세스가 필요한데요. 인공지능 서비스 출시 이전에 충분한 사용자 데스트를 통해 편향을 발견하고 개선해야 합니다.
4. 안정성(Safety)
인공지능이 내린 판단과 예측은 완벽할까요? 당연히 100%의 신뢰성을 가지고 있지 않습니다. 인공지능의 알고리즘은 특정한 맥락 하의 데이터를 학습하여 규칙을 만들어 확률이 높은 쪽으로 판단하는데요. 만약 주어진 맥락이 한정적이지 않을 경우 더욱 신뢰성이 낮아질 수 밖에 없습니다. 대표적으로 자율 주행 상황은 정말 많은 변수들이 존재하는데요. 대표적으로 아래 그림과 같이 자율 주행차가 옆면이 하얀색으로 도색된 대형 트레일러를 하늘로 오인해 충돌한 사례가 있었습니다.
자율 주행 오작동으로 대형트럭에 돌진한 충돌 사고
자율 주행이나 금융 및 의료와 같은 도메인에서는 인공지능의 판단 오류는 사용자에게 엄청난 피해로 돌아올 수 있기 때문에 안전성을 확보하는 것이 무척 중요합니다. 인공지능에 의한 안전성을 확보하기 위해서는 다양한 예외적인 상황을 종합적으로 검토해 사전에 오류를 방지하는 것이 가장 중요합니다. 그럼에도 불구하고 1%의 예상치 못한 오류를 고려해 사용자가 인공지능이 동작하고 있는 상황을 모니터링할 수 있도록 하고, 문제 발생 시 사용자에게 알려주어 사용자가 문제를 수정할 수 있는 선택 가능성을 보장하도록 디자인하는 것이 필요합니다.
윤리적인 인공지능 UX 디자인하기
이번 글에서는 윤리적인 인공지능 UX를 디자인하기 위해 고려해야 할 투명성, 데이터 프라이버시, 공정성 그리고 안정성에 대해 살펴보았습니다. 인공지능의 투명성과 사용자의 데이터 프라이버시를 확보하기 위해서는 사용자에게 의미 있는 정보를 적절히 제공해주고, 사용자의 통제권을 유지할 수 있도록 디자인해야 합니다. 인공지능의 공정성과 안정성을 확보하기 위해 양질의 데이터를 공급하고 예외적 상황을 검토하고 출시 전 사용자 테스트를 통해 충분히 검증하고 개선해야 합니다. 사용자의 가치에 큰 영향을 미치는 인공지능의 윤리는 이를 기획하고 디자인하고 개발하는 사람에 의해 결정되기 때문에 인공지능 개발하는 전반에 걸쳐 책임감을 가지고 노력해야 합니다.
혁신적인 기술은 빛과 그림자라는 양면성을 지닙니다. 예를 들면 우리의 삶에 전에 없던 이동성을 제공하는 자동차도 환경 오염을 야기시킬 뿐만 아니라, 매년 교통 사고로 많은 사람의 생명을 앗아가기도 합니다. 이에 우리들은 친환경의 저공해 기술과 사고를 줄여주는 안전성 기술을 개발하는 것과 같이, 혁신적인 기술이 내포하는 어둠의 그림자를 줄여가고자 노력합니다. 마찬가지로 인류 역사상 가장 혁신적인 기술로 볼 수 있는 인공지능도 그 편익은 극대화하되 위협적인 면을 줄여가면서, 인간과 인공지능의 긍정적인 공존 관계를 만들어 가는 것이 필요합니다.