Ethics guidelines for trustworthy AI
어느새 우리는 AI라는 단어를 어디에서든 쉽게 접할 수 있게 되었고, 우리가 사용하는 서비스 속에서 나도 모르게 인공지능 서비스를 사용하고 있는 세계에서 살고 있다.
시간이 조금 흐르기는 했지만, EU는 2019년 4월, 신뢰할 수 있는 AI를 위한 윤리지침 가이드라인을 만들어 배포하였고, 지금 우리에게도 시사하는 바가 있어 간단히 내용을 요약해보았다.
우선 상세한 내용은 아래 링크에서 확인이 가능하다.
https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
신뢰할 수 있는 AI에 대한 가이드라인은 아래를 고려해야 한다.
합법적이어야 함(Lawful): 모든 관련 법률 및 규정을 준수
윤리적이어야 함(Ethical): 윤리적 원칙과 가치를 존중
견고해야 함(Robust)-사회적 환경을 고려하며 모든 기술적 관점을 존중
그리고 해당 가이드라인은 아래 7가지 사항을 제안하고 있다.
인간의 대행 및 감독(Human agency and oversight) : **
AI 시스템은 인류에게 권한을 부여하여 정보에 입각한 결정을 내리고 기본 권리를 육성할 수 있어야 한다. 동시에, 적절한 감독 메커니즘이 보장되어야 한다.
기술적 견고함과 안전함(Technical Robustness and safety): **
AI 시스템은 탄력적이고 안전해야 한다. 안전이 중요하며, 무언가 잘못될 경우 대비책을 보장하고 정확하고 신뢰할 수 있으며 재현 가능해야한다. 이것이 의도하지 않은 피해를 최소화하고 예방할 수있는 유일한 방법.
개인 정보 보호 및 데이터 거버넌스(Privacy and data governance): **
개인 정보 보호 및 데이터 보호를 완전히 존중하는 것 외에도 데이터의 품질과 무결성을 고려하고 데이터에 대한 합법적인 접근을 보장하는 적절한 데이터 거버넌스 메커니즘도 보장되어야 한다.
투명성(Transparency): ***
데이터, 시스템 및 AI 비즈니스 모델은 투명해야 한다. 추적 메커니즘은 이를 달성하는 데 도움이 될 수 있다. 또한 AI 시스템과 시스템의 결정은 이해 관계자에게 적합한 방식으로 설명되어야 한다. 인간은 자신이 AI 시스템과 상호 작용하고 있음을 인식하고 시스템의 기능과 한계에 대해 알고 있어야 한다.
다양성, 차별 금지와 공정성(Diversity, non-discrimination and fairness):
불공정한 편견은 여러 가지 부정적인 영향을 미칠 수 있으므로 피해야한다. 다양성을 장려하는 AI 시스템은 장애가 있더라도 모든 사람이 접근 가능해야 하며 전체 AI 사이클 내에서 의사 결정자들이 참여해야 한다.
사회, 환경적 행복 (Societal and environmental well-being):
AI 시스템은 미래에도 모든 인간에게 이익이되어야 한다. 따라서 지속가능하고 환경 친화적인지는 중요한 요소이다. 뿐만 아니라 AI 시스템은 다른 생명체를 포함한 환경도 함께 고려해야하며 다른 생명체의 사회적 영향 역시 신중하게 고려해야 한다.
책임(Accountability):
AI 시스템과 그 결과에 대한 책임과 책임을 보장하기 위한 메커니즘을 마련해야 한다. 알고리즘, 데이터 및 설계 프로세스를 평가를 가능하게 하는 감사기능은 중요한 애플리케이션에서 핵심적인 역할을 한다. 뿐만 아니라 접근 가능한 적절한 구제방법이 있어야 한다.
* 여기서 이야기하는 AI 시스템이란 AI의 기반 구성요소. 즉, 소프트웨어 및 하드웨어를 의미한다.
위 AI 시스템의 7가지 윤리지침에 대한 내용 외에 인공지능에 대한 간략한 설명을 덧붙인 문서가 있는데, 그 중에서 참고하면 좋을만한 내용만 별도로 정리해본다.
전체 내용은 아래 첨부파일을 확인하면 된다.
로봇 청소기 AI 시스템의 사례를 빌어서 설명을 해본다면, 카메라는 바닥의 이미지를 추론/정보처리 모듈에 제공할 것이며 해당 모듈은 바닥을 청소할지 말지를 결정하게 되는 과정을 거치게 될 것이다.
관련 추론/정보 처리 의사결정 프로세스는 3단계로 나뉘게 된다.
1. 바닥의 이미지를 해석하여 얼마나 깨끗한지에 대한 판단을 한다. 이는 데이터로 변환될 수 있다.
2. 해당 정보를 데이터 처리할 수 있는 알고리즘에 의해 바닥의 깨끗한 정보를 데이터로 변환하고 청소를 할지 말지에 대한 결정을 한다.
3. 청소를 시작하거나 청소를 하지 않고 모니터링 하는 결정을 한다.
현재 AI 시스템은 목표지향적으로 디자인 되는 경우들이 많다. 사람들이 목표로 하는 세부사항을 받아들이고 움직이는 경우가 많기 때문이다. 현재 AI 시스템이 직접적으로 목표를 정의하지는 못하지만 일부 AI 시스템(특정 머신러닝 기술에 기반)의 경우, 보다 자유롭게 목표를 직접 결정하는데 있어 자유로운 경우도 존재한다.
첨부되어 있는 A Definition of AI 문서는 전문적인 내용들이 담겨 있다기 보단 상당히 보편적인 인공지능에 대한 내용을 담고 있는 문서이다. 7가지 인공지능 윤리에 대한 가이드라인도 마찬가지로 인공지능의 윤리에 대한 이야기여서 더욱 추상적으로 들릴 수 밖에 없는 듯 하다.
하지만 인공지능에 대한 다양한 서비스를 구상중이거나 운영중인 분들이 항상 고민해보아야 하는 지침임은 분명해 보인다. �
Reference
https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
http://www.hani.co.kr/arti/science/future/889308.html
http://www.aitimes.com/news/articleView.html?idxno=132945
구글의 AI 디자인가이드가 궁금하다면.
https://brunch.co.kr/@monglec/21
+
일상에서 활용되고 있는 AI의 다양한 사례들이 궁금하다면.
https://brunch.co.kr/magazine/dailyai
email: pentaxzs@daum.net
twitter: @pentaxzs
brunch: https://brunch.co.kr/@monglec