한국의 AI윤리원칙
한국의 경우 2020년 6월, 「국가정보화 기본법」을 「지능정보화 기본법」으로 전면 개편하면서 인공지능 생태계를 구축의 법적 기반을 마련하였으며, 2020년 12월 학기술정보통신부와 정보통신정책연구원의 「사람이 중심이 되는 인공지능 윤리기준(‘20.12)」 발표를 통해 사회구성원이 인공지능 개발·활용 전 단계에서 함께 지켜야 할 주요 원칙과 핵심 요건을 제시하였습니다.
사람이 중심이 되는 인공지능 윤리기준
지향 가치: 인간성(Humanity)
AI는 "인간을 위한 AI"를 지향하며, 인간에게 이로움을 주고 인간의 고유한 특성을 보존하고 발전시키는 방향으로 개발되고 통제되어야 합니다
3대 기본원칙 : 인공지능 개발 및 활용 과정에서 고려되어야 할 원칙
1. 인간 존엄성 존중
AI는 인간의 자율성과 자기 결정을 침해해서는 안되며, 인간을 위한 도구로 기능해야 하고, 인간의 고유한 가치와 정체성을 훼손하지 않아야 한다.
2. 사회의 공공선
AI는 사회적 가치를 가치를 증진하고 인류 공동의 이익에 기여해야 한다.
AI는 특정 집단에 편중되지 않고, 사회적 격차를 줄이는데 도움이 되어야 하며, 사회 구성원에게 공정하게 분배되어야 한다.
3. 기술의 합목적성
AI기술은 본래의 목적에 맞게 개발되고 활용되어야 한다.
AI가 인간에게 해를 끼치거나 위협이 되는 방식으로 사용되어서는 안되며, AI기술의 안전성과 신뢰성을 확보하고, 잠재적 위험을 최소화하는 노력이 필요하다.
10대 핵심요건 : 기본원칙을 실현할 수 있는 세부 요건
1. 인권보장 : AI는 인권과 민주적 가치를 존중하고 보장해야 한다.
2. 프라이버시 보호 : AI 개발과 활용 전 과정에서 개인의 프라이버시를 보호해야 한다.
3. 다양성 존중 : AI는 사용자의 다양성을 보장하고, 개인 특성에 따른 차별을 최소화해야 한다.
4. 침해금지 : AI는 인간의 권리와 자유를 침해하지 않아야 한다.
5. 공공성 : AI는 공공의 이익에 기여해야 한다.
6. 연대성 : AI 개발과 활용에 있어 다양한 이해관계자의 참여 기회를 보장해야 한다.
7. 데이터 관리 : 개인정보 등의 데이터는 목적에 맞게 사용되어야 하며, 데이터 편향을 최소화해야 한다.
8. 책임성 : AI 개발과 활용 과정에서 책임 주체를 명확히 해야 한다.
9. 안전성 : AI 개발과 활용 전 과정에서 잠재적 위험을 방지하고 안전을 보장해야 한다.
10. 투명성 : AI의 활용 내용과 유의사항을 사전에 고지하고, 설명 가능해야 한다.