백악관의 AI 권리장전
2022년 10월 백악관 과학기술정책실(OSTP)에서 발표한 「인공지능 권리장전을 위한 청사진」은 다음 5가지 핵심 보호장치를 제시합니다
1. 안전하고 효과적인 시스템(Safe and Effective Systems)
전문가의 자문을 받아 개발되어야 하고, 시스템이 의도된 사용에 기초하여 안전하고 효과적이라는 것을 입증하는 배포 전 테스트, 위험 식별 및 완화 장치가 있어야 한다.
2. 알고리즘에 의한 차별로부터의 보호(Algorithmic Discrimination Protections)
공정성 평가를 시스템 설계 내에 포함하고, 대표성이 있는 데이터를 활용하며 지속적인 모니터링을 실시해야 한다.
3. 데이터 프라이버시(Data Privacy)
프라이버시 침해를 막는 설계 요소를 기본적으로 고려하고, 사용자의 허가를 구하고 데이터의 수집/활용/이전/삭제를 해야 한다.
4. 공지 및 설명(Notice and Explanation)
시스템 기능과 자동화 역할에 대한 명확한 설명을 포함한 문서를 제공해야 하며, 시스템이 사용 중이라는 사실, 시스템을 책임지는 개인과 조직, 결과물에 대한 설명을 적시에 명확하게 알려야 한다.
5. 대안(Human Alternatives, Consideration, and Fallback)
시스템이 실패나 오류, 결과에 이의를 제기할 경우 사람이 상황을 검토하고 해결하는 방식으로 전환할 수 있어야 한다.
국방부의 AI 윤리원칙
2020년 2월 세계 최초로 군사 분야에서의 인공지능(AI) 사용에 대한 윤리원칙을 채택했으며, 5가지 핵심 원칙으로 구성되어 있습니다.
1. 책임성(Responsible)
국방부 직원은 AI 기능의 개발, 배포 및 사용에 대한 최종적인 책임은 인간이 져야 한다.
2. 공정성(Equitable)
편견을 최소화하기 위해 의도적인 노력을 기울이고, 특정 집단이나 개인을 차별하지 않고 공정하게 작동해야 한다.
3. 추적 가능성(Traceable)
AI 기능의 개발 과정, 데이터 출처, 설계 절차 등이 투명하고 검증할 수 있어야 한다.
4. 신뢰성(Reliable)
AI 시스템은 정의된 사용영역 내에서 안전하고, 보안이 철저하며, 예측가능하고 일관된 결과를 제공해야 한다.
5. 통제 가능성(Governable)
AI 시스템은 의도하지 않은 결과나 피해를 감지하고 회피할 수 있는 능력을 갖추어야 하며, 필요한 경우 인간이 개입하여 안전하게 해제할 수 있어야 한다.