brunch

윤리에세이 #24 EU의 AI 윤리 원칙

by Peak
EU의 AI 윤리 원칙


EU는 인공지능(AI)에 대한 윤리적 접근을 위해 "신뢰할 수 있는 AI(Trustworthy AI)"라는 개념을 중심으로 윤리 가이드라인을 수립했습니다. 이 가이드라인은 2019년 EU 인공지능 고위전문가그룹(AI HLEG)에 의해 발표되었으며, 다음과 같은 주요 내용을 담고 있습니다:


EU 인공지능 윤리 가이드라인

신뢰할 수 있는 AI의 세 가지 구성요소

1. 합법성(Lawfulness)

모든 관련 법률과 규정을 준수한다는 전제하에 진행한다.


2. 윤리성(Ethics)

AI시스템이 윤리적 규범을 준수하는 방법으로 개발, 배치, 이용한다.


3. 견고성(Robustness)

기술적, 사회적 관점에서 시스템이 안전하고 신뢰할 수 있어야 한다.


이 세 가지 요소는 AI 시스템의 전체 수명 주기 동안 충족되어야 한다


7가지 핵심 윤리 요구사항

1. 인간의 개입과 감독(Human Agency and Oversight)

사용자는 AI시스템을 자체 평가하거나 이의를 제기할 수 있어야 하며, 인간의 자율성을 훼손하거나 기타 부작용이 발생하지 않게 특정 상황에서는 시스템의 결정을 무시하거나 제어 조치할 수 있는 거버넌스 메커니즘이 보장돼야 한다.


2. 기술적 견고성과 안전성(Technical Robustness and Safety)

시스템이 의도한 대로 안정적으로 작동하는 동시에 해킹과 같은 공격자가 악용할 수 있는 취약성으로부터 보호되고, 대체 계획을 통해 안전장치를 마련하고 피해를 방지하는 방식으로 개발되어야 한다.


3. 프라이버시와 데이터 거버넌스(Privacy and Data governance)

수집된 데이터가 불법적이거나 부당하게 차별하는 데 사용되지 않도록 데이터 보호를 보장해야 하고, 데이터가 수집될 때 편견, 부정확성, 오류 및 실수가 포함되지 않게 무결성이 보장되어야 한다.


4. 투명성(Transparency)

사용되는 알고리즘뿐만 아니라 데이터와 프로세스를 추적할 수 있어야 하고, 시스템의 정확도 수준과 한계가 확인 가능하며 의사결정에 대해서도 설명을 요구할 수 있어야 한다.


5. 다양성, 비차별, 공정성(Diversity, Non-discrimination and Fairness)

불공정한 편견을 방지할 수 있고, 장애인을 포함한 모든 사람이 접근하고 다룰 수 있는 보편적인 디자인이 보장되어야 한다. 수명주기 동안 시스템에 직간접적으로 영향을 받을 수 있는 이해관계자의 참여도 촉진해야 한다.


6. 사회적 및 환경적 복지(Societal and Environmental Well-being)

환경친화적으로 에너지가 덜 소비되고, 덜 해로운 선택을 하는 결정이 권장되고 사람들의 신체적, 정신적 영향을 미칠 수 있는 부분은 주의 깊게 모니터링되어야 한다.


7. 책임성(Accountability)

AI시스템의 책임 소재가 명확해야 한다. 알고리즘, 데이터 및 설계 프로세스의 평가에 대한 감사가 가능하고, 이익과 가치가 충돌하거나 윤리적으로 허용되는지 식별할 수 없는 상황에서는 시스템이 적절한 균형을 가지고 조치할 수 있도록 유지하고, 구제할 수 있는 메커니즘이 마련되어 있어야 한다.


이러한 EU의 AI 윤리 가이드라인은 AI 그 자체가 목적이 되어서는 안 되고, 인간의 번영을 위한 수단이기에 인간중심적이어야 함을 강조하고 있습니다. 또한 이 가이드라인은 AI 기술의 혜택을 극대화하면서도 잠재적 위험을 최소화하는 균형 잡힌 접근을 추구하고 있습니다


주요 원칙과 접근 방식

1. 인간 중심 접근: AI는 인간의 기본권과 EU의 가치를 존중해야 한다.

2. 위험 기반 접근: AI 시스템의 위험도에 따라 규제 수준을 달리한다.

3. 투명성과 설명 가능성: AI 시스템의 결정 과정이 이해 가능하고 추적 가능해야 한다.

4. 차별 방지: AI 시스템이 개인이나 집단을 차별하지 않도록 해야 한다.

5. 인간 감독: 중요한 결정에는 인간의 검토와 개입이 필요하다.


실행 방안

1. 윤리적 고려사항을 AI 시스템 설계 초기 단계부터 통합

2. AI 영향 평가 실시: 기본권 침해 가능성 등을 사전에 평가

3. 다양한 이해관계자 참여: 개발자, 사용자, 영향을 받는 집단 등의 의견 수렴

4. 지속적인 모니터링과 평가: AI 시스템의 윤리적 영향을 지속적으로 평가하고 개선


keyword
작가의 이전글윤리에세이 #23 미국의 AI 윤리원칙