https://standards.ieee.org/content/dam/i
인공지능(AI)과 자율시스템(AS)의 잠재력을 충분히 활용하기 위해서는 높은 계산능력과 문제해결 능력의 추 구 그 이상이 필요하다. 이러한 테크놀로지들은 우리의 도덕적 가치와 윤리원칙의 관점에서 인간과 조화를 이루어야 한다. 인공지능 및 자율시스템은 기능적 목표달성과 기술적 과제해결을 넘어서 사람들에게 도움이 되어야 한다. 이는 인간과 기술 간의 높은 신뢰⯿준을 구축할 것이며, 일상생활에 널리 보급되어 있는 인공지능 및 자율시스템의 사용 을 더 풍요롭게 할 것이다. 철학자 아리스토텔레스가 제시한 Eudaimonia는 인간의 행복을 사회의 최고 미덕으로 정의하는 실천적 덕 목이다. ‘번영’으로 번역되는 행복(Eudaimonia)은 의식적 Ⰰ고로부터 출발하는데, 윤리적 고려가 우리가 원 하는 삶을 결정하는데 도움을 준다. 사용자와 사회가치에 부합하도록 인공지능 및 자율시스템을 설계함으로써 인간복지의 증대를 알고리즘 시대 의 발전지표로 설정하는 것이 가능하다.
교황청
프란치스코 교황이 인공 지능과 디지털 기술 경쟁이 공동의 선에 대한 윤리를 동반하지 않는 한 사회적 불평등 위험이 높아질 것이라고 경고했다.
프란치스코 교황은 로마 바티칸 시국에서 9월 26일에서 28일(현지시각) 3일 간 열린 ‘디지털 시대의 공동선’ 바티칸 컨퍼런스에서 이같이 연설했다.
‘디지털 시대의 공동선(The Common Good in the Digital Age)’ 컨퍼런스에는 정부 특사와 페이스북(Facebook) , 구글(Google) 관계자, 철학자, 물리학자 및 윤리 학자 등 정부, 업계, 학계와 교계 관계자들이 폭넓게 참여했다.
28일(현지시각) AP통신에 따르면 이번 컨퍼런스는 바티칸의 인공 지능 등 새로운 디지털 시대 전망과 위험에 대한 공공선을 강조, 바티칸이 관련 논의의 장소가 되기를 희망한다는 것을 보여준다.
토론에는 기계 기술에 대한 의존도가 높아짐에 따라 전쟁과 기술의 발전, 뉴질랜드 크라이스트 처치 대학살과 대학살 영상 확산 등 소셜 미디어 회사의 결정에 대한 사례 연구가 포함됐다.
총회 연설에서 교황은 산업 혁명이 시작될 때 기계가 위험하고 단조로운 노동을 대신했다는 것을 지적하면서 기술 진보의 가능성을 칭찬했다. 그러나 그는 이익을 위해 로봇 공학에 대한 의존도가 증가함에 따라 사람들의 노동 존엄성을 박탈당할 위험이 있다고 경고했다.
그는 “기술 진보가 점점 더 증가하는 명백한 불평등의 원인이된다면, 그것은 진실이 아니며 진정한 진보가 아닐 것”이라며 “만약 인류의 이른바 기술 진보가 공동선에 적대적이 된다면 가장 강한 자의 법칙이 지배하는 야만적인 형태로 불행한 회귀가 될것”이라고 말했다
로마 교황청이 2월 28일 발표한 AI윤리 백서.
로마 교황청이 인공지능(AI) 시스템이 준수해야 할 규정과 원칙을 발표했다. '사악한 AI'를 막기 위한 교황청의 AI백서다.
로이터 등 외신에 따르면 교황청이 지난 28일(이하 현지시각) 발표한 'AI 윤리를 위한 로마 콜(Rome Call for AI Ethics)'은 마이크로소프트(MS), 페이스북 같은 테크 기업들이 지지했을 뿐 아니라 준칙 마련에 도움을 줬다.
서문에서 '로마 콜'은 "AI 발전은 기술이 아니라 사람에 초점을 두고 이뤄져야 한다"고 강조했다.
'로마 콜'은 ▲서문 ▲윤리(Ethics) ▲교육(Education) ▲권리(Rights) 등 4개 부문으로 이뤄졌다.
서문에서 '로마 콜'은 AI가 인간의 삶에 큰 변화를 가져오고 있으며, 앞으로도 그럴 것이라면서 "신기술은 모든 '인간 가족(human family)'에 봉사한다는 원칙하에 연구되고 상용화돼야 한다"고 강조했다.
또 윤리 부분에서는 모든 인간은 존엄과 권리를 갖고 자유롭고 평등하게 태어났다면서 "AI 시스템을 사용하고 만들때는 이런 정신을 보호하고 보장해야 한다"면서 "AI 시스템은 인간과 인간이 살고 있는 환경에 봉사하고 보호하기 위해 고안되고 설계 및 구현돼야 한다"고 규정했다.
권리 부분에서는 인류애적 관점에서 AI 발전이 약자와 소외된자들을 보호해야한다면서 "인류와 지구에 이익이 되는 AI 시스템을 개발하고 구현하려면 AI의 발전이 강력한 디지털 보안 대책과 병행돼야 한다"며 보안의 중요성도 강조했다.
또 안면 인식과 같이 인권에 영향을 미칠 위험이 높은 첨단 기술의 경우 윤리 원칙에 대한 투명성과 준수를 촉진하기 위해 새로운 형태의 규제가 권장돼야 한다고 지적했다.
'로마 콜'은 AI가 윤리적으로 디자인돼야 한다는 'algor-ethical'이라는 새로운 개념도 제안했다. 특히 권리 부분에서 AI의 윤리적 이용을 위해 필요한 6가지 원칙으로 투명성, 포용, 책임성, 불평부당, 신뢰성, 보안&프라이버시를 제시했다.
투명성(Transparency)은 AI시스템이 반드시 설명가능해야 한다는 것으로, (왜 그런 결정을 내렸는지) 설명을 하지 못하는 것이 현 AI시스템의 맹점이다. AI 윤리 옹호자들은 '설명 가능성'이 인공지능 시스템에 책임을 물을 수 있는 중요한 방법 중 하나라고 지적한다.
포용(Inclusion)은 AI로부터 이익을 얻는 것은 일부가 아닌 모든 사람이 돼야 하고, 책임은 AI를 디자인하고 설치하는 사람들은 반드시 책임과 투명성 원칙하에 움직여야 한다는 것이다.
또 불편부당(Impartiality)은 편견없는 데이터 입력을, 안전과 프라이버시는 AI 시스템은 안전할 뿐 아니라 사용자 프라이버시를 존중해야 한다는 것이다.
준칙 마련에 앞서 프란치스코 교황은 페이스북 CEO 마크 쥬커버그와 MS 법률 사장 브래드 스미스, 에릭 슈미트 전 구글 회장 등을 만나 의견을 교환했다.
한편 교황은 27일 바티칸에서 열린 '디지털 시대의 공익 콘퍼런스'에서 "디지털 기술은 윤리적 의무를 수반해야 한다"고 밝히기도 했다.
신기술이 카톨릭과 인간 사회에 미칠 영향을 탐구해 온 교황과 교황청은 AI의 미래에 대해 그동안 큰 관심과 우려를 함께 표방했다.