교회가 알아야 하는 AI의 윤리적사용 : 인공지능은 신뢰할 수 있나?
지난해 목회데이터연구소에서 실시한 챗GPT에 대한 목회자의 인식과 사용 실태조사에서 650명의 한국 개신교 목회자 중 20%가 챗GPT를 사용하여 설교를 작성했고 약 60%는 설교 아이디어를 떠올리는 데 유용하다고 답했습니다. 더욱 놀라운점은 신뢰도에 대한 질문에서 무려 사용자의 81%가 ‘신뢰한다’라고 답한 결과입니다.
한국인간공학회(JESK)의 또 다른 연구에서, 내담자는 "인공지능이 상대방이기 때문에 생각해왔던 것들을 눈치 볼 필요 없이 표현할 수 있어서 실제 인간 상담사와의 대화보다 편했다”라고 답했습니다.
이러한 연구 결과는 AI가 종교, 특히 설교(강론)을 중요하게 생각하는 교회에서 큰 영향력을 발휘할 수 있음을 보여주는 동시에 기독교 윤리를 AI에 어떻게 적용할 수 있을지에 대한 고민과 교회에 적합한 AI의 선택에 대한 질문을 제기합니다.
인공지능의 발전은 의심할 여지없이 사회를 변화시키고 지금까지 보거나 예상하지 못했던 방식으로 삶의 수많은 영역에 영향을 미치고 있습니다.
이 글을 읽어보기 전에 인터넷에서 ‘아실로마23 원칙’을 찾아보시면 좋습니다.
AI 기술이 발전할 수록 AI 이해관계자들이 준수해야 할 보편적 사회 규범 및 관련 기술인 인공지능 윤리(AI Ethics)가 중요하게 거론되고 있습니다.
인공지능(AI)에 대한 기독교의 윤리적 접근은 복잡하고 다면적인 문제로, 다양한 기독교 관점이 그 함축성에 대해 논의하고 있습니다.
2019년 4월, 60명의 복음주의 지도자들이 AI에 대한 선언문을 발표하여 복음주의 교회를 위한 윤리적 틀을 제공하고자 했습니다.
다음은 복음주의 지도자들의 AI 윤리 선언문을 정리한 내용입니다.
그들의 선언에 따르면, 하나님의 형상, 기술로서의 AI, AI와 인간의 관계, 의학에서의 AI 진보, 편향, 성윤리, 노동, 데이터와 프라이버시, 보안, 공공 정책 등이 주요 주제입니다.
선언문에는 AI는 인간의 노력과 기술을 증강할 수 있지만, 인간성을 해치거나 기본적인 인권을 침해해서는 안 됩니다. 또한 AI는 정당한 전쟁과 인간의 통제 이상에 부합하는 방식으로만 전쟁에 활용되어야 한다고 강조합니다.
선언문은 정부가 인권을 보호하고 AI 정책 개발에 대중을 포함시켜 인권이 침해되지 않도록 할 의무가 있다고 강조합니다. AI의 미래가 계속 성장할 것이지만, 인간의 가치, 존엄성 또는 하나님의 창조자로서의 역할을 대체하지 않을 것이라고 선언하고 있습니다.
또한 교회는 인간의 존엄성을 보호하고 윤리적인 AI 사용을 촉진하는 데 책임이 있다고 주장합니다. 이러한 원칙은 기독교인들이 AI와 책임있고 윤리적으로 상호 작용하는 데 지침을 제공하며, 인간의 존엄성과 하나님의 설계를 존중하는 것을 목표로 합니다.
교회가 AI를 사용하기 위해서는 필요한 구체적인 사용처와 방법을 우선적으로 검토하고 파악해야 합니다. 또한 공동체 또는 리더십의 함의를 구하는것은 매우 중요한 일입니다.
AI는 설교, 게시판 및 소셜 미디어 콘텐츠 제작 등 콘텐츠 생성에 탁월하지만 교회나 목회현장에서 AI사용할 때는 윤리적 고려 사항이 발생합니다. 따라서 AI가 교회의 가치 및 성경적 메시지와 어떻게 일치하는지에 대한 논의와 숙고가 반드시 필요합니다.
편향성, 진정성, 공공성, 비판적검토, 개인정보 등 인공지능의 신뢰와 윤리에대해 언급할때면 빠짐없이 등장하는 단어들입니다.
이러한 윤리적 원칙을 AI 시스템에 실제로 적용하는 것은 쉽지 않은 과제입니다.
한상기 박사의 저서 "신뢰할 수 있는 인공지능"에서는 이 문제에 대해 다음과 같이 언급합니다.
"아실로마23원칙을 비롯해 다양한 기관에서 원칙을 정하면서 인간의 가치와 부합하는 결정을 해야 한다고 언급했다 할지라도 기술적으로 구현되지 않으면 아무 도움이 되지 않는다. 인간의 가치 시스템이 무엇인지 어떻게 기계가 알 수 있을까? 실제 어떤 가치 시스템이 우리가 모두 동의하는 시스템인가를 정하기도 어렵다.”
이는 AI 윤리 원칙을 실제로 구현하는 데 있어서의 근본적인 도전을 지적하고 있습니다.
지난해 11월 영국의 과학, 기술, 신학 분야 기독교 지도자들이 인공지능(AI)에 관한 정상회담에 서 믿음과 신앙 공동체들의 참여를 요청하는 공개 서한에 서명했습니다.
이어진 서한에서 AI의 영향은 우리의 집단적 관심을 요구하는 상당한 윤리적, 실존적 질문을 제기하고 있다. 우리가 광범위한 종교적, 문화적 관점을 수용할 수 있는 방법을 찾지 못한다면 분명히 단기적인 상업적, 경제적 이익이 장기적인 사회적, 윤리적 우려보다 커질 위험이 있다"고 경고했습니다.
때문에 AI가 제기하는 윤리적 문제를 해결하는 데 있어 공학자, 윤리학자, 신학자 및 기타 이해관계자 간의 협력이 중요합니다. 이러한 협력적 접근 방식은 AI를 공평과 공정을 포함한 공동선에 부합하는 방식으로 개발하고 사용할때 주권자이신 하나님의 계획을 인정하며 사용할 수 있습니다.
불가피하게 AI와의 공존이라는 새로운 도전에 직면해 있습니다.이 첨단 기술을 맹목적으로 수용하거나 무조건적으로 거부하기보다는, 지혜롭게 활용하면서도 교회의 본질을 지키며 동시에 시대의 변화에 적응해 나가는 지혜가 그 어느 때보다 절실한 시점입니다.
결론적으로, 교회는 사역 활동에 AI를 활용하는 것을 진지하게 고려해야만 합니다. 더불어 그보다 더 신중하게 이에 대한 명확한 정책을 초교파적 최상위 조직으로 부터 개발해야 합니다. 이 정책에는 인공지능윤리, 기대 사항, 교육 방법, 모범 사례 등이 포함되어야 합니다.
AI의 장점을 잘 활용하면서도 윤리적 문제를 신중히 다룸으로써, 목회자들과 교회봉사자 그리고 직원 모두가 AI를 안전하고 효과적으로 사용할 수 있는 정책을 수립하는것을 기본으로 합니다.
정책이 마련되면, 교계(교단)전체에 체계적이고 효과적으로 전달할 수 있는 프로세스를 만들어 교회에서 AI 기술을 사용할 때 자신의 역할과 책임을 이해할 수 있도록 해야 합니다.
이를 위해 총회와 노회같은 상위기관에서 주요 내용을 설명하는 교육 세션이나 워크숍을 진행하고 AI 사용과 관련한 문제들에대한 질의에 대응 하거나 연락할 수 있는 전문가로 구성된 전담팀을 우선적으로 설치하는것이 교회가 신뢰할 수 있는 윤리적 AI수용하는 첫번째 관문일 것입니다
* 목회데이터연구소 : https://url.kr/xQLZkf
* 한국인간공학회 : https://www.jesk.or.kr/archive/detail/140?is_paper=y
* AI and Faith : https://aiandfaith.org/religious-ethics-in-the-age-of.../