AI개발의 전 생애주기 걸친 체크리스트 제작 과정
카카오의 AI 윤리 거버넌스 고도화를 향한 과정
카카오는 꾸준히 카카오만의 책임 있는 AI 실행 방안을 고민해 왔습니다. 그간 AI 윤리 정책을 수립하고, 담당 조직을 발족함으로써 AI 윤리 거버넌스 체계 구축의 기반을 닦고, 관련 정책을 실천하기 위해 AI 윤리 자가점검 도구를 개발하는 등 지금도 카카오는 AI 기술의 현장에서 AI 윤리를 내재화하기 위해 노력하고 있습니다.
이러한 카카오의 AI 윤리 거버넌스 고도화를 향한 과정은 앞으로도 계속될 것입니다. 단기적으로 결과물을 만들어내는 것에 국한되기보다 더 넓은 관점에서 책임 있는 AI를 위한 비전을 세우고, 카카오와 주요 계열사가 그 비전을 향해 함께 나아갈 수 있도록 하는 것이 이 과정의 핵심 가치라 할 수 있습니다.
정책 개선 그리고 실천의 영역으로
2018년 1월 카카오 알고리즘 윤리헌장이 공개되었습니다. 이후, 카카오는 포용성(2019년), 아동과 청소년 보호(2022년) 및 프라이버시(2022년) 관련 조항을 추가함으로써 알고리즘 윤리헌장을 꾸준히 개정해 왔습니다. 또한, 알고리즘 윤리헌장이라는 선제적 정책 선언을 실천의 영역으로 가져가기 위해 증오발언 근절 원칙을 이모티콘 제작 가이드 등 자사 서비스에 적용하였으며(사회적 차별에 대한 경계), 다음 뉴스 배열 설명서를 대중에게 공개하기도 했습니다(설명가능성 강화).
나아가 2023년 3월 카카오 공동체 기술윤리 위원회(Tech for Good Committee, 現 그룹 기술윤리 소위원회)는 기존 알고리즘 윤리헌장에 대 한 전면 개정에 합의하였고, 카카오와 주요 계열사의 AI 윤리 원칙을 공식적으로 카카오 공동체의 책임 있는 AI를 위한 가이드라인이라 확정하였습니다. 위원회 차원에서 합의한 카카오 공동체의 책임 있는 AI를 위한 가이드라인은 카카오를 비롯한 주요 계열사가 함께 AI 윤리의 개념과 원칙에 대해 숙의하고 최종 합의했다는 차별점을 가집니다.
자가점검 도구의 개발
2023년 3월 카카오 공동체 기술윤리위원회가 합의한 카카오 공동체의 책임 있는 AI를 위한 가이드라인을 바탕으로 이후 6개월간 카카오 인권과기술윤리팀(現 그룹기술윤리팀)은 카카오와 주요 계열사가 참고할 수 있는 AI 윤리 자가점검 도구 개발에 매진해 왔습니다.
2023년 9월 카카오 공동체 기술윤리 위원회의 합의 하, 기술 개발 및 서비스 직군 담당자를 포함한 별도 카카오 AI 윤리 체크 리스트 검토 TF를 발족하였으며, 그해 11월 63개 문항으로 이루어진 책임 있는 AI를 위한 생애주기별 자가점검 도구 준비를 마칠 수 있었습니다.
아래 첨부된 설명서를 통해 소개되는 책임 있는 AI를 위한 생애주기별 자가점검 도구는 설계 단계부터 지속적인 개선을 목표로 하였습니다. 총 63개 문항으로 구성된 해당 도구는 크게 두 가지 특성을 띕니다. 우선, 문항들이 AI 시스템의 개발 단계(생애주기)에 맞춰 배치되어 있고, 카카오와 주요 계열사가 합의한 9가지 AI 윤리 원칙(카카오 공동체의 책임 있는 AI를 위한 가이드라인)과 매칭되어 있습니다. 다시 말해서, AI 시스템 관련 실무자는 도구의 각 문항 점검을 통해 AI 개발 단계에 맞는 리스크 점검을 할 수 있고, 관련 AI 윤리 원칙 이행 여부까지 확인할 수 있습니다. 해당 설명서는 사내 공개 후, 각 계열사가 자체적으로 AI 관련 안전 점검 절차를 수립하거나 도구를 개발할 때 참고할 수 있는 자료로 활용되고 있습니다.
최근 준비된 안전한 AI를 위한 핵심 체크리스트에 이르기까지 도구를 다듬어가는 과정에서 스태프 직군, 서비스 직군, 테크 직군 등 카카오 내 다양한 직군 간 활발한 논의가 진행되었으며, 해당 설명서에 이러한 다수 이해관계자 간 AI 윤리 토의 과정을 담았습니다. 다양한 이해관계자 간 소통은 공통의 목적을 민주적이고 통합적으로 달성하기 위한 기반이 됩니다. 특히 기술을 대변하는 AI와 사회과학·인문을 대변하는 윤리라는 다소 이질적으로 보일 수 있는 두 개념을 조화롭게 검토하기 위해서는 다양한 지식과 경험을 겸비한 직군 간 교류가 필수적인 부분이었다고 할 수 있습니다.
책임 있는 AI를 위한 생애주기별 자가점검 도구 설명서, 의의 및 개선 방향
녹서(green paper)란, 주요 결정 과정에 이르는 논의 과정을 담는 그릇입니다. ‘책임 있는 AI를 위한 생애주기별 자가점검 도구 설명서’는 녹서의 역할을 합니다. 이번 설명서는 카카오의 AI 윤리 원칙 수립 및 실천 도구의 개발 과정을 담고 있습니다. 설명서의 공개는 카카오의 AI 윤리 거버넌스 고도화의 경험을 공유하는 것입니다. AI 윤리를 내재화 과정의 공유는 우리 사회 다른 조직의 고민을 더는 데 기여하고자 하는 바람에서 이뤄졌습니다. 결과물이 아니라, 과정 자체의 공유가 ‘기술윤리’라는 공통의 주제를 함께 발전시켜가고 하는 우리 사회의 동료들에게 유의미한 참고자료로서 기능하길 바랍니다.
[첨부자료] 책임 있는 AI를 위한 생애주기별 자가점검 도구 설명서