brunch

매거진 AI

You can make anything
by writing

C.S.Lewis

AI와 이용자 간
건강한 상호작용을 위한 철학

카카오 AI 윤리원칙 내 신규 조항의 신설

2024년 11월 25일부터 3일 동안, 유엔 인권최고대표사무소(Office of the United Nations High Commissioner for Human Rights)가 주최하는 '제13차 유엔 기업과 인권 포럼(13th United Nations Forum on Business and Human Rights)'이 진행되고 있습니다.


UN 기업과 인권 포럼은 기업의 활동 전반에 인권의 중요성을 강조하고 인권침해를 예방하기 위한 목적으로 2012년부터 진행된 행사입니다. 해당 포럼은 가입국의 대표단과 글로벌기구, 공공단체와 더불어 기업활동에서 인권증진의 노력을 인정받아 초청받은 기업들이 참가하는 행사입니다. 카카오는 국내에서 유일하게 관련 사례의 발표 기업으로 초대 받았습니다


카카오는 이번 기업과 인권 포럼 행사 중 첫날, 첫번째로 진행되는 세션에 참가하여 지난 한해 AI와 같은 기술을 바탕으로 인권을 증진하기 위한 다양한 노력과 함께 ‘카카오 그룹의 책임 있는 AI를 위한 가이드라인’ 신규 조항을 발표하였습니다. 해당 가이드라인은 카카오 그룹 전반의 AI윤리 고도화를 위해 기존 카카오 알고리즘 윤리헌장을 토대로 만들어진 윤리 정책입니다. 카카오는 2018년 1월 국내 기업 중 최초로 AI윤리 원칙인 ‘카카오 알고리즘 윤리 헌장’ 발표한 후, 꾸준히 관련 정책을 고도화하고 있습니다. 


UN회의에서, AI와 이용자 간 상호작용에 대한 윤리 원칙 소개


카카오는 완성된 신규조항과 가이드라인 체계를 11월 25일 오전 10시(현지시간)에 스위스 제네바에서 개최한 제13차 유엔 기업과 인권 포럼에서 발표하였습니다. 이번 행사 중 첫날, 첫번째로 진행되는 세션(Fostering responsible business conduct in AI: Learning from stakeholders in diverse geographies to advance rights-respecting AI governance solutions)에 참가하여 지난 한해 AI와 같은 기술을 바탕으로 인권을 증진하기 위한 다양한 노력과 함께 최근 수립된 ‘카카오 그룹의 책임 있는 AI를 위한 가이드라인’의 10번째 조항인 ‘이용자의 주체성’을 소개했습니다. 

                

10. 이용자의 주체성 
인간과 AI간 상호작용 과정에서 인간이 AI에 과도하게 의존하여 주체의 자율성을 약화시키거나 신체적·정신적·사회적 안전을 위협하는 사용이 일어나지 않도록 노력한다.
10. User autonomy
In the course of human-AI interactions, we endeavor to ensure that the human does not overly depend on the AI in ways that undermine the autonomy of users or jeopardize their physical, psychological, or social safety.


발표를 맡은 CA협의체 그룹기술윤리팀 하진화 프로젝트리더는 카카오가 기술기업으로서 이용자의 인권보호를 위한 노력을 다각적으로 소개하는 동시에 신규조항을 발표하여 변화하는 기술과 사회의 흐름에 발맞추기 위한 활동을 국제 사회와 공유하였습니다.


 'UN 기업과 인권 포럼' 행사에서 카카오 사례를 소개 중인 그룹기술윤리팀의 하진화 프로젝트리더(사진의 가장 왼쪽)



조항 신설 배경과 의미


AI 기술의 발달로 서비스도 함께 발전하고 있습니다. 더 많은 사람들이 일상에서 AI를 쓰고 있습니다. 이 과정에서 우리가 기대하는 순기능 이외에도 예기치 못한 부작용들이 발생하고 있습니다.  


여러 연구기관을 통해, AI와의 이용자 간 상호작용 속에서 다음과 같은 문제점들이 보고되고 있습니다[1],[2], [3].  

AI의 의인화(공감, 정서)로 인한 인간의 정서적 과의존  

AI의 소통방식에 익숙해져 인간과의 상호작용 능력 결여  

AI의 자극적 상호작용에 의한 청소년의 감정학대  

AI 환각(Hallucination)  

MIT는 “사용자가 AI 시스템을 의인화 하거나 지나치게 신뢰하고 의존하여 자율성을 손상시키고 사회적 유대를 약화시킬 수 있다”고 분석하기도 했습니다[4].


신규 조항의 준비부터 발표까지


카카오는 지난 2018년 1월, 국내 기업 중 최초로 ‘알고리즘 윤리헌장’을 발표한 데 이어, 2019년 8월 (기술의 포용성), 2020년 7월(아동과 청소년에 대한 보호)과  2022년 5월(프라이버시 보호), 총 세 차례에 걸쳐 신규 조항을 추가하는 개정작업을 거치며 변화하는 기술에 맞춰 윤리헌장을 가다듬어 왔습니다.


2022년 7월, 기술윤리를 계열사 전반에 걸쳐 점검하고, 인공지능(AI)을 포함한 기술을 사회와 함께 발전시켜 나가는 방안을 고민하기 위해 카카오를 비롯한 주요 계열사가 참여하는 ‘공동체 기술윤리 위원회’가 설립되었습니다. 지난 6월부터 카카오 그룹의 기술윤리는 CA협의체 산하 ESG위원회의 그룹기술윤리소위에서 논의되고 있습니다(참고: 테크에틱스)


나아가 2023년 3월, 공동체 기술윤리 위원회는 기존의 알고리즘 윤리헌장에 대한 전면 개정에 합의하였고, 카카오와 주요 계열사가 공동으로 준수하여야 할 AI의 윤리 원칙을 공식적으로 확정하였습니다. 총 9개의 원칙으로 이루어진 ‘카카오 그룹의 책임 있는 AI를 위한 가이드라인'은 카카오를 비롯한 주요 계열사가 함께 AI 윤리의 개념과 원칙에 대해 숙의하고 최종 합의했다는 차별점을 가집니다.

AI 기술과 서비스 고도화에 따라, 카카오는 24년 상반기 부터 AI윤리 원칙의 고도화를 검토하기 시작했습니다. AI와 이용자 간 직접 소통의 건강성을 높이는 데 관련 윤리와 정책을 강화하는 방향으로 내부 의견은 수렴됐습니다. 카카오 내부의 검토 과정을 거쳐 준비된 신규 조항의 초안은 이번 조항의 목적과 의미를 보다 명확하게 하기 위해 관련 분야 최고의 전문가들이 모인 한국인공지능윤리학회의 검토와 감수 과정을 거쳤습니다.


이번 신규조항을 검토한 한국인공지능윤리학회장 변순용 교수(서울교육대학교 윤리교육과)는 신규 조항에 대해 아래와 같이 평했습니다.

"이용자의 주체성과 안전성을 강조하는 새로운 조항은 AI 기술에 기반한 서비스에서 발생할 수 있는 AI 과의존과 과몰입의 문제를 해소할 수 있는 중요한 대응책이 될 것이다. AI윤리를 강화하려는 카카오의 이러한 노력은 AI분야의 리더로서 수행하는 사회적 책임의 실천으로 AI 서비스 분야에서 중요한 방향타의 역할을 할 것이다."


기존의 가이드라인도 계위를 구분하여 각각의 원칙이 보다 통일성을 갖출 수 있는 체계를 구축하라는 학회의 감수 의견이 있었습니다. 보편 원칙 이외에 ①상위 단계: 보편적인 윤리 가치의 지향성, ②중간 단계: AI 기술 발달과 사회 변화에 따른 윤리 원칙의 다양성, ③하위 단계: 세부적인 사례와 실천안으로 구분하라는 학회의 제안도 반영되었습니다.


카카오는 신규 조항과 학회 제안을 반영하여 새롭게 구성된 ‘카카오 그룹의 책임 있는 AI를 위한 가이드라인'은 아래와 같습니다. 

이상호 카카오 그룹기술윤리 소위원회 리더는 이번 개정을 통해  "카카오의 AI기반 기술과 서비스가 보다 안전하고 포용적이며 믿을 수 있는 미래를 만들어 나가도록 정책을 가다듬고 적용하는 데에 세심한 노력을 기울이겠습니다"라고 다짐하였습니다.


참고자료

[1]https://www.media.mit.edu/articles/we-need-to-prepare-for-addictive-intelligence/

[2]https://oecd.ai/en/classification

[3]https://www.whitehouse.gov/ostp/ai-bill-of-rights/human-alternatives-consideration-and-fallback/

[4]https://airisk.mit.edu/#Repository-Overview

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari