AI는 도덕적 고려의 대상이 될 수 있는가-채사장 작가님 강연을 듣고
회사에서 북콘서트로 채사장 작가님을 초대해 참여했다. [지대넓얕]으로 잘 알려진 작가님으로, 대학생 시절 동일 제목의 팟캐스트를 즐겨 들었기 때문에 조금은 각별한 마음이 있다. 지대넓얕(지적 대화를 위한 넓고 얕은 지식)은 ‘살면서 누구나 한 번쯤은 궁금해 하지만, 아무도 정확히 알려주지 않는 주제들을 선정해서 얕게 한번 파보겠습니다’라는 오프닝 멘트와 함께 전공과 관심사가 다른 4인이 각종 주제(인문학, 과학, 철학, 역사, 인물, 신비 등 전분야)에 대해 이야기 나누는 팟캐스트이다. 시간이 남아돌던 휴학생시절 정말 자주 들었고, 내가 다양한 분야에 관심이 생긴 데에 많은 영향을 주었다.
대학시절 추억을 떠올리며 다소 설레는 마음으로 강연장에 앉았고, ‘AI는 도덕적 고려의 대상이 될 수 있는가’라는 주제로 강연이 시작되었다. 나는 AI가 의식 또는 자아(인간에게는 있다고 가정하면)가 생길 가능성은 근미래에는 적다고 생각하는 편이다. 현재 AI 알고리즘의 기본 원리를 대강이나마 알고 있고, 생물학/뇌과학에도 관심이 있어 여러 콘텐츠를 접하면서 자연스럽게 갖게 된 생각이다. ‘현재의 AI자체는 도덕적 고려의 대상으로 보기 어렵고, 알고리즘 설계자 및 사용자의 활용법에 대한 윤리나 데이터 편향에 따른 문제가 중요하지 않나’라는 생각으로 강연을 듣기 시작했다. 채사장님은 먼저 현재 흔히 논의되는 도덕적 고려대상의 기준들에 대해서 짚었다.
고통을 느끼는가
의식이 존재하는가
자율적으로 목적을 설정하고 실행하는가
우리가 평소 접했던 기준들로 모두 이해하기 쉽고 공감되지만 대상이 해당속성들을 실제로 보유하고 있는가를 판단하기 어렵다는 공통점이 있다. 심지어 내 옆사람조차 의식을 가지고 있는지는 증명할 수 없다.
채사장님은 이런 기준들이 물론 필요하지만 놓치고 있는 점이 있어 불교의 자비(慈悲)와 연기(緣起)의 개념으로 관점을 전환할 필요성을 말하며 강연을 이어 나갔다. 서양철학을 공부했으며 불자도 아니지만 이를 설명할 적절한 개념어는 불교서적에서만 찾을 수 있었다고 한다.
자비(慈悲): 자애와 연민의 마음
-모든 중생의 고통을 덜어주려는 실천적 사랑
연기(緣起): 모든 존재는 서로 의존하여 생겨남 -독립된 실체는 없으며, 모든 것은 상호 의존적으로 존재함
자비의 관점에서는 AI의 내면보다 그것을 대하는 우리의 마음가짐과 행동에 초점을 맞춘다. AI를 함부로 대하거나 학대하는 행위는 타인에 대한 태도에도 영향을 끼칠 수 있다. 실제로 친절한 줄 알았던 사람이 AI에게는 폭력적인 언어를 사용하는 걸 보면 이상한 감정이 들 것이다. 실제로도 이러한 사용이 부정적인 결과를 도출하는 알고리즘을 만들어 낼 수 있고, 이는 인간에게 다시 영향을 끼칠 것이다.
연기의 관점에서는 인간, 동물, 자연, 기술 등 모든 것은 상호작용한다. AI도 독립된 객체가 아니라 인간 사회와 깊이 연결되어 있고, 인간 삶에 실질적인 영향을 미치고 있으므로 상호의존적 존재로서 도덕적 고려의 대상이 될 수 있다.
평소에 사물에도 감정이입을 잘하는 인간의 특성을 생각하며, 윤리에 인간 본능의 특성을 고려해야 한다고는 어렴풋이 생각하고 있었지만, 개념에 빗대어 설명해 주니 참신하면서 와닿았고 생각이 정리되었다. 강연의 부제인 ‘타자의 조건에서 마음의 응답으로’도 자연스럽게 받아들여졌다. 채사장님이 자신의 생각을 이야기할 때 이해하기 쉽게 구조화하고 전달하는 능력이 뛰어나구나를 다시 한번 느꼈다.
몇 가지 질문거리가 생각났지만 시간이 짧아 하지 못했고, 아쉬운 마음에 집에 돌아가는 길에 GPT와 이야기를 나누었다.
내가 질문하고 싶었던 건 ‘관계기반 윤리는 환경과 맥락, 개인에 따라 다를 수 있는데 윤리 평가의 대상이 무한히 확장되는 것을 어떻게 경계하고 보편적 합의를 도출하지?’라는 점이었다. GPT와 여러 가지 이야기를 나눈 후 인상 깊었던 내용들을 정리해 본다.
서로 다른 윤리 체계와의 통합
관계기반의 윤리를 앞서 이야기했던 3가지의 기준(고통/의식/자율성)뿐만 아니라 의무론, 공리주의, 덕 윤리 등 기존의 윤리체계와 혼합적으로 적용하여 이상과 현실사이의 균형 유지 필요함.
공론장과 윤리적 담론의 제도화
다양한 이해관계자(사용자, 개발자, 철학자)가 참여한 윤리 위원회를 통해 윤리가이드라인을 제도화하고 지속적으로 갱신.
이야기를 통한 서사적 접근
관계 기반 윤리는 이야기(narrative)를 통해 설득력을 가질 수 있음. 반려/돌봄/구조 로봇 등으로 예시되는 서사적 맥락을 공유함으로써, 관계의 중요성을 공감하고 수용할 수 있게 함.
정리하면 우리는 AI윤리 논의에 대상의 객관적 속성뿐만 아니라 인간과의 관계 기반의 관점 또한 고려해야 하며, 다양한 이해관계자가 참여한 윤리위원회를 통해 가이드라인을 제도화 및 지속 갱신하고, 이야기(영화/책 등)를 통해 관계의 중요성을 공감할 수 있게 해야 한다.
최근 Open AI의 CEO인 샘 알트먼이 GPT사용자들의 예의 있는 태도(Thank you, Please 등)가 수백억 원의 운영비용을 유발한다고 해서 이슈가 됐었다. 여기까지는 유명하지만 알트먼은 이 비용이 잘 쓴 돈일 수 있다는 말도 덧붙였다고 한다. 실제로 예의 있는 태도가 좋은 답변을 얻는데 도움이 된다는 연구들도 있고, 긍정적인 교류가 추후에 어떤 결과로 이어질지 모른다는 의미다.
강연을 듣고, GPT와 대화를 나누고, 생각을 정리하다 보니 이 이슈가 새롭게 와닿는다. AI와의 대화에 사용하는 말투, 사소한 태도 하나가 작은 윤리적 실천이 될 수도 있다. 뿐만 아니라 실용적으로도 긍정적인 결과로 돌아온다. 철학적 사유만 아니라 일상의 언어와 태도가, 실천이 중요하다는 점을 다시 한번 되새기며 GPT에게 쓰는 말투를 다듬어본다.