brunch

You can make anything
by writing

C.S.Lewis

by 박 스테파노 Oct 19. 2024

AI에 윤리를 물을 수 있을까?

결국 사람의 몫이다

'AI 윤리'라는 말은 사실 불편하다


AI의 창작물, 과제 등에 이야기를 하다가 '가치 평가'라는 기준을 거들었다. 저작권이라는 '법'의 제도화로 방비할 수 있다고 결론지었다. 그런 중에, 에디터가 질문이 왔다. '윤리'에 대한 것의 논의는 어떤 것이 있는지, 생각이 어떤지 말이다. 사실 첨부터 '윤리'의 이야기를 풀어 보려 했는데 쉽지 않았음을 고백한다. 그 이유부터 풀어 본다.


최근 국내외에서는 AI의 일상화로 제기하는 여러 인문학적, 사회과학적 쟁점을 연구하는 활동이 제법 된다. 전통적으로 인간만이 할 수 있었던 일자리 영역에서 AI 활용으로 대량 실업이 야기된다는 종말론적 두려움이 존재한다. 반대로 인간이 비루한 노동으로부터 해방된다는 유토피아적  희망도 공존한다. 꼭 일자리뿐만 아니다. 예술이나 스포츠 등 창작과 유희의 영역에서도 마찬가지의 고민이 엉겨 있다.


사진=GovernmentCIO magazine

이런 고민의 끝에 '윤리(ethics)'라는 것에 다다른다. AI에 대한 이런 다양한 쟁점을 통합적으로 다루는 분야를 최근 국제 논의 체계에서는 윤리라고 규정한다. OECD에서도 AI 윤리 원칙(AI ethical principles)이라는 용어를 정립했다. 유네스코도 AI 윤리라는 용어를 사용한다.


전기전자공학자 단체인 IEEE는 AI라는 단어를 배제하자고 주장하기도 한다. '인공 지능'처럼 의인화된 로봇이 연상되는 것을 방지하자는 것이다. 그래서 '자동 지능 시스템 (A/IS- Autonomous Intelligent System)이라는 단어를 선호한다. 그저 용어에만 그치는 것이 아니다. IEEE는 A/IS의 설계 단계에서부터 ‘윤리원칙에 일치하는 설계 (Ethically Aligned Design)' 개념을 강조한다. 그와 관련된 국제 표준 마련을 시도하고 있다.

윤리적 설계 (사진=Devopedia)

국내에서는 'AI 윤리'라는 용어 자체가 낯설다. 어색한 것은 물론 불편해하기 까지 한다. 동양 윤리의 의미가 서양의 에식(Ethics)와 차이가 있다. 특히 과학은 윤리 가치와 무관하다는 생각이 짙다. 자료를 조작하거나 다른 사람 연구를 표절하는 등 연구부정행위를 저지르는 것은 과학의 영역이 아니라 사회규범과 법제도의 문제로 보기 마련이다. 과학이나 기술 자체는 윤리적 측면에서 가치중립적이라는 생각이 강하게 작용한다.


일단 사람들은 윤리의 대상이  AI라는 기술이 아니라, 기술을 적용하거나 사용하는 사람들 개인의 행동이라 여긴다. 이런 것을 이유로  AI 윤리에 대한 논의 자체가 기술 반전의 발목을 잡는 비생산적 논의라고 규정한다. 특히 만나본 정부 관료들이 대부분 이러했다. 과학 기술 진흥과 발전의 효율성을 저해한다는 이유에서 그러하다고 했다. 일부는 이미 궤도에 올라 시장을 선점한 선진국들의 몽니, 즉 사다리 걷어 차기라고 이야기하기도 한다.



윤리(倫理) vs. ethics


우선 윤리와 에식(ethics)의 미묘한 차이를 짚고 넘어가야 한다. 동양의 윤리는 지극히 개인적인 행동에 대한 가치 판단으로 한정되는 경향이 있다. 사전적 의미를 보면  정의, “사람으로서 마땅히 행하거나 지켜야 할 도리”라고 나와 있다. 개인 누구나 도리에 어긋나는 명백한 잘못이 있을 때 '윤리적 문제'가 거론되는 것이다. 불륜, 불효, 패륜 등.


영어의 ethics의 어원을 따져 보면, 고대 그리스어에서 ‘인격 character’을 뜻하는 단어 ethos, 그리고 라틴어에서 ‘관습 customs’을 뜻하는 단어 mores와 관련성이 있다. mores라는 영어 ‘moral’의 어원이다. 도덕과 윤리는 혼용되기 십상이다. 옥스퍼드 영어사전을 들추기로 한다.


“A set of moral principles, especially ones relating to or affirming a specified group, field, or form of conduct”


이 정의에서 주목할 것은 '특정 집단, 분야, 행위 포맷'이다. 이는 개인이 아닌 집단과 사회의 '관습'에 대한 규준을 말한다. 우리말 윤리와 달리 영어의 ethic은 개인의 행동뿐 아니라 그 행동의 사회적 의미까지 확장되는 것이다. AI 윤리는 이런 의미에서 두 가지의 초점이 필요하다. 개인의 일탈과 사회적 함의.


최근 문제가 된 AI 챗봇 '이루다'의 사례처럼 지극히 사회적이고 공론의 것이다. 많은 AI 윤리 쟁점은 사회적 합의 도출이 쉽지 않다. AI 알고리즘의 투명성을 과 설명 가능성을 강조하면, 효율성이 저하되기 십상이다. 또한 민감 정보의 유출 가능성이 높아진다. 그렇기 때문에 '누구의 잘못'으로 귀결되기 쉽지 않다. 문제 해결을 위하서는 다양한 주체들의 입장이 고려되는 공론이 필수적이고 사회적인 합의가 반드시 요구된다. 우리의 '윤리'라는 단어가 막히는 부분이다.

국내 기업 AI 윤리 도입 (사진=중앙일보)

인간이 추구하는 여러 가치, 이를테면 자유와 평등 사이에는 동시에 만족하기 어럽다. 공약수의 도출이 늘 어렵다. 모두를 위해서는 이해당사자가 모두 완벽하게 만족하는  것은 현실적으로 불가능하다. 그래서 절충과 협의로 적당히 만족하는 것을 문제 해결로 본다.


이와 같은 논리에서, AI와 관련된 다양한 개인적, 사회적, 법적, 제도적 쟁점에 대해 단순한 선악 판단은 불가능하다. 간단하게 법으로 규제하고 제도로 통제할 수 없는 일이 된다. 깊은 탐색과 논쟁의 노력이 필수적이다. AI에게 묻는 윤리는 표절, 무단 복제, 도용, 가짜 뉴스의 법적 일탈을 이야기하는 것이 아니다. 기술의 편익이 사회의 종합적인 가치를 위해하는가의 아주 고차원의 초월함수 미적분에 가깝다. 어렵다는 이야기다.


그럼에도 창작물과 과제라는 평가 과제의 문제는 '공정'에 대한 가치로 우선될 수 있다. 이 공정만 가볍게 살펴보자.



AI는 인간보다 더 공정할까?


AI는 공정하다는 것은 사실일까 편견일까? 편견이나 사사로운 감정으로부터 자유롭기에 인간보다 훨씬 더 공정할 것이라는 생각이 지배적이다. 비슷한 사건에도 판사마다 다른 판결, 복잡한 의료 서비스에 계속되는 의료사고, 이들보다 AI 판사와 의사를 더 선호한다는 조사도 있었다. 그러나 '이루다' 사건을 보면 AI의 편견이 알고리즘에서 참이라 받아들여지면, 더 극단적으로 증폭된다는 것을 알게 되었다. 기술적 실수라고 은근슬쩍 넘어갈 일이 아니다.


http://www.wolyo.co.kr/news/articleView.html?idxno=215486

앞서 스캐터랩은 이루다 1.0의 동성애자 혐오 발언 등의 논란으로 인해 지난해 1월 서비스를 잠정 중단한 바 있다. 출시 한 달도 안 된 시점이다. 이번 이루다 2.0은 기존 이루다 1.0의 새로운 버전으로 출시된 인공지능이다. -기사 본문 중-


공정성의 판단을 위해서는 한 가지 편향된 통념에서 벗어나야 한다. '인공지능'이라는 단어 때문에 AI가 지각을 한다는 통념. AI는 기계이다. 자신의 활동과 연산 행위가 윤리작인지 아닌지 스스로 알 수가 없다. 차별적 언어를 쓴다고 해서 AI가 차별적 생각을 하는 것이 아니다. 산출하는 문장, 결과물을 '이해'한다고 할 수 없다. 그저 AI는 학습된 프로세스를 통해 '산출물'을 낼 뿐이다. 다시 말해 공정성의 문제는 AI 자체가 아니라 '산출물의 공정성'이 된다.


현재까지 등장한 AI는 공정이란 단어의 의미도 이해하지 못한다. 그러기에 공정과 관련된 복잡한 의미론적, 사회적, 윤리적 관계를 따지는 ‘의식'과 '마음’도 가질 수 없다. 그러므로 AI가 사람보다 더 혹은 덜 공정한가라는 질문은 산출하는 결과물이 사람이 보기에 동일한 일을 수행하는 사람이 산출한 결과물보다 공정한지의 문제가 되는 것이다. 그전에 개입되는 불공정의 행위는 모두 인간의 '의도'가 되니까.


AI는 지난 인간의 활동 패턴을 인식한다. 그렇다면 산출하는 결과물은 지금 세상의 모습이 반영된다. 그렇다면 지금 우리의 세상이 불공정 투성이라면 애초에 AI에게 공정의 결과물을 기대하는 것은 논리 모순이 된다. 또한 '도덕'에 집중해서 챗봇을 만든다고 치자. 웃자고 하는 농담에 계속 도덕 선생님 말씀을 시전 하면, 이 챗봇의 활용되는 어찌 되는 것일까? 결국 돌고 돌아 인간의 몫이 된다. 이와 같이 AI의 공정성의 담보는 제작 목적에 따라 다르다. 그 산출의 공정성을 배재할 AI가 분명 존재할 수 있다.

세계 각국 동향 (사진=뉴스핌)

사회적인 상호 작용이나 사람들의 가치 기준에 영향을 주는 AI의 ‘산출물’이 공정할 것을 요구한 수 있다. 어느 수준의 공정함인지, 그 목적이 정확히 무엇인지는 AI 제작 단계에서부터 충분하고 종합적인 논의를 통해 결정되어야 하는 것이다. 이 결정이 알고리즘 자체나 학습 데이터의 수집 및 활용 과정에 반영되어야 한다. 이런 의미에서 AI는 단순히 공학자들이 만드는 기술, 기계가 아니다. 사회 구성원 모두의 공론과 협의가 반영돼야 한다. 이제 AI는 일종의 문화 체계로 접근해야 하는 시대가 되었다.



AI 윤리는 결국 사람의 몫이다


AI 윤리라는 것은 도덕책의 규율이 아니다. 도리에 대한 가치 판단에 그치는 것도 아니다. AI의 ‘산출물’이 인간이 소중하게 여기는 기본 인권 등의 다양한 사회적 가치를 최대한 존중하는 방식으로 활용될 수 있는지에 대한 논의, 그 논의 자체가 윤리다. 어떤 점에 주목하고 어느 방식의 제도적 대응을 수행해야 하는지에 대한 논의이다. 이 논의에서 파생되는 액션 플랜이 설계단계부터 산출물 도출까지의 전 단계에서 제어되어야 한다. 그를 위해서는 관련된 모두의 윤리의식이 집단화되는 문화 공감대 형성이 필수가 된다.

사진=Datatron

질문으로 돌아가 본다. AI로 하는 창작과 과제물은 '윤리적'일까? 판단의 지점이 잘못되었다. 우선 그 창작자의 의도가 중요하다. 창작 역량의 부족이나 결핍을 꼼수로 하는 것은 AI의 문제가 아니다. 시도 자체가 비윤리적이고 불법적인 것이다. 표절, 도용, 무단 복제가 그러하다. 손으로 하든 기계로 하든 똑같다. 그렇다면 그 범주를 떠나 '산출물'이 공정한가에 대한 판단은 필요하다. 이 역시 인간의 평가 영역이다.


애초에 AI의 사용을 허용, 공개하거나, 아니면 적극적으로 기여도가 제한된 AI를 설계하거나 기준에 부합하는 제품, 서비스 사용을 제한 강제할 수도 있다. 그것에 부합하는 기준이라면 산출물은 공정하다고 인지하는 문화적 공감대의 노력이 더해지면 된다. 결국 인간의 몫이다.


참고문헌)

이상욱, 조은희 엮음 2011, <과학 윤리 특강 – 과학자를 위한 윤리 가이드>
이중원 외 2018,  <인공지능의 존재론>
이중원 외 2019,  <인공지능의 윤리학』>
한국인공지능법학회 2019,  <인공지능과 법>
이상욱 철학교수 Horizon <What is AI Ethics?>Fry, Hannah 2019, Hello World: How to Be Human in the Age of the Machine, London: Transworld Publishers Ltd.
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari