brunch

You can make anything
by writing

C.S.Lewis

by 윤금성 Oct 09. 2024

AI 시대에서 정의란 무엇인가?

인공지능과 인간 가치의 공존을 위한 고찰

윤석열 대통령 모습이 등장하는 딥페이크 영상. 사진 틱톡 [출처:중앙일보]

인공지능(AI) 기술의 급속한 발전은 우리 사회의 근간을 뒤흔들고 있다. 딥러닝, 자연어 처리, 컴퓨터 비전 등의 기술이 비약적으로 발전하면서, 알고리즘이 일상적 의사결정을 대신하고 기계 학습이 복잡한 문제를 해결하는 시대에 들어섰다. 그러나 AI가 인간의 의사결정 영역을 침범하면서, 새로운 공정과 상식의 문제가 대두되고 있다.

아마존의 AI 채용 프로그램은 여성 지원자를 차별하는 결과를 낳아 폐기되었다. 과거의 남성 중심 채용 데이터를 학습한 AI가 편향된 결과를 도출했기 때문이다. 미인대회 심사에 투입된 AI가 대부분의 수상자를 백인으로 선정하거나, 사진 인식 AI가 흑인의 사진을 동물로 잘못 인식하는 경우 있었다. AI 신용평가 모델 사회경제적 배경에 따라 차별적으로 대출 심사를 한다는 비판이 제기되고 있다. AI가 생성한 가짜 뉴스나 딥페이크 영상은 진실과 허위의 경계를 모호하게 만들어, 정보에 대한 공정한 접근과 판단을 어렵게 만들고 있다.


이러한 문제들은 우리에게 '정의'라는 개념을 재고하도록 강요한다. AI 시대에 정의란 무엇인가? 알고리즘의 결정이 인간의 직관보다 더 공정할 수 있다는 주장과, AI의 결정 과정이 불투명하여 책임 소재가 불분명하다는 우려가 공존한다. 이 질문은 철학적 사변을 넘어, 미래 사회의 윤리적 기준을 좌우할 과제로 대두되고 있다.


아리스토텔레스

아리스토텔레스가 정의를 '각자에게 자기의 몫을 주는 것'으로 정의한 이래, 이 개념은 현대 사회에서도 여전히 강력한 영향력을 발휘하고 있다. 그러나 AI 이러한 전통적 정의관에 도전하고 있다. AI가 인간의 능력을 뛰어넘는 영역이 늘어나면서, '각자의 몫'을 결정하는 기준이 모호해지고 있기 때문이다. 예를 들어, 의료 분야에서 AI의 진단 정확도가 인간 의사를 능가하는 경우가 늘고 있다. 이 경우 환자에게 최선의 진료를 제공하는 것이 '정의로운' 행위라면, AI의 진단을 우선해야 하는가? 아니면 인간 의사의 직관과 경험을 더 중시해야 하는가?


위 딜레마는 AI의 효용성과 인간의 존엄성 사이의 균형점을 어디에 둘 것인가 하는 근본적인 문제로 이어진다. AI가 더 정확하고 효율적인 결정을 내릴 수 있다고 해서, 모든 의사결정 권한을 AI에 위임하는 것이 과연 정의로운 일인가. 이는 기술의 문제를 넘어, 인간의 가치와 존엄성, 그리고 사회적 역할에 대한 깊은 성찰을 요구한다.


이 문제에 접근하기 위해서는 일정 수준의 철학적 사유가 필요하다고 본다. 자유지상주의(libertarianism)적 관점에서 보면, 기업 혁신과 AI 개발의 자유 철저하게 지켜져야 한다. 자유지상주의는 개인의 자유와 권리의 보장을 최우선으로 여기기 때문이다. 그러나 이는 무제한적 자유를 의미하지 않는다. 존 스튜어트 밀이 '자유론'에서 주장했듯이, 개인의 자유는 타인에게 직접적인 해를 끼치지 않는 선에서 보장되어야 한다.


기술적인 맥락에서 보면 더 복잡한 양상을 띤다. 예를 들어, 자율주행차 알고리즘 개발에서 기업의 자유는 중요하지만, 그 기술이 공공의 안전에 미치는 영향을 고려하지 않을 수 없다. 트롤리 딜레마와 같은 윤리적 난제에 직면했을 때, 알고리즘의 의사결정이 공리주의적인 접근을 해야 하는지, 그리고 그 결정의 책임은 누구에게 있는지 등의 문제는 여전히 해결되지 않은 채로 남아있다.

5명을 살리기 위해 1명을 죽여도 되는가 [출처: 위키피디아]

존 롤스가 사회계약론에서 말한 '무지의 베일'을 적용해보자. 롤스가 제시한 '원초적 입장'에서 사회 구성원들이 자신의 지위나 능력을 모른 채 사회의 기본 원칙을 정하듯이, AI 시대의 윤리 규범도 이와 유사한 방식으로 접근해보는 것이다. AI 관련 종사자들과 사회 구성원들이 '무지의 베일' 뒤에서 AI 윤리 규범을 만든다고 생각해보자. 경우, AI 관련 종사자들은 자신의 전문성은 알지만, 구체적으로 어떤 AI 기술이나 서비스를 개발하게 될지, 또는 그 기술이 사회에 어떤 영향을 미칠지는 알 수 없다고 가정한다. 한편, 일반 사회 구성원들은 자신이 어떤 형태로 AI 기술의 영향을 받게 될지 모르는 상태에서 규칙을 정하게 된다. 이러한 조건에서는 모든 이의 이익을 균형 있게 고려한 공정한 규칙이 만들어질 가능성이 높아지지 않을까.

AI의 의사결정 과정의 투명성에 대한 규정을 만들 때, '무지의 베일' 뒤의 참여자들은 자신이 AI의 결정으로 인해 불이익을 받을 수 있는 상황을 고려하게 될 것이다. 따라서 AI의 결정 과정을 검증하고 이의를 제기할 수 있는 권리를 보장하는 규정에 동의할 가능성이 높다. 이러한 접근은 자유지상주의적 관점과도 조화를 이룰 수 있다. '무지의 베일' 뒤에서 만들어진 규칙은 모든 참여자의 자유와 권리를 최대한 보장하면서도, 사회적 책임을 균형 있게 반영할 것이기 때문이다. AI 기업들은 혁신의 자유를 보장받되, 그 자유가 타인의 기본적 권리를 침해하지 않는 선에서 제한될 수 있음에 동의하게 될 것이다.


기본소득제 도입 시도 해외 사례 [출처: 주간한국]

정의의 큰 축을 담당하는 분배적 정의 문제로 넘어가 보자. AI로 인한 일자리 대체와 경제적 불평등 심화는 이미 현실화되고 있다. 국제통화기금(IMF)의 보고서에 따르면, AI가 전 세계적으로 일자리의 약 40%에 영향을 미칠 것이며, 특히 선진국에서는 그 영향이 60%에 달할 것으로 예측된다. 이는 일자리 문제를 넘어, 사회 전체 부의 분배 구조를 근본적으로 재고해야 함을 의미한다.


머지 않은 미래에 기본소득과 같은 새로운 분배 체계의 도입이 불가피해 보인다. 기본소득은 모든 시민에게 정기적으로 일정 금액을 무조건적으로 지급하는 제도로, AI로 인한 실업과 소득 불평등 문제를 완화할 수 있는 방안으로 주목받고 있다. 그러나 기본소득의 도입만으로는 모든 문제가 해결되지 않는다.


특히 노동의 의미와 인간의 존엄성에 대한 재해석이 필요하다. 전통적으로 노동은 인간 존엄성의 핵심으로 여겨져 왔다. 그러나 AI 시대에는 많은 일자리가 대체될 수 있어, 이러한 관념에 대한 재고가 불가피하다. 노동의 가치를 생산성에 한정 짓지 말고 인간의 창의성, 관계성, 자아실현 등의 측면에서 재정의해야 한다. 예술, 돌봄, 교육, 환경 보호 등 기존에 경제적 가치로 충분히 인정받지 못했던 분야들의 중요성이 새롭게 부각될 수 있다. 또한, 자원봉사나 지역사회 참여와 같은 비영리적 활동도 인간의 존엄과 가치를 실현하는 중요한 '노동'으로 인식될 것이다.


기본소득은 이러한 새로운 노동 개념을 지지할 수 있다. 기본적인 생활이 보장된다면, 사람들은 단순 생존을 위한 노동에서 벗어나 자신의 잠재력을 펼치고, 사회에 기여할 수 있는 다양한 형태의 활동에 참여할 수 있게 될 것이다. 그러나 우리나라에서 기본소득 도입을 외치는 자들은 지속가능하게 재원 마련에 대해 깊게 고민하지 않는 것 같다.


AI로 인한 생산성 향상의 이익을 어떻게 공정하게 분배할 것인지, 노동의 의미가 변화되는 과정에서 개인의 자아실현과 사회적 기여를 어떻게 조화롭게 이룰 것인지에 대한 고민도 부재한 실정이다. 나는 이러한 질문들에 대한 답을 찾는 과정이 AI 시대의 분배적 정의를 실현하는 길이 될 것이라 본다. 이는 정치인, 경제학자, 정책 입안자뿐만 아니라 철학자, 개발자, 시민 사회 등 공동체가 함께 고민하며 해결해야 한다.


AI와 XAI [출처: 비트나인 블로그]

AI 시대의 절차적 정의는 알고리즘의 투명성과 설명 가능성을 중심으로 재정립되어야 한다. 특히 딥러닝과 같은 복잡한 AI 시스템의 의사결정 과정은 '블랙박스'로 표현되는데, 이는 그 과정을 인간이 완전히 이해하거나 해석하기 어렵다는 것을 의미한다. 이러한 불투명성은 AI 시스템의 공정성과 책임성에 대한 심각한 의문을 가지게 한다.


이를 해결하기 위해 'AI 설명가능성'(AI Explainability) 또는 'XAI'(eXplainable AI)라는 새로운 연구 분야가 등장했다. XAI의 목표는 AI의 의사결정 과정을 인간이 이해할 수 있는 형태로 제시하는 것이다. 그러나 더 복잡한 의사결정 과정, 특히 윤리적 판단이 필요한 경우에는 여전히 난제가 남아있다.


AI의 절차적 정의 문제는 법적, 윤리적 영역에서 더욱 첨예하게 다뤄진다. 예를 들어, 미국의 일부 주에서는 이미 AI 시스템을 활용해 범죄 재범 가능성을 예측하고, 이를 형량 결정에 참고하고 있다. 그러나 AI 시스템의 알고리즘이 인종이나 사회경제적 배경에 따른 편향을 내포하고 있다는 비판이 제기되고 있다. 이는 AI가 사법 시스템에 도입될 때, 그 판단 과정의 투명성과 공정성이 얼마나 중요한지를 보여주는 대표적인 사례이다. 따라서 AI의 의사결정 과정에 대한 인간의 감독과 개입은 필수적이다. 그러나 어느 정도까지 인간이 개입해야 하는가? 이는 상황에 따라 다를 수 있다. 의료 진단의 경우, AI의 판단을 참고하되 최종 결정은 의사가 내리는 것이 바람직할 것이다.


정말 안 나올까?

특히 형사 사법 시스템에서 AI의 역할은 매우 신중하게 접근해야 한다. AI가 증거 분석, 패턴 인식 등을 통해 수사와 재판을 보조할 수는 있지만, 최종 판결권은 반드시 인간 판사에게 있어야 한다. 법의 해석과 적용에는 복잡한 사회적, 윤리적 고려사항이 필요하며, 현재의 AI 기술로는 완전히 대체할 수 없기 때문이다.


따라서 AI에 의한 오류와 피해는 새로운 형태의 교정적 정의를 요구하게 된다. AI 시스템의 결정으로 인한 피해를 누가, 어떻게 책임질 것인지에 대한 문제다. 자율주행차 사고는 이러한 문제의 복잡성을 잘 보여주는 사례다. 사고 발생 시 책임을 차량 제조사, AI 소프트웨어 개발사, 사용자 중 누구에게 물어야 할까?


이러한 문제에 대응하기 위해 여러 국가와 국제기구에서 AI 책임법 제정을 논의하고 있다. 대표적으로 EU는 'AI 책임 지침'(AI Liability Directive) 초안을 22년 9월에 발표했다. 이 지침은 AI 시스템으로 인한 피해에 대해 피해자가 보다 쉽게 보상을 받을 수 있도록 하는 내용을 담고 있다. 여기서 '입증 책임의 전환'이라는 내용이 등장하는데, 이는 AI 시스템의 오류로 인한 피해가 의심되는 경우, 피해자가 아닌 AI 제공자나 사용자가 그 시스템이 안전하다는 것을 입증해야 한다는 것이다.


미국에서도 유사한 논의가 진행 중이다. 22년 10월, 백악관은 'AI 권리 장전 청사진'(Blueprint for an AI Bill of Rights)을 발표했다. 법적 구속력은 없지만 AI 시스템의 안전성, 차별 금지, 데이터 프라이버시 보호 등을 강조하고 있다. 일부 주에서는 AI 사용에 대한 규제를 도입하고 있다. 일리노이주의 '인공지능 영상 면접법'(Artificial Intelligence Video Interview Act)은 기업이 AI를 이용해 구직자 면접을 분석할 때 준수해야 할 규칙을 정하고 있다. 그러나 이러한 노력에도 불구하고, AI 책임에 대해 명확한 법적 프레임워크는 아직 정립되지 않았다.


AI Act 주요 내용 [출처: 한겨례]

AI는 양날의 검이다. 정보 접근성을 높이고 소수자를 위한 서비스를 제공할 수 있지만, 다른 한편으로는 디지털 격차를 심화시킬 수 있다. 따라서 모든 시민이 AI의 혜택을 누리도록 만드는 것이 새로운 국가차원의 정의일 수도 있다. AI 리터러시 교육의 중요성이 부각되는 이유다.

이와 함께 AI가 추구해야 할 공동체의 이익이 무엇인지에 대한 사회적 합의가 필요하다. AI가 개인의 편의성만을 추구할 것인가, 아니면 사회 전체의 공익을 위해 설계될 것인가? 개인정보 보호와 공공 안전 사이의 균형, 혹은 AI의 경제적 효율성과 사회적 형평성 사이의 균형을 어떻게 맞출 것인가?


EU의 'AI Act'는 AI 시스템을 위험도에 따라 분류하고 그에 맞는 규제를 적용하는 세계 최초의 포괄적 AI 법안이다. 그러나 이러한 제도들 기술적, 행정적 관점의 접근만으로는 불충분하다. 철학적 성찰과 윤리적 고민이 바탕이 되어야 한다. 따라서 AI의 발전이 가져올 혜택을 최대화하고 부작용을 최소화하기 위해서는, 기술 개발과 더불어 사회적 논의와 제도적 준비가 병행되어야 한다. 이는 정부, 기업, 시민사회, 그리고 개인 모두의 참여와 노력을 요구하는 지난한 과제이다.


AI라는 전례 없는 강력한 도구를 손에 쥔 인류는 역사적 갈림길에 서 있다. 이 도구를 어떻게 사용할지, 그리고 그 결과로 어떤 미래를 그려나갈지는 전적으로 우리의 선택에 달려 있다. 칸트의 "인간을 단순한 수단이 아닌 목적으로 대하라"는 명제는 AI 시대에서 더욱 중요해졌다. 우리는 AI를 인간의 존엄성을 높이는 도구로 발전시킬 것인가, 아니면 효율성의 수단으로 전락시킬 것인가? AI 시대에서의 정의를 정의하는 것이 우리 세대의 가장 중요한 도덕적, 철학적 과제라고 느껴진다.

이전 05화 AI 시대에서 교육의 역할은?
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari