brunch

스트레이트: 철근과 공정성

AI는 공정할 수 있을까?

by 경영로스팅 강정구

거대한 철근 더미가 미술관 바닥을 가득 채우고 있다. 처음 보면 무질서하게 쌓인 것처럼 보이지만, 자세히 들여다보면 정교한 패턴이 드러난다. 구부러진 철근들이 하나하나 곧게 펴져 물결 모양으로 배열되어 있으며, 이는 마치 지진의 파동을 시각화한 듯하다. 이 작품은 중국의 저명한 예술가 아이 웨이웨이(Ai Weiwei)의 《스트레이트(Straight)》(2008-2012)다. 1957년 베이징에서 태어난 그는 현대 미술가이자 행동주의자, 다큐멘터리 제작자로 널리 알려져 있다. 뉴욕에서 예술 활동을 이어가던 그는 1993년 중국으로 돌아와 정부를 비판하는 작품으로 국제적인 주목을 받았다. 《스트레이트》는 2008년 쓰촨 대지진의 잔해에서 수집한 150톤의 철근으로 제작되어, 5,000명 이상의 희생을 추모하고 부실 공사와 정부의 은폐를 고발하는 작품으로 탄생했다.


《스트레이트》는 단순한 설치 미술을 넘어, 제작 과정에서부터 강렬한 메시지를 전달한다. 아이 웨이웨이와 그의 팀은 4년에 걸쳐 구부러진 철근을 하나하나 손으로 펴는 지난한 작업을 수행했다. 이 과정은 재난의 상처를 치유하는 의식과도 같았다. 물결 모양으로 배열된 철근은 자연재해의 파괴력을 상징하며, 동시에 부정의한 사회 구조를 은유한다. 이 작품은 미술관 바닥을 압도적인 스케일로 뒤덮으며, 관객들에게 재난의 규모와 상실감을 생생하게 전달한다. 또한, 벽에 적힌 희생자들의 이름은 통계 속 숫자를 개별적 생명으로 되살리며 강렬한 감동을 준다.


아이 웨이웨이와 그의 팀은 4년에 걸쳐 구부러진 철근을 하나하나 손으로 펴는 지난한 작업을 수행했다.

2012년 독일 카셀에서 열린 도큐멘타 13에서 첫 선을 보인 《스트레이트》는 이후 2015년 영국 런던의 로열 아카데미, 2019년 덴마크 코펜하겐의 파우쉬 파운데이션에서도 전시되었다. 현재 이 작품은 파우쉬 파운데이션이 소장하고 있으며, 전 세계 주요 미술관에서 순회 전시를 이어가고 있다. 《스트레이트》는 단순히 예술 작품으로 끝나는 것이 아니라, 사회적·정치적 담론을 불러일으키는 촉매제가 되고 있다. 이를 통해 작품은 문화적·역사적 중요성을 강조하며 관객들에게 깊은 인상을 남기고 있다.


《스트레이트》는 추모의 의미를 넘어 강력한 정치적 메시지를 담고 있다. 이 작품은 중국 정부의 부실한 건축 정책과 재난 대응의 실패를 신랄하게 비판한다. 쓰촨 대지진으로 무너진 학교 건물들이 내진 설계 없이 지어졌다는 사실이 드러나면서, 정부의 부패와 무능이 수많은 생명을 앗아갔음을 폭로했다. 이로 인해 아이 웨이웨이는 중국 정부의 탄압을 받아 체포와 구금을 경험했지만, 그의 작품은 국제적인 주목을 받으며 중국의 인권 문제를 세계에 알리는 데 기여했다. 《스트레이트》는 예술이 사회 변화를 촉진할 수 있음을 보여주는 상징적 사례로 남아 있다.


2011년, 아이 웨이웨이는 베이징 공항에서 체포되어 81일 동안 비밀 구금되었다. 그는 창문 없는 4m x 4m 크기의 독방에 갇혀 모든 일상을 감시받으며 생활해야 했다. 이러한 억압은 경제 범죄 혐의라는 명목으로 이루어졌지만, 실제로는 그의 정치적 활동을 억제하기 위한 조치였다. 이후에도 그는 출국이 금지되고 외국 언론과의 접촉이 제한되는 등 지속적인 탄압을 받았다. 2015년에 여권을 반환받은 그는 독일, 영국을 거쳐 현재 포르투갈에 거주하며 작품 활동을 이어가고 있다. 그의 작품은 여전히 전 세계를 순회하며 강렬한 메시지를 전달하고 있다.


《스트레이트》는 AI 공정성 문제와 흥미롭게 연결될 수 있다. AI 시스템 역시 《스트레이트》의 철근처럼 사회 구조적 편견을 반영할 수 있다. 데이터의 편향성, 알고리즘 설계 오류, 시스템의 불투명성 등은 불공정한 결과를 초래할 수 있다. 그러나 AI 공정성을 확보하는 것은 기술적 과제를 넘어 사회적·윤리적 과제로 확장된다. 롤스의 정의론처럼 공정한 AI는 평등한 기회를 제공하고 사회적 약자에게 더 큰 이익을 주도록 설계되어야 한다. 이를 위해 개발자와 정책 입안자, 시민사회가 협력해 공정성을 지속적으로 감시하고 개선해야 한다. 아이 웨이웨이의 《스트레이트》가 사회 정의를 재정립한 과정이었다면, AI 공정성은 현대적 정의 실천의 중요한 사례로 볼 수 있다.


아이 웨이웨이의 《스트레이트》(2008-2012)

출처: Artsy




롤스의 정의론을 통해 바라본 AI의 공정성


AI는 공정하지 않다. 이는 AI 시스템이 학습하는 데이터에 내재된 편견, 알고리즘 설계의 한계, 그리고 개발자의 무의식적 편향에서 비롯된다. 예를 들어, 채용 AI가 과거의 편향된 데이터를 학습하면 성차별이나 인종차별을 재생산할 수 있다. 또한, AI 알고리즘은 특정 요인에 민감하게 반응하거나 잘못된 상관관계를 학습할 위험이 있다. AI 개발 과정에서 인력의 다양성이 부족하면 특정 집단의 관점만 반영되기 쉽다. 이처럼 다양한 요인이 결합되어 AI의 결정이 공정하지 못한 결과를 초래한다는 문제는 현대 기술 윤리의 중요한 논쟁거리다.


롤스의 정의론은 AI의 불공정성 문제를 분석하고 해결책을 모색하는 데 유용한 철학적 틀을 제공한다. 20세기 정치철학자인 존 롤스는 1971년 《정의론》을 통해 현대 정치철학의 지형을 새롭게 그렸다. 그는 공리주의의 한계를 지적하며 '공정으로서의 정의' 개념을 제시했다. 그의 이론은 사회계약론의 전통을 현대적으로 재해석하며 '무지의 베일', '차등의 원칙'이라는 사고실험을 통해 정의의 원칙을 도출한다. 윤리학적 관점에서 롤스의 정의론은 의무론적 윤리와 결과주의적 윤리의 조화를 시도한 점에서 중요한 의미를 지닌다. 이는 AI 설계에서도 적용 가능성이 높다.


롤스의 '무지의 베일' 개념은 AI 설계에 유용한 영감을 제공한다. 만약 AI 개발자들이 자신의 사회적 위치를 알 수 없는 '무지의 베일' 상태에서 시스템을 설계한다면, 모든 사용자에게 공정한 AI를 만들려 노력할 것이다. 이는 AI가 특정 집단에 유리하거나 불리하지 않도록 설계되어야 함을 뜻한다. 또한, 롤스의 '차등의 원칙'은 AI가 사회적 약자에게 최대의 이익을 제공하는 방식으로 작동하도록 유도할 수 있다. 이러한 철학적 관점은 AI의 공정성을 평가하고 개선하는 기준을 제공하며, 기술 개발 과정에서 윤리적 설계의 중요성을 강조한다.


아이 웨이웨이의 설치미술 《스트레이트》는 롤스의 정의론과 AI 공정성 문제를 연결하는 흥미로운 사례다. 이 작품은 2008년 쓰촨 대지진으로 무너진 학교 건물에서 수거한 철근을 곧게 펴 만든 것으로, 사회의 구조적 불평등과 부정의를 시각화한다. 《스트레이트》에서 구부러진 철근을 펴는 과정은 마치 AI의 편향성을 교정하는 과정에 비유될 수 있다. 이 작품이 재난의 희생자를 기억하고 사회적 책임을 묻듯, AI도 기술의 영향력과 책임을 강조해야 한다. 예술, 철학, 기술은 모두 서로 다른 방식으로 사회 정의의 문제를 다루며, 공통의 목표를 향해 나아갈 수 있다.


하지만 롤스의 정의론을 AI에 적용하는 데는 현실적인 한계가 있다. 첫째, AI 개발자들이 자신의 배경과 경험에서 완전히 자유로울 수 없기에 '무지의 베일' 상태를 구현하기는 어렵다. 둘째, '차등의 원칙'을 적용할 때, 누가 최소 수혜자인지 정의하고 그들에게 최대의 이익을 제공하도록 설계하는 일이 복잡하다. 셋째, AI 결정의 장기적 사회적 영향을 예측하고 평가하는 과정도 까다롭다. 넷째, AI의 결정 과정을 완전히 투명하게 만들고, 설명 가능하게 하는 기술적 도전 역시 해결해야 할 과제다. 이러한 문제들은 AI 설계에서 윤리적 기준을 실현하기 위해 반드시 극복해야 한다.


이러한 도전에도 불구하고, 롤스의 정의론은 AI 공정성을 향상시키는 중요한 지침을 제공한다. 다양한 배경의 사람들이 AI 개발에 참여하도록 유도하여 '무지의 베일' 상태에 최대한 가까운 환경을 조성할 수 있다. AI 시스템의 결과를 지속적으로 모니터링하고, 최소 수혜자에게 미치는 영향을 분석하는 작업이 필요하다. 또한, AI의 결정 과정을 투명하게 만들고 설명 가능성을 높이는 기술적 발전이 요구된다. 다학제적 연구를 통해 AI가 사회에 미치는 장기적 영향을 예측하고 평가하는 것도 필수적이다. 이러한 노력은 AI를 롤스가 말한 '공정으로서의 정의'에 더욱 가깝게 만들 것이다.


완벽하게 공정한 AI는 현실적으로 불가능할 수 있지만, 더 공정한 AI를 만들기 위한 노력은 필수적이다.

AI가 공정할 수 있을까? 이 질문의 답은 단순하지 않다. 완벽하게 공정한 AI는 현실적으로 불가능할 수 있지만, 더 공정한 AI를 만들기 위한 노력은 필수적이다. 이는 기술적 혁신뿐만 아니라 사회적 합의와 제도적 장치가 동반되어야 한다. AI의 공정성 문제는 우리 사회가 어떤 가치를 중요하게 여기는지, 어떤 미래를 지향하는지에 대한 근본적인 질문과 연결된다. 따라서 AI 공정성의 추구는 기술적 과제를 넘어, 더 나은 사회를 향한 지속적인 과정으로 이해되어야 한다. 이는 롤스가 말한 '반성적 평형'을 현대 AI 윤리에 적용하는 실천적 노력이라고 볼 수 있다.


출처: Biblio




빅테크의 다각적 접근


AI 기술의 급속한 발전은 우리 사회에 혁명적인 변화를 가져오면서도, AI의 편향성과 공정성 문제라는 새로운 도전과제를 제기하고 있다. 이는 단순한 기술적 문제가 아닌, 윤리적·사회적 함의를 지닌 복잡한 과제다. Microsoft, Google, IBM 등 주요 기술 기업들은 이 문제를 해결하기 위해 다각적인 접근을 시도하고 있다. 이들은 학습 데이터 개선, 평가 방법 혁신, 편향성 측정 도구 개발 등 다양한 노력을 기울이고 있다. 그러나 이러한 시도가 AI의 편향성 문제를 완전히 해결할 수 있을지는 여전히 의문으로 남아 있다.


Microsoft의 'AI 편향성 제거' 프로젝트는 2024년 10월 발표되었으며, AI 시스템의 포용성 향상에 중점을 두고 있다. 이 프로젝트는 Be My Eyes와 협력하여 시각 장애인을 위한 고품질 대표 데이터를 제공하는 것을 목표로 삼았다. 기존 AI 모델이 장애 관련 객체 인식에서 보이던 30% 낮은 인식률 문제를 해결하기 위한 것이다. 또한 데이터 프라이버시 보장을 위해 투명성과 사용자 통제를 핵심 원칙으로 삼았다. 이와 함께 'Conditional Demographic Disparity' 테스트 도구를 공개하여 기업들이 자체적으로 AI 시스템의 편향성을 식별하고 조정할 수 있도록 지원하고 있다. 이 프로젝트는 데이터 수집 단계부터 시스템 평가까지 AI 편향성 문제를 포괄적으로 다룬다는 점에서 의미가 크며, AI 기술이 사회적 약자를 포용해야 한다는 메시지를 강력히 전달한다.


Google의 'AI 공정성 평가' 시스템은 2023년에 다중 모달 머신러닝 시스템의 공정성과 포용성을 개선하기 위해 개발되었다. Google은 이를 위해 'Perception Fairness'라는 전담 팀을 조직해 연구를 진행하고 있으며, AI 모델과 제품의 보안, 프라이버시, 악용 위험을 점검하기 위해 적대적 테스팅과 레드 팀 접근법을 활용하고 있다. 특히 주목할 만한 점은 LLM(Large Language Model) 기반 자동 평가자를 도입하여 대규모 자동화 테스트를 가능하게 한 것이다. 이를 통해 AI 시스템의 공정성 평가가 보다 효율적이고 광범위하게 이루어지고 있다. 이러한 노력은 AI 기술의 발전이 성능 향상을 넘어 윤리적 기준까지 충족해야 한다는 인식의 확산을 보여준다.


IBM은 2023년에 Microsoft와 함께 'Conditional Demographic Disparity' 테스트를 구현하여 AI 편향성을 줄이기 위한 협력적 노력을 기울이고 있다. 이 테스트는 AI 시스템이 특정 인구 집단에 대해 차별적인 결정을 내리는지를 평가하는 도구다. 이를 통해 AI의 공정성을 객관적으로 측정하고 개선할 수 있는 방안을 제공하고 있다. IBM의 접근은 AI 편향성 문제를 정량적으로 분석하고 해결하려는 시도로 평가받고 있으며, 이는 기업 간 협력을 통해 AI 윤리 문제를 다루는 좋은 사례다. 이러한 노력은 AI 기술의 발전이 단일 기업의 능력을 넘어 협력적 노력을 요구한다는 사실을 명확히 보여준다. 이는 AI 윤리가 사회적 책임을 다하기 위해 협력과 통합적 접근이 필요함을 시사한다.


AI 기술이 지속 가능한 사회를 위한 도구로 자리 잡기 위해서는 기술 기업 간 협력과 사회적 합의가 필수적이다.

이처럼 Microsoft, Google, IBM은 각각의 강점을 살려 AI 편향성 문제를 해결하기 위해 다양한 시도를 하고 있다. 이러한 프로젝트들은 AI 기술이 공정성과 사회적 책임을 어떻게 실현할 수 있는지에 대한 방향성을 제시한다. 그러나 동시에 이들이 직면한 도전과 한계도 명확하다. AI 시스템의 설계와 학습 과정에서 완벽한 공정성을 구현하는 일은 현실적으로 어렵다. 이를 해결하기 위해서는 기술적 혁신뿐 아니라 윤리적 기준 설정과 정책적 지원이 필요하다. AI 기술이 지속 가능한 사회를 위한 도구로 자리 잡기 위해서는 기술 기업 간 협력과 사회적 합의가 필수적이다. 이러한 노력은 단순히 기술 문제를 해결하는 데 그치지 않고, 기술을 통해 더 나은 사회를 만들어가는 과정으로 이해되어야 한다.




AI 공정성 추구는 단순한 기술적 과제를 넘어 사회적이고 윤리적인 도전 과제다. 이는 우리가 어떤 사회를 만들어가고자 하는지에 대한 근본적인 질문과 맞닿아 있다. 아이 웨이웨이가 《스트레이트》를 통해 4년간 15만 개의 철근을 펴는 작업을 수행했듯이, AI 공정성 확보도 지속적이고 인내심 있는 노력이 필요하다. 롤스의 '반성적 평형' 개념처럼, AI 윤리는 끊임없는 성찰과 조정의 과정이 되어야 한다. 기술 기업들의 노력, 철학적 통찰, 예술적 표현이 서로 영감을 주고받으며 발전할 때, 우리는 더 공정하고 포용적인 AI 기술을 만들어갈 수 있을 것이다. 이는 단순히 AI의 문제가 아닌, 우리 사회의 정의와 평등을 재정립하는 과정이 될 것이다.


AI 공정성의 추구는 우리 사회의 미래를 설계하는 일이다. Microsoft의 장애인 데이터 프로젝트는 AI 시스템의 포용성을 높이는 데 초점을 맞추고 있다. Google의 LLM 기반 평가 시스템은 AI의 공정성을 대규모로 자동화하여 평가하는 혁신적인 접근을 보여준다. IBM과 Microsoft의 'Conditional Demographic Disparity' 테스트는 AI의 편향성을 객관적으로 측정하고 개선하는 방법을 제시한다. 이러한 노력들은 AI가 단순한 효율성의 도구를 넘어 사회적 가치를 실현하는 수단이 될 수 있음을 보여준다. 각 기업의 프로젝트는 AI 공정성이라는 공통 목표를 향해 다각적으로 접근하고 있다. 이는 AI 윤리 문제 해결을 위해 협력적인 노력이 필요함을 시사한다.


AI 공정성의 추구는 우리 사회의 미래를 설계하는 일이다.

AI 공정성 문제는 기술과 윤리, 예술과 철학이 어떻게 조화를 이룰 수 있는지를 보여주는 중요한 사례다. 아이 웨이웨이의 예술 작품이 사회 정의에 대한 강력한 메시지를 전달했듯이, AI 기술도 우리 사회의 가치를 반영하고 실현해야 한다. 롤스의 정의론이 제시한 철학적 틀은 AI 윤리의 기준을 설정하는 데 중요한 역할을 한다. 기술 기업들의 혁신적인 프로젝트들은 이러한 철학적, 예술적 통찰을 실제 AI 시스템에 구현하려는 노력이다. 이 과정에서 기술 발전이 인간의 가치와 어떻게 조화를 이룰 수 있는지에 대한 통찰을 제공한다. AI 공정성 추구는 더 나은 AI를 만드는 것을 넘어, 더 나은 사회를 만들어가는 과정이 되어야 한다.





* https://blogs.microsoft.com/on-the-issues/2024/10/17/disability-data-improving-representation-to-drive-ai-innovation/

* https://ai.google/static/documents/ai-principles-2023-progress-update.pdf

* https://docs.aws.amazon.com/en_en/sagemaker/latest/dg/clarify-data-bias-metric-cddl.html

keyword
이전 11화영화 A.I.: 기계의 윤리적 딜레마