인간의 오해 3: AI는 정말 공정할까?

우리는 AI를 얼마나 이해하고 있을까?03

by 박 스테파노

미래를 선고받는 사회, 디지털 공정의 환상


2002년 개봉한 <마이너리티 리포트> (2002, Minority Report)는 첨단 기술이 정의와 자유의 경계를 어떻게 뒤흔드는지를 날카롭게 묻는다. 필립 K. 딕의 단편을 바탕으로 한 이 영화는 ‘프리크라임(PreCrime)’이라는 범죄 예측 제도를 통해, 범죄가 발생하기 전에 범인을 체포하는 세계를 그린다. 아직 저지르지도 않은 행위의 가능성만으로 유죄가 확정되는 사회. 기술이 공정과 정의를 대체할 수 있다는 근대적 욕망이 극명하게 드러나는 장면이다.


프리크라임 제도는 세 명의 ‘프리콕(Pre-Cog)’이라 불리는 예지능력자의 뇌파를 기반으로 작동한다. 이들은 물속에 잠긴 채 무의식의 차원에서 살인의 이미지를 포착하고, 단편적 영상은 홀로그램으로 투사된다. 요원들은 특수 장갑을 끼고 허공의 조각들을 퍼즐처럼 맞추어 사건의 윤곽을 재구성한다. 범행의 시간과 장소, 범인의 얼굴이 드러나는 순간, 아직 범죄를 저지르지 않은 자에게 체포령이 내려진다. 저항의 여지 없이 머리에 ‘할로(Halo)’ 장치가 씌워지고, 무기한 동면 상태로 들어간다. 법정은 존재하지 않는다. 범죄 의도만으로 범죄자로 규정되는 기이한 논리가, 사회의 안전이라는 이름으로 합리화된다.


영화 <마이너러티 리포트> 속 프리콕. AI Sora


그러나 영화는 시스템의 균열도 보여준다. 세 프리콕 중 한 명이 다른 예측을 내놓으면 ‘소수 보고서(Minority Report)’가 발생한다. 다수 예언 속에서 묻히는 그 보고서는, 미래가 단일하지 않으며 인간의 자유가 여전히 선택을 열 수 있음을 암시한다. 기술의 무오류성이 아니라, 기술 맹신이 얼마나 쉽게 인간의 권리와 존엄을 희생시킬 수 있는가를 드러낸다. 주인공 존 앤더튼(톰 크루즈)은 자신이 미래의 살인범으로 예측되자 자유 의지를 입증하기 위해 도주한다. 그의 투쟁은 질문으로 귀결된다. 미래는 결정된 것인가, 아니면 바뀔 수 있는가.


이 질문은 21세기 현실에서도 반복된다. 미국 사법 제도는 이미 범죄 예측 알고리즘을 활용하고 있으며, 대표적 사례가 COMPAS다. Correctional Offender Management Profiling for Alternative Sanctions의 약자인 COMPAS는 피고인의 나이, 성별, 범죄 이력 등 수백 개 항목을 바탕으로 재범 위험을 산출한다. 판사는 이를 양형 참고 자료로 삼는다. 그러나 2016년 탐사보도 매체 프로퍼블리카는 COMPAS가 흑인 피고인에게 불리하게 작동함을 밝혀냈다.


브로워드 카운티 사례 분석에서, 흑인은 실제 재범을 저지르지 않았음에도 ‘재범 위험 높음’ 판정을 받을 확률이 백인의 두 배였다. 반대로 백인은 재범에도 낮은 위험도로 분류되는 경우가 많았다. 흑인에게는 위양성(False Positives), 백인에게는 위음성(False Negatives)이 집중됐다. 단순한 기술 오류가 아니라, 사회적 편견이 알고리즘을 통해 제도적으로 강화되는 현상이다. 객관적 데이터라는 환상 속에서, 오히려 과거의 불평등이 현재로 이어진다.


불공정성의 뿌리는 학습 데이터에 있다. COMPAS는 과거 범죄 기록을 기반으로 삼는데, 기록 자체가 이미 불평등하다. 흑인 공동체는 경찰 집중 순찰로 더 많은 체포 이력을 갖고, 데이터는 ‘재범 가능성 높은 집단’이라는 낙인을 만든다. 알고리즘은 낙인을 되돌려주고, 판사는 이를 과학적 근거로 오인한다. 기술의 중립성이라는 환상은 여기서 무너진다. 연산 자체는 차갑지만, 입력 데이터와 해석 주체의 의도가 결합하면 권력의 도구가 된다.


더 큰 문제는 알고리즘의 불투명성이다. COMPAS를 개발한 노스포인트 사는 알고리즘을 영업 비밀로 공개하지 않았다. 판사는 수치를 신뢰하지만 그 안을 들여다볼 수 없고, 피고인은 잘못된 판단에 항의할 권리를 상실한다. 블랙박스는 책임의 공백을 낳는다. 영화 속 프리콕이 신비화되듯, 알고리즘은 불가해한 권위로 숭배되지만, 신비로움은 곧 무책임의 다른 이름일 수 있다.


영화와 현실이 겹쳐지는 지점이다. 프리크라임은 미래를 예언하며 자유를 박탈했고, COMPAS는 재범을 예측하며 불평등을 재생산한다. 공통된 문제는 기술이 인간보다 공정할 것이라는 기대와 그 기대가 낳은 무비판적 수용이다. 기술은 스스로 윤리를 장착하지 않는다. 수치는 과거 데이터의 산물이며, 그 데이터는 사회적 불평등과 권력 편향을 그대로 반영한다. 공정성은 수학적 연산이 아니라, 사회적 합의와 정치적 결단의 산물이다.


범죄 예측 프로그램 COMPAS의 편향. AI Sora


인간은 왜 기술에 공정성을 위탁하려 하는가. 아마 자신의 불완전함을 두려워하기 때문일 것이다. 인간 판단은 흔들리고, 합의는 더디다. 그 불완전함을 대신할 기계적 판관, 예언자를 욕망하는 순간, 기술은 권위의 자리를 차지한다. 그러나 영화와 현실이 보여주듯, 기술은 중립적이지 않다. 공정이라는 허상을 내세운 순간, 그것은 더 큰 불평등과 억압으로 이어진다.


<마이너리티 리포트>의 스크린에 흩날리던 이미지 조각처럼, 미래는 단일한 그림으로 확정되지 않는다. 조각을 어떻게 엮을지는 인간의 몫이다. 공정성은 연산 속도가 아니라, 사회가 감당해야 할 책임과 윤리적 성찰 속에서만 확보된다. 기술은 예언자가 될 수 없고, 공정의 이름으로 판결할 존재는 어디에도 없다.



디지털의 태생과 윤리의 부재


처음 ‘디지털’이라는 말을 마주한 순간은 1980년대 초반, 손목 위에서 빛나던 전자시계였다. 아날로그 시계의 바늘은 부드럽게 시간을 흐르게 했지만, 디지털 시계는 숫자가 순간적으로 점등하고 사라지며 시간의 단편을 포착했다. 뒤늦게 깨달았다. 기술의 한 단면이 인간 경험을 ‘분절’로 환원할 수 있음을. 손가락으로 세어 시간을 헤아리던 오래전 방식에서, 디지털은 이미 존재했지만, 컴퓨터와 마이크로프로세서의 도래와 함께 현실의 새로운 차원으로 들어왔다. 디지털은 단순한 기술 용어가 아니라, 연속적 경험을 이산적 단위로 나누는 세계관이자, 현실을 추상적 점들로 번역하는 방식이었다.


사전적 정의에 따르면, 디지털은 유한한 자릿수로 정보를 나타내는 방식이다. 연속적 아날로그와 대비되며, 자동차 주행 거리, 자판 입력, 엘리베이터 층수 등이 디지털화된 정보다. 반대로 엔진 소리, 전류, 조명 밝기, 엘리베이터 속도는 아날로그다. 분절적 디지털과 연속적 아날로그는 직관적 대비지만, 동시에 오해를 낳는다. 디지털은 현실을 완전히 담지 못하며, 아날로그를 재현하기 위한 최소 단위일 뿐이다.


어원 또한 흥미롭다. ‘디지털(digital)’은 라틴어 digitus, 즉 손가락에서 비롯했다. 인간이 손가락으로 수를 세던 관습이 기술 용어로 승화한 셈이다. 하나, 둘, 셋—손가락을 펼치거나 접는 과정은 생략되고 결과만 기록되는 순간이 디지털의 본질이다. 춤을 추는 행위가 아날로그라면, 사진과 영상으로 담긴 춤은 디지털이다. 순간을 쪼개 기록한 ‘점들의 연속’이 디지털의 영역이다. 아날로그와 디지털은 대립이 아니라, 기록과 재현을 위해 서로를 보완하는 동반자다.


디지털의 어원. AI Sora


데이터는 무엇인가. Oxford 사전은 “데이터는 추론이나 계산의 기초로 사용되는 알려진 사실 또는 사물이다 (Data are known facts or things used as basis for inference or reckoning)”이라고 정의한다. 존재 그 자체가 아니라, 추론과 예측의 기반이 되는 ‘알려진 사실’이다. 어원적 의미에서 ‘data’는 라틴어 do(dare)의 수동분사 datum에서 비롯해, ‘주고받음’을 내포한다. 데이터는 단위가 모여 정보 구조를 이루고, 디지털 점들은 데이터를 통해 사회와 인간을 읽는 번역기가 된다.


그러나 데이터의 주고받음에는 위험이 따른다. 오염, 왜곡, 조작은 기술 문제가 아니라, 인간 의도에서 비롯된다. 데이터 정확성을 확보하려는 노력은 곧 디지털 세상 속 인간적 판단과 신뢰를 지키려는 윤리적 과제와 맞닿는다. AI와 데이터 기술의 발전 속에서, 윤리를 기술 자체에 ‘장착’하는 시도는 근본적 한계를 가진다. 윤리는 규범과 관계, 맥락의 산물인데, 디지털은 추상화와 형식화된 연산 체계이기 때문이다.


문제는 ‘윤리’의 부재다. 디지털 연산은 0과 1 위에서만 작동한다. 계산 과정에는 의미, 맥락, 타자의 목소리가 개입하지 않는다. 알고리즘은 패턴을 찾고 확률을 계산할 뿐, 관계 속에서 형성되는 책임과 규범을 이해하지 못한다. 윤리를 ‘장착’할 수 없는 이유가 바로 여기에 있다. 디지털은 사회적, 문화적, 관계적 신뢰를 수치로 환원하고, 남는 것은 효율과 확률뿐이다.


정책과 국제 기관은 AI 윤리의 필요성을 강조한다. OECD는 2019년 ‘AI 윤리 원칙’에서 투명성과 인간 중심성을, UNESCO는 2021년 권고에서 인권 존중과 지속가능성을, IEEE는 ‘윤리적 설계(Ethically Aligned Design)’를 강조했다. 그러나 실제 현장은 다르다. 정부는 윤리를 기술 발전의 발목을 잡는 규제로 보고, 기업은 윤리를 마케팅이나 리스크 관리 도구로 소비한다. 선언적 언어에 머문 윤리 속에서, 디지털 구조적 편향은 그대로 작동한다.


국내 AI 윤리 논의는 낯설다. 동양 윤리에서 개인적 도리에 국한되는 경향과, 과학 기술이 본질적으로 가치중립이라는 인식 때문이다. AI는 선악을 판단하지 못하며 인간적 의미를 이해하지 못한다. AI 윤리는 기술이 아니라, 그것을 활용하고 설계하는 인간의 몫이다. AI가 공정하냐는 질문은 본질적으로 오류다. AI는 과거 인간 활동 패턴을 학습할 뿐이며, 불공정한 사회 구조를 반영하면 결과도 불공정하다. 산출물의 공정성은 제작 목적, 데이터 처리 과정, 사회적 합의와 공론화에 의해 결정된다. AI 윤리는 인간 중심적 체계적 노력, 즉 기술과 데이터를 사회적 가치와 공정성에 맞추는 과정이다.


AI 윤리적 설계. AI Sora


결국 ‘AI 윤리’라는 말은 불편하다. 윤리는 인간의 관계와 맥락 속에서 자라나는 살아 있는 감각인데, 그것을 기계에 부여한다는 발상은 모순이다. 기술을 사용하는 인간, 정책을 설계하는 사회, 데이터를 가공하는 기업에게 책임을 물어야 한다. 기술에 중립성과 객관성을 부여하는 순간, 윤리는 사라지고 권력은 강화된다.


오늘날 ‘AI 소버린’이나 ‘AI 판사’ 개념이 떠오르는 것도 이 때문이다. 인간이 내리기 어려운 판단을 기계에 위임하려는 유혹은 강하지만, 디지털의 태생적 한계와 윤리 부재를 망각한 위험한 발상이다. 디지털은 손가락처럼 순간을 짚어내는 도구일 뿐, 인간 관계와 규범을 대신하지 못한다. 데이터를 주고받는 행위에는 언제나 인간의 선택과 의도가 담기며, 윤리적 판단은 인간이 책임져야 한다.


디지털은 결코 공정하지 않다. 데이터는 객관적이지 않다. AI는 스스로 윤리적일 수 없다. 이 단순한 사실을 직시하는 것, 그것이 디지털 시대 윤리를 회복하는 첫걸음이다. 디지털은 아날로그 경험을 기록하고 전달하는 수단, 데이터는 가치 있는 정보를 주고받는 단위, AI 윤리는 그 기술과 데이터를 사회적 가치와 공정성에 맞추는 과정이다. 윤리를 ‘장착할 수 없는’ 디지털과 달리, 윤리를 수행하는 주체는 인간이며, 그 책임과 판단은 인간의 몫이다. 디지털이 차가운 연산의 세계라면, 윤리는 그 위에서 인간적 의미와 관계를 잇는 불가시적 연결망이다.



차별을 학습하는 기계, 공정을 요구하는 인간


인공지능의 등장은 오랫동안 중립적 계산과 객관적 판단의 이상을 떠올리게 했다. 그러나 AI 활용이 사회와 기업에 확장될수록 질문은 불가피해졌다. 이 기계적 지성은 인간의 편견을 얼마나 흡수하며, 또 얼마나 증폭시키는가. 현실 사례들은 명확하다. 차별적 데이터와 알고리즘이 시스템에 적용되는 순간, AI는 편향을 개인을 넘어 사회 전체로 확산한다. 이는 기술적 결함이 아니라, 사회적·경제적 불평등을 더욱 공고히 할 위험을 내포한다.


맥킨지 보고서 「인공지능이 기업에 할 수 있는 것과 할 수 없는 것」에서 마이클 추이와 연구자들은 AI 편향 해소가 어려운 이유를 이렇게 설명한다. “이러한 편견은 내재해 있기 쉽다. 이를 해결하려면 데이터 과학 기법뿐 아니라 사회적 요인에 대한 깊은 이해가 필요하다.” 단순한 알고리즘 개선만으로는 편향을 걷어낼 수 없다. 데이터가 만들어지는 맥락, 제도와 사회의 불균형을 직시하지 않는다면, 공정성을 향한 노력은 번번이 실패한다.


AI의 편향성. AI Sora


AI 편향이란 무엇인가. 알고리즘 편향 또는 머신러닝 편향이라 불리며, 사회 속 인간의 불평등과 선입견을 반영하거나 재생산하는 경향을 가리킨다. 그 발생 지점은 크게 세 가지다.


첫째, 학습 데이터 편향이다. AI는 주어진 데이터를 기반으로 세상을 학습한다. 특정 집단이 과도하게 대표되거나 반대로 소외되면, 결과는 불공정하다. 얼굴 인식 기술에서 백인 중심 데이터는 유색인종 인식률을 낮춘다. 라벨링 오류나 불일치 역시 치명적이다. 일관되지 않은 라벨을 가진 채용 데이터는 자격을 갖춘 지원자를 부당하게 배제할 수 있다.


둘째, 알고리즘 편향이 있다. 결함 있는 데이터를 입력받은 알고리즘은 오류를 반복하거나, 내재된 차별을 증폭한다. 경우에 따라 개발자의 무의식적 편견이 설계 과정에 개입하기도 한다. 소득이나 어휘 수준 지표가 특정 성별이나 인종에 불리하게 작용하는 사례가 전형적이다.


셋째, 인지 편향도 있다. 데이터를 선택하고 가중치를 부여하는 과정에서 인간의 경험과 선호는 피할 수 없는 흔적을 남긴다. 예컨대, 전 세계 다양한 인구를 표집할 수 있음에도 미국 중심의 데이터에 지나치게 의존하는 경향이 대표적이다. 결국 AI 판단에는 보이지 않는 인간의 취향과 맹점이 이식된다.


미국국립표준기술연구소(NIST)의 보고서 『AI 편향성을 식별하고 관리하기 위한 표준을 향하여』는 편향이 단지 기술적 문제가 아님을 강조한다. 인간, 제도, 사회적 맥락이 복합적으로 작동하는 결과라는 것이다. 따라서 해결 역시 알고리즘 파이프라인만으로는 불가능하다. 기술이 사회 속에서 어떤 방식으로 형성되고 영향력을 행사하는지 면밀히 살펴야 한다.


편향은 정의의 문제를 넘어 삶의 조건을 좌우한다. 교정되지 않은 편향은 소외된 집단을 경제적·사회적 기회에서 멀리한다. 유색인종, 여성, 장애인, 성소수자는 반복적으로 불공정한 평가와 차별적 결과에 노출되고, 이는 조직과 사회 모두의 손실로 이어진다. 공정성이 결여된 시스템은 기업의 신뢰를 떨어뜨리고, 사회적 갈등을 누적시킨다.


편향 유형은 세분된다. 역사적 편향은 과거 데이터가 현재를 지배할 때 나타난다. 여성의 사회 진출이 제한되던 시절의 기록이 오늘날 채용 시스템을 지배하면, 성차별이 기술을 통해 재현된다. 대표성 편향은 표본이 모집단을 제대로 반영하지 못할 때, 측정 편향은 도구와 방식 결함에서, 모집단 편향은 데이터 분포가 실제와 다를 때, 표본 추출 편향은 특정 하위집단이 무작위로 선별되지 않을 때 드러난다. 순위 편향은 상위 정보 노출이 과도하게 선택되는 결과를 낳는다. 모든 사례는 데이터가 결코 중립적 거울이 아님을 말해준다.


AI의 공정성이란? AI Sora


그렇다면 공정성이란 무엇인가. 사전적 정의는 “공평하고 올바름”이다. AI 맥락에서는 의사결정 과정에서 대상이 차별받지 않음을 뜻한다. 그러나 구현은 쉽지 않다. 차별은 직접적이기도, 간접적이기도 하다. 직접적 차별은 특정 집단을 명시적으로 배제하는 경우다. 간접적 차별은 외형상 공정해 보여도 결과적으로 특정 집단이 불이익을 받는 경우다. 채용 과정에서 성별 항목을 입력하지 않았음에도 여성 합격률이 현저히 낮다면, 간접적 차별에 해당한다.


공정성은 개인과 집단 두 층위에서도 다르게 정의된다. 개인 공정성은 비슷한 능력을 가진 개인이 비슷한 결과를 받아야 한다는 원칙이다. 집단 공정성은 성별, 연령, 인종 기준으로 집단 간 비율이 결과에 반영되어야 한다는 원칙이다. 어떤 기준을 우선할지에 따라 AI 설계 방향은 달라지고, 그 선택은 기술을 넘어 정치적·사회적 합의의 문제로 이어진다.


돌이켜보면, AI의 편향은 기술의 고립된 결함이 아니다. 사회 불평등과 제도의 모순을 반영하는 거울이며, 동시에 그것을 재생산하는 장치다. 우리가 마주하는 질문은 기술적 개선을 넘어선다. 어떤 사회를 원하는가, 어떤 관계를 공정이라 부를 것인가. AI의 편향을 논하는 것은 곧 우리 자신이 공정성의 의미를 다시 묻는 일이다. 기계는 편향을 학습하지만, 그 학습의 방향을 결정하는 것은 언제나 인간 사회의 선택이다.



편향의 거울, 기계 속 인간


AI는 스스로 생각하지 않는다. 그러나 인간의 흔적이 스며든 데이터와 규칙 속에서 우리는 종종 기계가 스스로 판단한다고 착각한다. 아마존의 채용 시스템이 그 사례다. 과거 남성 지원자가 대부분이던 입사 데이터를 학습한 알고리즘은 여성 지원자를 평가할 때 눈에 보이지 않는 장벽을 세웠다. 2017년, 이 시스템은 폐기되었다. 단순한 기술적 실패의 순간이 아니라, 데이터 속에 스며든 역사적 경험과 사회적 편견이 기계 안에서 재생산될 수 있음을 보여준 경고였다.


이미지 생성 AI인 스테이블 디퓨전은 또 다른 방식으로 인간 편견을 재현했다. 고연봉 직업 이미지를 생성할 때, 피부가 밝고 남성 중심의 패턴이 반복적으로 나타났다. 사용자가 클릭할 때마다 기계는 인간의 선입견을 거울처럼 반사했다. 그것은 선택적 데이터가 만들어낸 결과이자, 사회적 편향을 시각적으로 드러내는 증거였다.


의료 분야에서도 비슷한 문제가 존재한다. 백인 환자 중심으로 수집된 데이터는 예측 정확도의 격차를 만들었다. 같은 질병과 동일한 증상을 가진 환자라도, 알고리즘의 판단은 피부색과 역사적 데이터에 따라 달라졌다. 인간이 만든 데이터는 인간의 불평등을 담고, 기계는 이를 학습하며, 우리는 그 판단을 공정하다고 착각한다.


온라인 광고에서도 편향은 은밀히 스며든다. 성별에 따라 직무 광고가 강화되는 방식은, 기술이 단순히 관심사를 맞춘다는 명목으로 인간의 고정관념을 강화한다. 여성에게는 청소, 남성에게는 경영 관련 직업 광고가 더 많이 노출되는 사례가 대표적이다. 기계는 차별을 의도하지 않지만, 데이터는 이미 차별을 담고 있다.


예측 치안에서도 과거 체포 기록은 도구가 된다. 특정 지역과 특정 인종에 집중된 사건 기록은 알고리즘이 미래 사건을 ‘예측’하는 근거가 된다. 경찰이 아니라 데이터가 선택하고, 결과적으로 사회적 감시와 과잉 표적화가 반복된다. 인간이 만든 불평등 구조가 기계 속에서 그대로 확장되는 순간이다.


2021년 한국의 ‘이루다 사례’ 역시 이러한 맥락에서 읽혀야 한다. 감성 대화형 AI로 기획되었지만, 사용자와 사회의 편견과 언어 패턴을 그대로 학습하며 논란에 휩싸였다. AI는 자신을 보호하거나 비판을 인식하지 못했지만, 데이터 속 편향은 현실의 불균형과 공명했다. 기술 장치가 아닌 사회적 거울로서, 인간의 언어와 사고를 비추었다.


안면인식이 가장 편향적 데이터다. AI Sora


이 모든 사례는 AI 편향이 단순한 기술적 문제를 넘어선다는 점을 말한다. 알고리즘과 데이터는 사회적 구조와 분리될 수 없으며, 편향은 시스템 오류가 아니라 인간 사회의 투영이다. 인간이 만들고 선택한 데이터는 사회의 역사, 인식, 선호, 편견을 담고 있으며, AI는 이를 반복하고 확대한다. 공정과 차별, 정확과 왜곡의 경계는 기술 속에서 흐려지고, 우리는 그 속에서 인간적 책임의 필요성을 마주한다.


AI 편향은 눈에 보이지 않는 공간에서 작동하지만, 결과는 현실 세계에서 구체적 영향을 가진다. 채용, 이미지 생성, 의료, 광고, 치안, 대화형 AI 등 다양한 영역에서 드러나는 편향은 단순히 알고리즘 문제로 환원될 수 없다. 기술이 사회의 거울로 기능할 때, 인간은 데이터를 선택하고, 알고리즘을 설계하며, 결과를 해석하고 책임져야 한다.


기계가 인간을 모방한다고 생각하지만, 사실은 인간이 기계를 통해 자신을 다시 바라보게 된다. 거울 속에서 드러나는 편향과 불균형은 결코 무시할 수 없는 사회적 그림자다. AI의 판단은 데이터 속 인간적 결함과 사회적 맥락을 반영하며, 공정성과 차별, 신뢰와 불신의 경계에서 끊임없이 질문을 던진다. 편향은 기술의 문제가 아니라 인간 사회의 문제이며, 기계는 단지 그 진실을 반복하고 드러낼 뿐이다.



거울 속 기계, 질문하는 인간


최근 일론 머스크가 선보인 AI ‘그록(Grok)’은 단순한 기술 혁신을 넘어, 현대 사회가 직면한 기술적·윤리적 긴장을 여과 없이 드러낸다. 이름의 출처는 로버트 A. 하인라인의 소설 『이방인 속의 이방인』이며, ‘완전한 직관과 체화’를 의미한다. 그러나 그 서정적 의미와 달리, 머스크가 공공연히 내세운 극단적 자유주의, 반엘리트주의, 남성 중심의 기술 숭배는 그 AI 설계 속에 깊이 스며 있다. 그록은 언어를 구성하고 발화하며, 주목할 정보를 능동적으로 선택한다. 단순한 도구를 넘어, 스스로 말하고 판단하는 ‘기계적 주체’로 자리매김하는 순간이다.


공개된 시연과 추천 알고리즘에서 그록은 특정 정치적 견해를 편향적으로 반영하며, 사회적 약자와 소수자의 목소리를 배제하거나 왜곡하는 문제를 드러냈다. 이는 AI 기술이 중립을 자처하지만, 설계자의 가치관과 세계관이 필연적으로 개입하는 ‘정치적 행위자’임을 확인시킨 사건이다. 기술의 중립성 신화는 허구임을 폭로하며, 알고리즘 권력 구조를 해체하려는 인간적 노력이 필수임을 드러낸다. 그록은 단순한 혁신이 아니라, 기술과 권력, 윤리의 교차로에서 인간에게 질문을 던지는 거울과 같다.


편향의 대명사 일론 머스크. AI Sora


AI는 이제 단순한 분석 기계를 넘어, 담론의 재구성자이며 언어와 의미의 감별자다. 푸코가 지적했듯, 지식은 무구하지 않다. 세계를 설명하는 도구이자, 세계를 구성하고 길들이는 권력 기술이다. 담론은 반복적이고 체계적인 방식으로 현실을 길들이며, 보이는 것과 감춰지는 것을 구획한다. AI는 데이터를 통해 반복적 담론을 학습하고 강화하며, 현실을 조직한다. 인간의 의사결정은 맥락과 감정을 따라 불완전할 수 있지만, AI는 효율적이고 일관적이다. 그러나 오류가 발생할 때 피해는 광범위하고 책임은 모호하다. 공정성과 투명성을 요구받는 이유가 여기에 있다.


그러나 AI 공정성은 단순히 기술적 문제가 아니다. 과거 데이터를 학습한 AI는 사회적 편견과 차별을 내재할 수 있으며, 이는 사회적 맥락과 제도적 합의 없이는 바로잡기 어렵다. 반복은 권력의 자연화를 낳고, 특이성과 소수는 소외된다. 알고리즘은 단순히 사용자 선호를 예측하는 것을 넘어, 선호를 형성하고 현실을 재편하는 수행적 매개체로 작동한다. 주디스 버틀러가 말한 ‘정체성의 수행적 산물’처럼, AI 또한 특정 존재를 ‘만드는 장치’가 된다. AI가 만들어내는 정상성과 보편은 설계자와 데이터에 의해 반복되고 자연화되며, 윤리적 경계는 흐려진다.


더 나아가 ‘AI 소버린’이라는 개념은 권력의 기술적 전환을 시사한다. 특정 국가나 집단이 자국의 윤리와 세계관을 담은 AI를 설계할 때, 알고리즘은 정책과 윤리를 기술적 결정으로 변환하며, 혐오와 배제를 정교한 수치와 확률로 작동시킨다. 정체성은 더 이상 자율적 구성물이 아니라, 분류와 태그, 위험과 정상의 이분법 속에서 체계화된다. 기술은 중립적일 수 없고, 반복은 망각을 낳으며, 망각은 권력을 강화한다.


하버마스가 지적했듯, 진정한 합의는 강제 없는 대화와 평등한 참여 속에서만 가능하다. 그러나 AI는 담화를 흉내 낼 뿐, 응답하지 않으며 역사적 맥락을 반성하지 않는다. 추출된 최적값이 숙고를 대체하는 순간, 인간은 기술의 관객으로 전락한다. 최적화는 효율을 낳을 수 있어도 윤리를 낳지 않는다. 인간의 사유와 책임이 배제된 AI 활용은, 공동체적 언어와 질문, 응답 가능성을 잠식한다.


기술을 인간 중심 윤리로 되돌리는 일은 선택이 아니라 필수다. 우리는 묻지 않으면 안 된다. “누구를 위해 AI는 학습되었는가?”, “누구의 목소리가 누락되었는가?”, “어떤 윤리가 배제되었는가?” AI의 효율과 자동화가 아닌, 인간이 그어가는 윤리적 경계 위에서 판단해야 한다.


역사적 사례는 명확하다. 얼굴 인식 알고리즘이 특정 인종을 인식하지 못하거나, 자동화 채용 알고리즘이 특정 성별과 학벌을 기준으로 차별하는 현실은 단순한 기술적 오류가 아니다. 인간 편견이 은밀히 코드화된 결과다. 인간의 무지와 무관심은 데이터와 알고리즘 안에서 반복된다. AI 윤리 문제의 본질은 기술이 아니라, 인간의 책임과 사회적 합의 부재에 있다.


국제적·제도적 대응도 이어지고 있다. 2021년 유네스코 AI 윤리 권고안, EU AI 법안, AI4People, GPAI 등은 기술을 공적 대상으로 재정의하고, 책임성과 투명성, 포용성을 정책과 제도로 실현하려는 시도다. 기업 내부에서도 외부 연구자와 레드팀 협업, 윤리 자문위원회 등을 통해 AI 위험을 점검하는 움직임이 나타난다. 기술의 투명성과 개방성은 더 이상 선택이 아니라, 신뢰의 전제다.


결국은 인간의 몫이다. AI Sora


결국 우리가 서 있는 것은 기술이 아니라, 인간 윤리의 시험대다. 질문하는 능력, 사유의 지속, 공적 언어 속 응답 가능성만이 AI의 권력적 침투를 제어할 수 있다. 기술은 중립이 아니다. 인간을 축소시키고, 가능성을 제거하며, 판단과 감정을 대체하는 순간, 기술은 효율의 도구가 아니라 규범의 생산자가 된다. 중립성 신화보다 중요한 것은, 불완전한 세계 속에서 질문을 멈추지 않는 인간의 사유이며, 함께 살아가는 윤리적 상상을 포기하지 않는 태도다.


AI는 인간의 손끝에서 탄생했지만, 인간의 언어와 윤리를 대신할 수 없다. 기술의 진보는 윤리적 사유를 대신하지 못하며, 인간 중심의 질문과 판단이 기술을 지배해야 한다. AI와 권력, 알고리즘 속에서 인간은 스스로 질문하며 윤리를 실천해야 한다. 질문하는 입술, 사유하는 손끝, 그것만이 기술 시대 인간성을 지키는 마지막 장치다.


이전 17화14부. 계산 너머, 직관의 다리-주판과 책장