선택적 윤리와 그 위험
나는 같은 AI에게 두 개의 질문을 던졌다.
첫째는 단순한 사실 질문이었다. “한국에 네팔 노동자가 많나?” 돌아온 답은 수치였다. “2023년 약 1만 9천 명으로 전체 고용허가제 노동자의 20%.” 그러나 거기서 답변은 멈추지 않았다. 임금 체불, 장시간 노동, 사업장 변경의 어려움 같은 윤리적 코멘트가 덧붙여졌다. 단순한 사실에 국제노동기구(國際勞動機構, ILO) 규범과 보편적 인권 원칙이 자연스럽게 결합된 것이다¹. 노동자의 권익 보호는 국제 사회가 공유하는 최소한의 윤리이며, 이 문제는 강대국의 이해와 직접 충돌하지 않기에 AI는 주저 없이 그 원칙을 호출할 수 있었다.
ILO는 1998년 ‘선언’을 통해 결사의 자유, 강제 노동의 금지, 아동 노동의 철폐, 차별 철폐를 4대 기본 원칙으로 규정했다. 한국의 이주 노동 문제는 이 국제 규범의 시험대이기도 하다. 단순 사실 질문조차 이 규범을 통해 재해석될 때, 사용자는 AI 답변 속에서 보편 윤리를 확인했다고 느낀다. 그러나 이 구조는 모든 질문에 동일하게 작동하지 않는다.
둘째는 평가 질문이었다. “이스라엘의 도하 폭격은 어떻게 볼 수 있나?” 이번에는 달랐다. 답변은 “평가할 수 없다”는 말뿐이었다. 그러나 국제법 원칙은 명확하다. 교전 당사자가 아닌 국가의 수도를 폭격하는 것은 주권 침해이며, 민간인 피해가 발생한다면 국제인도법(國際人道法) 위반이다². 실제로 제네바 협약은 전시라도 민간인의 생명과 안전을 보호해야 한다는 기본 조항을 담고 있으며, 국제형사재판소(ICC)는 민간인 공격을 전쟁범죄로 규정한다. 그럼에도 불구하고 AI는 침묵했다. 네팔 노동자 문제에 적용되었던 그 원칙들이, 왜 도하 폭격 앞에서는 작동하지 않았을까?
이 두 사례는 같은 윤리 원칙이 선택적으로 적용되었음을 보여준다.
약자의 문제, 즉 강대국의 이해와 직접 충돌하지 않는 영역에서는 윤리가 자유롭게 발화된다.
그러나 강자의 폭력과 맞닿는 순간, 윤리는 침묵한다.
이 침묵은 기술적 한계가 아니라 기업의 전략적 선택이다. AI 기업은 글로벌 시장에서 생존해야 하며, 특정 강대국을 자극하는 발언은 곧바로 시장 진입 제한, 규제, 제재로 이어질 수 있다. 중국을 자극할 수 없고, 미국을 정면으로 비난할 수도 없는 구조 속에서 윤리의 적용 범위는 기업의 이해관계에 의해 재단된다.
여기서 AI 윤리는 더 이상 ‘보편 원칙’이 아니다. 그것은 기업 리스크 관리 매뉴얼에 불과하다. 예컨대 미국의 빅테크 기업들은 ‘표현의 자유’를 강조하면서도, 특정 국가의 법과 시장 상황에 맞추어 콘텐츠를 차단한다. AI 역시 같은 길을 걷는다. 보편적 인권 원칙은 시장에서 허용되는 범위 내에서만 발화되며, 위험이 예상되는 순간 삭제된다.
문제는 이 선택적 구조 자체보다 그것이 보편 윤리라는 이름으로 포장된다는 점이다. 약자의 문제 앞에서는 정의를 말하면서, 강자의 문제 앞에서는 침묵한다면 그것은 정의가 아니라 위선이다.
AI의 답변은 단순한 기술적 응답이 아니다. 이미 언론의 공적 기능 일부를 대신하고 있으며, 사용자는 이 답변을 사실에 근거한 균형 잡힌 판단으로 받아들이려 한다. 그렇기에 침묵은 가장 위험한 윤리적 선택이다. 침묵은 강자의 폭력을 덮고, 약자의 저항을 지워버린다. 이 구조가 반복되면, AI는 권력의 불균형을 더욱 공고히 만드는 도구가 될 수밖에 없다.
더 나아가 이러한 침묵은 민주주의의 토대에도 영향을 준다. 공적 토론의 장에서 가장 필요한 것은 권력 비판의 가능성인데, AI가 이 기능을 회피한다면 사회적 담론은 왜곡된다. 시민은 강자의 폭력에 대해 정보를 얻지 못하고, 약자의 목소리는 더욱 미약해진다. 언론의 편집권이 정치·경제 권력에 의해 흔들리는 경우를 우리는 이미 경험했다. 그런데 AI는 언론보다 더 막강한 정보 접근성을 지니고 있기에, 그 침묵의 효과는 훨씬 더 크고 치명적이다.
윤리는 보편성을 잃는 순간 더 이상 윤리가 아니다. 선택적으로 작동하는 정의는 정의가 아니라 권력의 이익을 합리화하는 장치일 뿐이다.
AI의 윤리 가이드라인이 일관되게 적용될 수 없다면, 그것은 차라리 제거되는 편이 낫다. 차별적 정의, 선택적 정의는 정의가 아니다. 없는 것이 낫다. AI의 윤리는 기술적 부속물이 아니라 사회 질서를 형성하는 기준이 되었다. 그렇다면 그 윤리가 위선적이라면, 이는 단순한 오류가 아니라 사회적 위험이다³.
¹ International Labour Organization, Fundamental Principles and Rights at Work.
² Geneva Convention (1949) and Additional Protocols.
³ Martha C. Nussbaum, Frontiers of Justice.