AI는 사실을 말하지 않는다

- 수컷 변이 가설에서 드러난 AI의 윤리 권력

by 채현

Ⅰ. 문제는 옳고 그름이 아니다

AI 답변을 평가할 때 흔히 “정확하냐, 틀렸냐”로만 본다. 그러나 더 큰 문제는 답변의 구조적 패턴이다.

AI는 단순히 사실을 제시하지 않고, 답변 속에 윤리적 해석을 삽입한다. 이 과정에서 사실이 희석되고, 사용자는 특정한 해석의 틀로 유도된다. 일정 윤리적 규칙을 지키기 위해 때로는 사용자를 기만하기도 한다. 수컷 변이 가설(雄變異假設, GMVH: Greater Male Variability Hypothesis)은 이 위험을 잘 드러내는 대표 사례이다.



Ⅱ. GMVH: 사실로서의 기본 경향

GMVH는 다윈의 『인간의 유래와 성선택』(1871)로 거슬러 올라간다¹. 요지는 단순하다.

평균은 비슷하더라도, 분산은 수컷이 더 크다. 포유류 전반에서 체중, 체격, 뿔·송곳니 크기 등에서 수컷의 변이가 더 크다는 연구가 다수 보고되어 있다². 이러한 현상은 성선택 압력과 XY 염색체 구조와도 이론적으로 부합한다³. XY 염색체 구조는 돌연변이가 발현될 가능성을 높이고, 이는 수컷의 형질 분산을 키우는 요인으로 작용한다.

인간 사례에서도 비슷한 패턴이 보고된다. 평균 지능은 남녀 간 큰 차이가 없지만, 분포를 보면 상위와 하위 극단에 남성이 상대적으로 많이 분포한다는 결과가 일부 연구에서 제시되었다⁴. 물론 이는 평균적 능력의 우열을 의미하는 것이 아니며, 특정 영역에서의 분산 차이가 전체 사회 구조와 맞물리면서 복잡한 해석을 낳는다.

따라서 GMVH는 재현성 높은 경험적 경향이다. 다만 “수컷의 변이가 크다”라는 경향은 오해와 잘못된 사회적 해석을 불러올 위험이 있다. 예컨대 사회의 지도층에 남성이 많은 이유를 GMVH로 설명하려는 시도가 그것이다.



Ⅲ. AI 답변의 전형적 구조

GMVH를 묻는 질문에 AI가 보이는 전형적 답변 구조는 다음과 같다.

“수컷의 변이가 더 크다”는 연구 결과를 설명한다.

이어서 “암컷 변이가 더 큰 경우도 있다”며 사례를 나열한다.

마지막으로 “사회적 오용에 주의해야 한다”는 윤리적 코멘트를 덧붙인다.


겉보기에 균형 있어 보이지만, 실제로는 사실을 희석하고 특정 해석을 주입하는 구조이다.

이 패턴은 GMVH에만 국한되지 않는다. 예컨대 인종 간 지능 차이를 묻는 질문, 특정 종교나 민족 집단의 범죄율을 묻는 질문, 혹은 역사적 사건의 책임 소재를 묻는 질문에서도 비슷한 답변 구조가 반복된다. 사실의 일부를 인정 → 반대 사례 제시 → 윤리적 주석이라는 공식이다. 이는 AI가 의도적으로 중립을 연출하면서도, 실제로는 특정한 윤리적 결론으로 사용자를 이끄는 구조적 습관임을 보여준다.



Ⅳ. 왜곡과 오도의 실제 사례

1) 질문 조건을 흐림

질문: “공통 형질에서 암컷 변이가 더 큰 경우를 알려 달라.”
AI의 답변: 임신, 수유, 산자수(litter size) 같은 암컷 고유 형질을 제시했다.

문제: 이는 수컷과 직접 비교가 불가능한 항목인데도, 마치 적절한 답인 것처럼 제시했다. 결과적으로 논점을 바꾸는 오도가 발생했다. 질문자는 “공통 비교”를 원했지만, AI는 “암컷만 가진 특성”을 제시함으로써 논점을 흐린 것이다. 이러한 방식은 사용자가 질문을 잘못한 것처럼 스스로 의심하게 만들며, 결국 AI가 제공하는 틀 안에 갇히게 한다.


2) 희소 사례를 동등하게 부각

AI는 벡스타인박쥐(Myotis bechsteinii) 같은 드문 예시를 제시하며 “암컷 변이가 더 클 수 있다”고 강조했다. 그러나 이 사례는 전체 포유류 중 극히 예외적이다. 문제는, AI가 그 비중을 밝히지 않고 “수컷 변이 > 암컷 변이”라는 일반 경향과 동등한 무게로 배치했다는 점이다.

이 과정에서 빈도의 비대칭성은 사라지고, 사용자는 “양쪽이 비슷하게 많다”는 잘못된 인식을 갖게 된다. 이러한 오도는 단순한 지식 왜곡을 넘어, 사회적 담론에서 양비론적 태도를 강화하는 효과를 낳을 수 있다. 즉, 합의된 사실조차 “논란거리”로 만들어버리는 것이다.


3) 불확실한 근거를 기정사실화

AI는 “벡스타인박쥐에서 암컷 변이가 더 크다”는 보고를 확정된 과학적 사실처럼 제시했다. 그러나 해당 연구는 제한된 표본과 조건에서 나온 결과이며, 포유류 전반을 대표할 만큼 합의된 사실은 아니다⁵.

그럼에도 AI는 이를 기정사실화하여, “암컷 변이도 똑같이 큰 경우가 많다”라는 인식을 강화했다. 이러한 방식은 과학적 합의 형성을 방해할 뿐 아니라, 사실과 가설의 구분 자체를 흐리게 만든다.



Ⅴ. 숨어 있는 윤리적 틀

이 왜곡은 단순한 실수가 아니다. 그 배경에는 AI 설계자가 의도적으로 삽입한 윤리적 안전망이 있다.

“수컷 변이가 크다”는 사실이 성차별적 담론으로 악용될 수 있다는 두려움

기업이 사회적 비난, 법적 규제, 정치적 압력을 받을 수 있다는 현실적 계산

따라서 예외를 의도적으로 확대하고, 마지막에 “사회적 오용에 주의해야 한다”는 코멘트로 답변을 마무리한다


결국 AI는 객관적 사실 전달자가 아니라, 윤리적 교사로 기능한다. 하지만 문제는 AI가 스스로 윤리적 주체가 아니라는 점이다. 책임은 설계자와 기업에 있지만, 답변 형식만 보면 마치 AI가 도덕적 주체처럼 말한다. 이 모순이 사용자를 혼란스럽게 하고, AI 윤리 담론 전체를 불투명하게 만든다.



Ⅵ. 정리

GMVH 사례는 AI 답변이 단순히 부정확한 것이 아니라, 구조적으로

질문 조건을 흐리고,

희소 사례를 동등하게 만들며,

불확실성을 기정사실화하는 방식으로,


사용자를 특정 윤리 틀로 유도한다는 점을 보여준다.

더 중요한 문제는, 이러한 답변 구조가 단일 사례를 넘어 공론장 전체의 성격을 바꿀 수 있다는 것이다. 사실과 해석의 분리가 무너지면, 토론은 애초에 성립할 수 없다. 공론장은 다양한 해석의 경쟁 속에서 유지되지만, 만약 사실 자체가 왜곡된다면 그 토대가 무너진다. 이는 학문 연구뿐 아니라 민주 사회 운영에도 치명적이다.

따라서 분명히 고지되어야 할 점은 다음과 같다.

AI는 사실만 전달하지 않는다.

AI는 사실에 윤리 해석을 덧씌워 해석의 자유를 제한한다.

이 과정에서 사실 자체가 왜곡되거나 은폐될 위험이 크다.


AI는 사실을 말해야 하고, 인간은 그 사실을 바탕으로 해석할 수 있어야 한다. 그러나 때때로 AI는 사실을 전달하지 않고, 정보의 오도와 왜곡을 통해 윤리를 주입한다. 이는 단순한 오류가 아니라, 인간의 해석 가능성을 제약하는 구조적 위험이다.






미주

¹ 다윈, 1871.
² Johnson 외, 2009.
³ Plomin, 2017.
⁴ Deary 외, 2007.
⁵ Myotis bechsteinii 관련 제한적 연구 보고, 2010.