AI는 누구의 경험을 배우는가

편향을 만드는 구조

by 김지혜

한국어의 3인칭은 기본적으로 성별을 구분하지 않는다. 나와 너를 제외한 제삼자를 지칭할 때 우리는 보통 “그 사람”, “그분”, 혹은 이름과 직함으로 말한다. 물론 “그”와 “그녀”라는 표현이 존재하기는 하지만, 일상적인 구어에서 “그녀”는 자연스럽다기보다 영어의 he/she를 옮기는 과정에서 만들어진 번역체에 가깝게 느껴진다. 그래서 “김 부장님”이라는 표현 자체에는 성별 정보가 없다. 언어 구조상 성별은 중립이다.

반면 영어는 문법적으로 성별을 표시해야 하는 언어다. he, she, they 중 하나를 선택해야 한다. 한국어 문장에는 성별 정보가 없었지만, 영어 번역 과정에서 성별이 추가된다. 언어 구조상 중립이었던 문장이 번역을 거치며 성별화된다.

이렇게 한국어의 3인칭에는 성별이 없지만, 우리는 김 부장님이라고 하면 자연스럽게 중년 남성을 떠올린다. 누군가 “김 부장님이 그렇게 말씀하셨다”라고 말하면, 많은 사람들이 무의식적으로 남성의 얼굴을 상상한다. 여성 부장이 실제로 존재함에도 불구하고, 우리의 머릿속에 먼저 떠오르는 ‘전형적인 부장’은 남성이다.

이것은 우리의 반복된 사회적 경험의 결과다. 한국 기업은 오랫동안 남성 중심 구조였다. 관리직, 특히 부장 직급은 대부분 남성이었다. 이 축적된 경험은 집단적 기억 속에 하나의 이미지로 굳어졌다. 전형적인 부장은 남성이라는 무의식적 공식이다. 우리의 인지 체계는 통계적으로 더 자주 접한 이미지를 먼저 호출한다.


언어는 중립이지만, 우리의 생각은 중립이 아니다.


이 문장을 ChatGPT 나 다른 인공지능에서 영어로 번역해 달라고 하면, 한국어의 “그 사람”이나 “그”가 종종 he로 번역되는 것을 볼 수 있다.

20260222_193903.png Gemini 번역 결과


인공지능은 방대한 텍스트 데이터를 학습한다. 그 데이터 속에서 manager나 director와 같은 단어는 역사적으로 남성과 더 자주 연결되어 왔다. 명시적 성별 정보가 없을 때, 인공지능은 통계적으로 더 가능성이 높은 선택지를 고른다. 그리고 그 선택은 종종 he가 된다.

인공지능의 의도적 편향이라기보다 사회적 현실의 통계적 반영한다. 우려되는 것은 이러한 AI의 결과는 편향을 재생산할 수 있다는 것이다. 이렇게 생산된 글들은 다시 누군가 읽게 되고 다시 무의식의 공식처럼 우리의 일상에서 알지 못하는 누군가를 생각할 때 다시 특정 성별을 떠올리게 되는 것이다.


편향은 언어에서도 아니면 사회적 경험에서도, 데이터에 축적된 역사에서도 올 수 있다.


알 수 없는 누군가를 우리는 경험을 통해 성별을 상상한다. 그리고 인공지능은 그 상상을 통계적으로 학습한다. 언어는 비어 있었지만 우리의 경험이 그 빈자리를 채운다. 그리고 이제 그 경험은 데이터가 되어 다시 우리에게 돌아온다. 우리가 무심코 떠올리는 하나의 이미지 속에는 알 수 없는 편향들의 구조가 자리 잡고 있다.


김지혜 (Jane Jihye Kim)

글로벌 역량 강화/문화 간 이해/외국인 한국 사회, 비즈니스 문화 이해(영어진행)

퍼실리테이터/DEI trainer /영어 통역사/다양성과 포용성을 위한 문화 토크 커뮤니티 운영자

janekimjh@naver.com

010 3808 0227


작가의 이전글생각에 관한 생각-생존을 위한 본능이 준 오해