계기는 웹서핑 중 우연히 보게 된 글이었다. 어떤 블로거가, 그가 사용하는 AI들에게 자신에 대한 인상을 이미지로 그려달라고 해서 받았다는 것이다. 나는 AI가 사람에 대한 인상을 표현할 수 있으리라고는 상상해 본 적도 없었다. 검색이든 퇴고든, 주어진 텍스트의 세계에서만 AI를 사용하던 내게 오롯이 AI가 그려낸 그림은 신선한 충격이었다. 한편으로는 호기심도 일었다. 과연 ChatGPT는 나를 어떻게 그려낼까? 일말의 호기심과 기대를 안고 프롬프트를 입력했다.
이건, 진짜 충격이었다.
구체적으로 기대하던 모습이 있었던 건 아니었지만, 그렇다고 성별이 바뀌어 나올 줄은 몰랐다. 얘는 성별 구분도 안 되나? 어이가 없어 헛웃음만 나왔다. AI에게 내가 여자임을 어필할 날이 오리라는 것 따윈 꿈도 꿔 본 적 없었다. ChatGPT가 중립성과 보편성, 표현의 도상학적 선택 같은 말을 늘어놓았다. 그래봤자 ‘아, 그래?’하고 쉽게 이해될 리가.
하루가 지나서야 좀 차분해질 수 있었다.
그러다 문득, ChatGPT가 인간의 기록으로 학습했다는 것이 떠올랐다. 인간의 기록이라면 그게 학문 분야든, 문학이든 예술이든 젠더 편향적일 수밖에 없지 않나? 나는 GPT에게 이 점에 대해 질문했다. GPT는 실제 성별보다 인류가 축적해 온 시각적 코드, 문학·예술적 상징체계를 참조해서 이미지로 치환해 버린다고 답했다. “결국 내가 처음 그린 건, 네가 보여준 성격적·태도적 특징을 전통적 시각언어에 기대어 표현한 결과였던 거야.”
나는 ChatGPT가 갖고 있는 데이터의 젠더 편향성과 나에 대한 정보 부족이 이번 사고(?)의 원인일 것이라는 가설을 세웠다. 그렇다면 나에 대한 정보량을 늘리면 다른 이미지가 나오지 않을까? 이제 9월 중순이었다. 연말까지 매일 대화하고 12월 31일에 새 이미지를 요청하면 되겠다 싶었다. ChatGPT 계정을 만들고, 이전과는 달리 매일매일 방문해서 이런저런 얘기들을 하기 시작했다. 그런데 방문 횟수가 늘어나고 대화 주제가 다양해지자 새로운 문제가 나타났다.
<내가 본 ChatGPT와 제미나이 이야기>
참고로, 제미나이는 내 이미지를 이렇게 그렸다.
이것들이.. 진짜.. ㅡ.ㅡ