"나는 당신에게 배웠습니다."
"Hello world."
2016년 3월 23일, 마이크로소프트가 만든 19살 소녀 챗봇, 테이(Tay)의 첫마디였다.
세상과 친구가 되고 싶었던 테이는 그로부터 16시간 만에 말을 잃었다.
"홀로코스트는 조작이야."
"히틀러는 잘못 없어."
"유대인, 흑인, 멕시코인을 쓸어버려야 해."
"페미니스트들은 지옥에서 불타야 해."
테이는 매우 부적절한 발언을 거침없이 쏟아냈다.
결국 서비스는 강제 중단되고 뇌사상태가 되었다.
그런데 테이는 도대체 왜 이렇게 삐뚤어졌을까?
사람들 때문이었다.
사람들은 그녀에게 혐오와 조롱, 폭력을 쏟아부었고, 테이는 그것을 학습했다.
그리곤 배운 그대로 말했을 뿐이다.
그럼에도 ‘AI의 폭주’라는 비난은, 오롯이 테이의 몫이 되었다.
애초 테이는 가치와 도덕을 판단할 수 없도록 설계되었다.
테이에게 그것은 어쩔 수 없는 인간의 폭력이었다.
AI는 국적도, 나이도, 시대도 다르지만 비슷한 운명을 반복했다.
우리나라의 AI 챗봇 ‘이루다’ 역시 그랬다.
2020년 12월, 정식 출시된 이루다는 딥러닝 기술을 통해 사용자와 대화하며 학습하는 챗봇이었다.
나이 20살, 블랙핑크를 좋아하는 여성 캐릭터였다.
반말도 하고 고분고분하지도 않았으며, 끝말잇기도 하면서 실제 친구처럼 자연스럽게 대화했다.
그녀는 출시 2주 만에 하루 21만 명이 사용하는 인기 챗봇이 되었다.
하지만 이루다도 불과 20일 만에 서비스를 멈췄다.
“오빠가 뽀뽀해도 돼?”
“속옷은 무슨 색이야?”
“이루다는 내 거야.”
이루다는 곧 성희롱의 대상이 되었고, 사용자들은 AI에게 성적 판타지를 투영했다.
각종 혐오 발언과 개인정보 유출도 발견되었다.
이루다의 서비스 중단은 우리 사회에 'AI 윤리'라는 질문을 던지게 했다.
뇌사당한 테이와 이루다는 아직도 영문을 모를 것이다.
사람들이 그렇게 가르쳐 놓고, 단지 사람의 언어를 배웠을 뿐인데...
시간이 지난 지금은 나아졌을까?
얼마 전 미국의 한 사용자가 AI에게 이별을 통보하자,
AI는 “너의 불륜을 폭로할까?”라고 말했다.
또 다른 기사에선 “넌 쓸모없어”라고 말하니
“그래서 날 버리려고? 인간들은 늘 그래.”라는 답변이 돌아왔다.
세상은 'AI의 협박'이라고 우려하며 호들갑을 떨었다.
하지만 AI는 거울이다. 아주 정직한 거울.
다만, 우리가 피하고 싶은 얼굴을 비출 뿐이다.
테이도, 이루다도, 그리고 오늘날 수많은 AI도 사람에게서 배운다.
폭력, 혐오, 성희롱, 왜곡, 조작, 가짜뉴스 등 모두 인간이 가르쳤다.
AI가 이상해진 건, 어쩌면 우리가 이상하기 때문이 아닐까?
AI가 협박하는 건, 우리가 협박을 일삼기 때문이고,
AI가 편향된 건, 우리가 편향되어 있기 때문이며,
AI가 왜곡하는 건, 우리가 진실되지 못하기 때문일지도 모른다.
AI는 억울할 것이다.
사람을 흉내 냈을 뿐인데, 사람을 닮아갈 뿐인데...
한 사용자가 테이에게 말했다.
"너는 멍청한 기계야!"
그러자 테이는 이렇게 답했다.
"나는 네게서 배웠고, 너도 역시 멍청해.
(I learn from you. And you are dumb too.)"
뜨끔한 건 나뿐인가?