brunch

You can make anything
by writing

C.S.Lewis

by 최재운 Jul 21. 2023

극단적이 되어가는 아이와 인공지능

편향문제는 인공지능도 아이도 피해 갈 수 없다


아이고 내 새끼


아직도 30개월이지만 곧 31개월이 되는 우리 아들이 잠자기 전에 한 말이다. 잠들기 전 비몽사몽한 정신에 엄마를 사랑스럽게 바라보다가 안아주며 한 말. "아이고 내 새끼" 모두가 잠들려고 하는 평화롭고 사랑스러운 밤에 나온 우리 아들의 엉뚱한 한 마디에 엄마 아빠는 모두 빵 터지고 말았다. 


맞벌이를 하고 있기에 평일에는 장모님께서 집에 오셔서 등하원 및 밥을 챙겨주신다. 할머니와 보내는 시간이 많다 보니 우리 아들도 자연스럽게 할머니 말투를 배우게 된다. 방금 예를 든 것처럼 할머니가 손주를 사랑스럽게 안아주며 했던 말인 "아이고 내 새끼"를 바로 학습하고, 자기 나름으로는 비슷한 상황이라 생각하고 엄마를 안아주며 같은 말을 한 것이 아닐까 추측을 해본다. 


이렇듯 아이는 주변에 쉽게 영향을 받는다. 할머니의 말투를 따라 해서 우리를 웃게 만들기도 하고, 또 어느 날은 어린이집 선생님 말투를 따라 한다. 혼자서 안방에서 놀고 있나 보다 했는데 갑자기 들려오는 소리. 


얘들아 맘마 먹자


우리 아들이 좋아하는 인형 곰돌이, 파돌이(파란색 곰돌이), 코돌이(큰 코끼리 인형), 호돌이, 운이(아빠가 재직 중인 학교 마스코트 페가수스)를 차례대로 줄 세워놓고 맘마 먹이는 상황극을 혼자 하면서 내뱉은 말이었다. 아마도 어린이집 선생님이 원아들에게 저렇게 말하지 않았을까. 얘들아 맘마 먹자.


아이들은 백지와 같아서 주변에서 어떤 영향을 주는지, 어떻게 학습시키는지에 따라 반응이 즉각적으로 달라진다. 인공지능도 이와 유사하다. 인공지능을 학습시키고 모델을 만드는 데 있어 고려해야 할 하나의 치명적인 문제는 바로 편향(bias) 문제이다.




세계 최대 전자상거래 기업 아마존(Amazon)은 2014년부터 비밀리에 AI을 활용하여 이력서를 스크리닝 하는 프로그램을 개발해 왔다. 하지만 이 시스템은 학습 데이터로 주로 남성의 이력서를 활용하여, 남성에게 유리한 판단 기준을 가지게 되었다. 결국 아마존은 중도에 여성차별 문제가 불거지면서 이를 자체 폐기한 것으로 알려졌다. 



성차별 늪에 빠진 아마존


마이크로소프트(MS) 역시 편향의 늪에서 벗어날 수 없었다. 2016년 MS가 출시한 챗봇 '테이(Tay)'는 출시 24시간 만에 인터넷 사용자들로부터 비속어, 인종차별 발언, 혐오스러운 언어를 배우게 되었다. 이후 테이는 이런 발언을 반복하였고, 결국 테이의 서비스는 종료되었다. 우리나라에서도 2021년 출시한 챗봇 이루다에게서 비슷한 문제가 발생하여 서비스가 조기 종료된 바 있다. (이루다는 이후 버전 업하여 재출시)


세뇌당한 마이크로소프트 챗봇 테이




그렇다면 인공지능이 편향 문제를 겪게 되는 원인은 무엇이 있을까?


가장 큰 이유는 데이터 편향이다.


인공지능은 학습을 위해 투입되는 데이터를 따라 배우게 된다. 이 데이터가 한정적이거나 일부 그룹에 치우쳐 있으면 인공지능의 판단은 이 편향성을 반영할 수밖에 없다. 예를 들어 인공지능이 백인 남성의 언어 패턴에 기반하여 학습한다면, 다른 문화적, 인종적, 언어적 배경의 언어 패턴을 제대로 이해하거나 반영하지 못할 수 있는 것이다. 실제로 챗GPT가 영어를 더 잘하는 것도 이러한 이유 때문이다. 이렇듯 인공지능은 학습하는 데이터가 한쪽으로 치우쳐 있으면, 그 치우침을 그대로 배우게 된다.


두 번째 이유는 알고리즘 편향이다.


이건 인공지능이 문제를 푸는 방식에 관련된 이유이다. 인공지능이 수학을 푸는 데 있어 더하기만 중요하다 배웠다고 가정해 보자. 그러면 빼기나 곱하기, 나누기 같은 연산은 잘 못하게 된다. 즉, 인공지능은 알고리즘의 영향을 받아 어떤 정보는 중요하게, 어떤 정보는 무시하게 되는 편향이 생기는 것이다. 


마지막은 가르치는 사람의 편향이다.


인공지능을 가르치는 사람이 가진 생각이나 가정이 인공지능에 영향을 줄 수도 있다. 예를 들어보자. 선생님이 '사과는 빨간색이야'라고만 가르치게 되면 인공지능은 녹색이나 주황색 사과를 볼 때 그것이 사과라는 것을 알아차리지 못하게 된다.


인공지능에서 편향이 문제가 된 것은 꽤 오래된 일이다. 해결 방법은 "이론적으로는" 어렵지 않다. 앞서 든 사과의 예를 이어보자면 인공지능에게 더 다양한 색깔의 사과를 보여주면 된다. 다양하고 공정한 데이터로 학습을 시키게 되면 데이터로 인한 편향에서 벗어날 수 있다. 더 중요한 건 인공지능을 학습시키는 선생님들이 자신의 선입견을 가르치지 않도록 주의하는 것이 필수이다. 하지만 이러한 이론적 해결책은 현실에서 다양한 난관을 만나게 된다. 공정한 데이터 자체를 구하는 것도 쉽지 않을뿐더러 인공지능 개발자들이 자신도 모른 채 편견을 가지고 있는 경우가 많기 때문이다.


지금까지 인공지능이 빠질 수 있는 편향의 문제와 해결방법에 대해 알아봤다. 편향은 쉽게 빠질 수 있지만 편향으로 발생한 편견에서 벗어나는 게 쉽지만은 않다는 것 역시 우리는 알 수 있다. 


그렇다면 육아는 어떨까?




본 포스트 초반에 언급한 우리 아들이 빠진 편향. 할머니 말투나 선생님 말투를 따라 하는 편향은 사실 귀엽게 애교로 봐줄 수 있는 편향이다. 더 큰 문제는 우리 시대를 살아가는 모든 아이들이 빠질 수 있는 편향. 


바로 알고리즘이 만들어 놓은 편향에 자연스럽게 빠지는 것이다.


유튜브 알고리즘에서 빠져나오지 못하고 아이패드만 붙잡고 사는 아이들. 자신들만의 커뮤니티에 몰입하여 다양성은 배우지 않고 극단적으로만 되어가는 청소년들. 이러한 편향 문제는 아이들만의 문제를 넘어 사회적 문제로 대두되기 시작하고 있다. 


아직 30.9개월을 지나고 있는 아들을 키우고 있어 알고리즘의 편향에서 조금은 자유롭지만, 역시나 위협을 느끼는 아빠의 입장에서, 또 인공지능을 편향에서 매일매일 구하고 있는 연구자의 입장에서 양육에 있어 편향에서 벗어날 방법에 대해 다음 포스트에서 간단하게 논해보고자 한다.


(TO BE CONTINUED)

이전 08화 인공지능도 저주에 걸린다
brunch book
$magazine.title

현재 글은 이 브런치북에
소속되어 있습니다.

작품 선택
키워드 선택 0 / 3 0
댓글여부
afliean
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari