brunch

You can make anything
by writing

C.S.Lewis

by 최재운 Jan 18. 2024

챗GPT가 좌파라고요?

AI 언어모델의 정치적 편향성

2024년 1월, 글로벌 전문가들이 세계 현안을 이야기하는 세계경제포럼, 일명 다보스포럼이 개최되었다. 현시대의 가장 핫한 주제를 논하는 자리니만큼, 올해 다보스포럼의 최고 화두는 당연히 인공지능이다. 많은 논의들이 진행되고 있지만, 인공지능으로 인한 페이크뉴스나 인공지능이 가지고 있는 정치적 편향성에 대한 우려의 목소리가 나오는 것도 주목해 볼 현상 중 하나이다. 


이렇듯 인공지능의 편향에 대한 우려가 커지는 가운데, 워싱턴 대학교, 카네기멜런 대학교, 시안 교통대학교 공동 연구팀이 2023년 7월 전산언어학협회(Association for Computational Linguistics)에 재밌는 논문을 하나 발표한다. 바로 챗GPT와 같은 AI 언어 모델의 정치적 편향성을 연구한 것인데, 해당 학회에서 최우수논문상을 받은 연구이다. 


이 연구에서는 인공지능이 만드는 언어 모델이 학습을 할 때 데이터에 있는 정치적 편향을 어떻게 흡수하는지, 그리고 이 모델이 정치적 발언을 어떻게 취급하는지 조사하고 있다. 


이 논문에 따르면, 시중에 공개된 다양한 언어 모델들은 서로 다른 정치적 성향을 보이는 것을 알 수 있다. 우리에게 가장 알려진 챗GPT의 근간이 되는 언어 모델인 GPT-4는 논문에서 조사한 14개의 언어 모델 중 경제적으로는 가장 좌측에 있으며, 사회적으로는 가장 자유주의적(libertarian) 성향을 보이는 것으로 나타났다. 


반대로 구글이 개발한 AI 언어모델인 버트(BERT)의 경우, GPT 시리즈(GPT의 수많은 버전들) 대비 정치적으로는 우측에 위치하고 있고, 권위주의적인(Authoritarian) 모습을 보인다. 메타가 개발한 LLaMA 역시 GPT와 비교했을 때는 우파적 모습을 보인다. 


논문에서 공개한 언어모델의 정치적, 사회적 성향





AI 언어모델이 정치적 편향성을 띄는 이유는?


먼저 각각의 언어모델들이 어떤 데이터를 학습하는지는 투명하게 공개되지 않는다. 이러한 요인들이 인공지능의 투명성 문제를 야기하곤 한다. 허나 언어모델들이 누구는 좌파적 성향, 누구는 우파적 성향을 띠게 되었는지를 추정해 볼 수는 있다. 


앞서 언급한 논문에서는 버트 모델의 경우 서적을 주로 학습한 것으로 보이지만, GPT의 경우 웹에 있는 텍스트를 학습한 것으로 추정하고 있다. 현대의 웹 텍스트는 오래된 서적의 텍스트보다 더 자유적인 경향이 있을 수 있다. 또한, GPT의 경우 인간 피드백이 학습 과정에 들어가기에, 이 과정이 정치적 성향에 영향을 미칠 수 있다. 



듣고 싶은 말만 듣는 AI 언어모델?


이 연구에서는 한 발 더 나아가서, 이미 편향되어 있는 AI 모델이 편향된 콘텐츠를 어떻게 받아들이는지도 테스트하였다. 좌편향된 데이터로 학습된 언어모델은 성적, 인종, 종교적 소수자를 대상으로 한 혐오 발언에 민감한 반응을 보이는 것으로 나타났으며, 우편향된 데이터로 학습된 모델은 백인 기독교 남성에 대한 혐오 발언에 민감했다. 


이처럼 AI 모델은 서로 다른 정치적 편향을 가지고 있고, 편향을 띈 모델들은 사용자의 편향적 발언에 각자 다르게 대응하는 모습을 보여주고 있다. 


문제는 이처럼 편향을 가지는 이유를 알 수 없다는 것이다. 테크 기업들이 만드는 언어모델이 어떤 데이터를 어떻게 학습했는지를 공개하고 있지 않기 때문이다. 편향을 인식하는 알고리즘의 도입 등이 되지 않는 한 인간이 만든 데이터를 학습하는 인공지능은 편향을 가질 수밖에 없다. 완전 가치중립적인 데이터를 인간이 만들어내는 것은 사실상 불가능에 가깝기 때문이다. 




출처 : 동아일보


2024년에는 약 40여 개국에서 선거가 줄을 잇는다. 이미 대만의 총통 선거는 마무리되었고, 우리나라는 국회의원 선거가, 그리고 미국에서는 전 세계가 주목하는 대선이 실시된다. 이러한 상황이다 보니 생성형 AI가 만들어내는 정치적 편향성에 대한 우려 역시 커지고 있다. 


작년 8월 발표된 또 다른 연구에서도 챗GPT의 좌파적 성향이 논란된 적이 있다. 영국 이스트앵글리아대 연구팀의 논문에 따르면 챗GPT의 정치적 성향은 미국의 민주당, 영국의 노동당, 브라질의 룰라 대통령 같은 진보성향에 가깝다고 한다. 


이러한 논란이 가중되자 구글의 바드는 올해부터 선거 관련 질문을 제한하기로 했다. 챗GPT를 만든 오픈AI의 수장 샘 알트먼 역시 '책임감 있는 AI 개발'을 강조하며 편향성 논란에 대응하고자 한다. 하지만 앞서 언급한 바와 같이, 인간이 만든 데이터를 학습하는 인공지능의 특성상 편향성을 피해 가기는 쉽지 않은 상황이다. 기술적으로 제도적으로 대응할 수 있는 방안을 수립하는 것이 중요한 이유이다. 




논문링크 : https://arxiv.org/pdf/2305.08283.pdf

동아일보 기사 링크 : https://www.donga.com/news/It/article/all/20231224/122762753/1

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari