brunch

You can make anything
by writing

C.S.Lewis

by 최재운 Mar 13. 2024

구글이 만든 AI, 제미나이가 깬 상식

독일 나치에 동양인 여성이 있었다고??!!

2024년 2월, 구글의 인공지능 '제미나이(Gemini)'가 큰 사고를 쳤다. 그 여파는 3월인 현재까지 이어지고 있다. 개발을 담당한 책임자는 두문불출하고 있고, 구글의 지주사인 알파벳의 주가는 폭락을 했으며(미 주식, 특히 AI 관련 회사 주식이 상한가를 치는 지금 시기 하락은 더 뼈아프게 다가옴), 구글의 CEO인 순다르 피차이가 물러나와야 한다는 이야기도 진지하게 나오고 있다. 


제미나이 사태로 인한 후폭풍 (출처 : AI타임스)


그렇다면 제미나이가 친 사고는 무엇일까?


제미나이는 챗GPT와 같이 사용자의 요청을 받아 대화나 이미지를 생성하는 인공지능이다. 그런데 '미국 건국 아버지' 이미지를 요청하자 흑인 남성의 이미지를 만들었으며, 심지어 제2차 세계대전 당시 독일 군인 이미지를 생성해 달라는 요청에 흑인 남성과 아시아 여성의 얼굴을 등장시키는 오류를 범하였다. 일론 머스크를 그려달라는 요청에 흑인 그림을 그려주기도 했다. 이에 일론 머스크는 제미나이를 극단적인 인종차별주의자이자 성차별주의자라고 비난한다.


제미나이가 만든 2차대전 독일군 병사 및 흑인 일론 머스크 그림


제미나이는 말 그대로 우리의 상식(common sense)을 깨부쉈다. 그것도 너무 심하게 깨부쉈기에 아직도 수습이 안 되고 있다. 구글의 인공지능이 친 사고에 대한 이야기를 하기 전에, 기원전 5세기 상식에 대해 끊임없이 질문을 던졌던 한 철학자를 먼저 만나보자. 






상식에 질문을 던지다 미움받은 철학자 소크라테스


우리 사회는 고대나 지금이나 상식을 공유한다. 관습이라는 이름으로도 불리는 상식에 대해 우리는 좀처럼 의문을 품지 않는다. 상식이 어떤 신념을 정착시키는 과정에서 논리적 모순을 가지거나, 중대한 실수를 저질렀을 수도 있다. 하지만 우리는 한 번 상식으로 판별이 되면 더 이상 여기에 대한 고민을 깊이 하지 않는다. 그저 다수를 따를 뿐이다.


철학자들은 이러한 상식에 질문을 던진다. 그 대표적 인물이 기원전 5세기 그리스의 도시 국가 아테네에서 활약한 소크라테스이다. 그의 제자인 플라톤이 남긴 <라케스>를 보면 상식을 진실이라고 믿는 장군들인 니키아스와 라케스가 등장한다. 이들은 용맹스러운 자는 군대에서 적을 죽여야 한다는 상식적인 관념에 사로잡혀 있었다. 이에 소크라테스는 라케스에게 용기가 무엇인지 물었고 라케스는 전투에서 물러나지 않고 싸우는 것이라고 이야기한다. 


플라톤의 대화편 중 <라케스>


이에 소크라테스는 과거 스파르타의 장군 파우사니아스가 지휘하는 그리스 군이 퇴각했다가 나중에 페르시아 군을 용감하게 무찔렀던 반례를 든다. 그러자 라케스는 두 번째 상식적인 관념을 이야기한다. 바로 용기는 일종의 인내라는 것. 하지만 소크라테스는 현명하지 않고 어리석은 인내로 경솔한 결과가 발생할 수 있음을 반례로 든다. 


이처럼 소크라테스는 진리에 도달하기 위해 상식에 끊임없이 질문을 던졌다. 더 이상 논박할 수 없는 주장이 나올 때까지 문답을 계속하며 진리를 찾아갔던 것이다. 물론 그의 이러한 행동은 많은 이들에게 미움을 샀고, 결국 사형을 당하기에 이른다. 그 유명한 소크라테스의 죽음이다. 






사회적 편견에 저항하려다 미움받는 구글의 AI, 제미나이


소크라테스의 죽음 이후 2500여 년이 흘렀지만 여전히 우리 사회는 인간이 지닌 편향성을 여실히 보여주고 있다. 그리고 인공지능은 이러한 편향성을 빠르게 받아들였다.


인공지능은 남성이 권력이 센 직업을 가진다는 결론을 내린 바 있으며, 흑인의 얼굴은 인간으로 인식하지 않는 사고도 친다. 전통적인 의사 이미지는 남성으로, 청소부 이미지는 여성으로 표현하기도 했다. 또한, 역사적 사건에 대한 답변에도 남성의 역할만을 주로 묘사했다. 이는 인공지능이 학습한 과거 자료들이 이런 편향성을 가지고 있었기 때문이다.


이에 구글은 제미나이만큼은 인간이 가진 상식, 인간이 가지고 있는 편향성을 띄지 않길 바랐다. 내부 인터뷰나 여러 외신 기사들에 따르면 구글은 이러한 편향성이 반영되지 못하도록 적극적으로 노력한 것으로 보인다. 소위 말하는 PC(Political Correctness)적인 인공지능 탄생을 바랐던 것이다. 


하지만 흑인과 여성에 대한 과거 데이터 편향을 바로 잡기 위해 인위적인 수정을 가한 결과, 앞에서 언급한 동양인 여성 나치 병사를 탄생시켰다. 기존 상식을 바로 잡기 위한 작업이 더욱 상식을 깨트린 결과로 나타났다. 


이는 인공지능과 사람의 차이에서 비롯되었다. 인간의 역사와 문화는 인공지능이 학습하기에는 단순하지 않다. 우리는 본능적으로 아는 '상식'을 기계는 알지 못한다. 사소한 '뉘앙스' 차이가 있는 것이다. 예를 들어 인간은 독일 나치군에 동양인 여성이나 흑인이 종군하지 않았다는 것을 상식으로 알고 있다. 하지만 인공지능은 이를 별도로 프로그래밍하지 않는다면 동양인 여성이 나치에 없었다는 사실을 알 수가 없다. 여기서 치명적인 오류가 발생한 것이다. 






소크라테스와 제미나이의 차이점


소크라테스는 끊임없는 질문과 대화를 통해 편견을 타파하고 진리를 찾고자 했다. 이로 인해 미움을 받기도 하였지만, 사후 그의 진리를 탐구하는 태도는 많은 철학자들에게 영감을 주었고, 세상을 바꾸는 수많은 철학이 등장하는 밑거름이 되었다. 


제미나이 역시 현대 사회에 만연한 편견을 내포하지 않은 인공지능으로 자리 잡고자 했다. 하지만 제미나이가 학습해야 할 데이터는 너무나도 많았고, 이 수많은 데이터에는 인류의 역사에서 누적된 다양한 편견들이 포함되어 있었다. 구글은 오래된 편견을 바로잡기 위해 투박하며 과격한 방법을 택했고, 이 과정에서 새로운 편견을 만들고야 말았다. 


인공지능은 학습 과정에서 질문을 던지고, 다양한 시나리오를 탐구하고, 그 결과를 바탕으로 스스로 학습을 하고 있다. 인공지능이 학습을 해나가는 과정은 소크라테스의 문답법과 유사하다. 인공지능이 소크라테스를 본받아야 하는 이유이기도 하다. 


하지만 인공지능의 학습 과정은 자칫 잘못하면 소피스트들의 문답법으로 흐를 수 있다. 소피스트들은 진리를 발견하는 것보다 대중 앞에서 자신의 주장을 능숙하게 펼치고, 상대를 논쟁에서 이기는데 목적을 두었다. 인공지능이 단순 지식을 전달해 주는 역할을 넘어 특정 인물이나 집단의 주관적인 사상을 전파하는데 활용이 되지 않도록 주의 깊게 살펴봐야 한다. 인공지능이 소크라테스가 될지, 소피스트가 될지는 인공지능을 만드는 사람 손에 달려 있기 때문이다. 

매거진의 이전글 이제 메인 빌런은 AI - 미션 임파서블 7
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari