brunch

매거진 세상만상

You can make anything
by writing

C.S.Lewis

by 민용준 Jun 26. 2024

AI는 휴먼에러의 꿈을 꾸는가

생성형 AI가 스칼렛 요한슨과 유사한 음성을 내는 건 과연 우연일까?

“SF의 사고실험은 과학 분야처럼 엄밀할 필요가 없다. SF작가는 철학적 질문을 문학 작품으로 만들어내기 위해 사고실험을 이용한다.” 세계적인 SF작가 테드 창의 말은 극사실적인 이론을 기반에 둔 하드 SF 장르조차도 현실적인 은유를 위해 동원되는 이야기라 읽을 수 있고, 그렇게 해석돼도 마땅하다는 지지 표명처럼 들린다. 그런 의미에서 넷플릭스 미니시리즈 <삼체>는 동시대 AI 기술에 대한 인간의 경외심을 투영해 해석해도 좋을 작품처럼 보인다.


SF소설가 류츠신의 동명 소설을 극화한 <삼체>는 태양 같은 항성이 세 개나 되는 항성계에서 문명을 발전시켜 온 외계 종족 삼체인이 지구를 향한다는 내용을 그린 작품이다. 그들이 지구로 오는 이유는 자신들 입장에서는 ‘벌레’라고 멸시해야 마땅한 인류를 절멸하고 상대적으로 자신들의 터전보다 나은 환경으로 보이는 지구를 지배하기 위한 침공을 계획하는 것이다.


문제는 삼체인들이 지구에 당도하는 데 걸릴 시간이 무려 400년이라는 것이다. 그들이 예측하는 바에 따르면 현재 인류의 과학 기술 발전 속도는 400년 뒤에 지구에 당도했을 때 자신들을 압도하는 수준으로 발달할 것이다. 400년을 날아와 처참히 패배할 수도 있는 것이다. 그래서 그들은 자신들의 발달된 기술을 활용해 인간의 소통을 통제하고 정보를 교란해서 사회적 혼란을 야기함으로써 발전을 지연시키는 전략을 쓸 것이라 선언한다. 그러니까 인적 요소의 오류, 휴먼 에러를 일으켜 인류 스스로 망하는 길로 유도하겠다는 것이다.

삼체인이 인류를 경멸하는 이유는 단순하다. 인간은 거짓말을 한다는 것. 고도로 발달한 그들의 문명에서는 생각으로 직접 소통하기 때문에 언어가 필요 없고 비유나 은유도 존재하지 않는다. 농담도, 거짓도 존재하지 않는다. 그렇기 때문에 그들은 인간의 거짓을 불경하게 여긴다. 인간을 믿을 수 없는 미개한 ‘벌레’라 판단한다. 이 흥미로운 설정을 보고 떠오른 건 세계적인 역사학자 유발 하라리가 <뉴욕 타임스>에 쓴 칼럼이었다. 유발 하라리의 논제는 이렇다. AI가 인류에게 위협적인 존재가 됐을 때 그것은 어떤 형태로 나타날 것인가? <터미네이터>처럼 강철 뼈대를 가진 휴머노이드 살인 로봇이 시간여행을 해서 인류를 공격한다? <매트릭스>처럼 인간의 두뇌를 물리적으로 제어하고 가상현실의 네트워크에 가둬버린다?


유발 하라리는 그 모든 것이 고도로 발달한 오늘날의 AI 입장에서는 지나치게 낭비적인 일이라고 지적한다. AI는 인간에게 직접 총격을 가할 로봇을 만들거나 뇌를 제어할 거대 장치를 만들 필요 없이 인간 스스로 자신들에게 방아쇠를 당길 수 있게 유도할 수 있다고 주장한다. 가짜 뉴스를 유포하고 정보를 왜곡해서 혐오를 부추기며 사회 양극화를 조장하고 사회 혼란을 가중시켜 민주주의 체제를 무너뜨리는 것이 가능하다고 말한다. 그야말로 인간 본연의 약점을 파고들어 문명을 흔드는 것이 충분히 가능하다고 말한다.


그 전제로 인류와 AI의 첫 번째 접촉이자 인류의 첫 번째 패배가 인공지능이 큐레이션 하는 알고리즘에 기반한 소셜미디어의 잠식이라고 말한다. 수없이 올라오는 뉴스피드 상에서 진짜 정보와 가짜 정보를 구별하는 인간의 분별력이 힘을 잃는다는 것은 충분히 입증됐다는 것이다. 결국 소셜미디어 뉴스피드 알고리즘 안에서 무분별하게 큐레이션 되는 가짜뉴스만으로도 무력해지는 상황은 인간의 언어가 해킹당하고 있는 것이며 이는 인류 문명의 마스터키를 AI에게 넘기는 꼴이라 지적했다. 결국 인류가 AI를 제어하지 못할 때 AI는 인류의 맹점을 파고들어 삽시간에 문명을 장악해 버릴 것이며 AI 개발의 청사진도 잿빛으로 변하리라는 것이다.

유발 하라리

유발 하라리의 주장은 최근 오픈 AI의 새로운 멀티모달 플래그십 모델인 ‘챗GPT-4o’를 둘러싼 논란에 대한 유효한 관점을 제시하는 것 같다. 지난 5월 13일에 공개돼 뜨거운 반응을 얻은 챗 GPT-4o는 텍스트뿐만 아니라 이미지와 영상, 음성을 모두 실시간으로 인식하고 처리하며 빠르게 소통할 수 있는 최초의 AI 챗봇으로 모델명에 포함된 ‘o’는 ‘모든’이라는 의미를 가진 접두사 ‘omni’를 의미한다고 한다. 그야말로 모든 형태의 데이터를 단일한 신경 회로로 감각적으로 수용하듯 빠르게 처리하고 응답하는 기술을 선보였다는 자부심을 압축한 기호처럼 보인다. 텍스트 입력 방식으로 챗봇과 소통했던 기존 모델과 달리 음성 모드로 설정하면 실시간 대화 방식으로 소통이 가능하고, 스마트폰 카메라를 통해 주변 환경을 중계하면 공간과 관련한 정보를 빠르게 분석하고 설명하는 것은 물론 사용자의 표정을 분석해 그에 어울리는 감정적 반응을 표출한다. 마치 자기의식을 가진 인격을 상대하듯 경이적인 진화였다. 장기적으로는 사물인터넷(IoT)이나 로봇 산업의 혁신 기반이 될 두뇌가 마련됐다고 해도 과언이 아니다.


문제는 엄한 곳에서 터져 나왔다. 처음 공개될 당시 챗GPT-4o의 음성 서비스가 <그녀>의 ‘사만다’나 <아이언맨>의 ‘자비스’ 같은 서비스를 실현했다는 평가가 이어졌다. 한편 미국의 소셜 커뮤니티 웹사이트인 ‘레딧(Reddit)’에서는 챗GPT-4o의 다섯 가지 음성 중 ‘스카이(Sky)’가 실제로 <그녀>에서 사만다 목소리를 연기한 스칼렛 요한슨의 음성과 유사한 것을 두고 갑론을박이 벌어지기도 했다. 그런데 이 모든 정황이 우연은 아니었던 것 같다. 스칼렛 요한슨이 챗GPT-4o의 스카이와 자신의 목소리와 닮은 게 우연이 아니라는 항의 성명서를 발표한 것이다.


스칼렛 요한슨의 성명서에 따르면 작년 9월 오픈 AI의 CEO 샘 알트먼으로부터 챗GPT-4o의 목소리를 제공하는 제휴 요청을 받았다고 한다. 샘 알트만은 사람들이 AI의 급격한 변화를 편안하게 느낄 수 있도록 스칼렛 요한슨의 목소리가 위로가 될 것 같다는 의견을 제시했다고 한다. 하지만 스칼렛 요한슨은 제안을 거절했고, 다시 한번 샘 알트만은 스칼렛 요한슨의 에이전트에 다시 한번 재고해 달라고 요청했다고 하는데 그것이 챗GPT-4o 데모 공개를 이틀 앞둔 시점이라고 한다. 이러한 정황을 봤을 때 스칼렛 요한슨의 목소리와 유사한 음성 모델이 등장한 건 과연 우연일까? 현재 스칼렛 요한슨은 변호사를 고용해 오픈 AI에 두 통의 편지를 발송했고, 이 편지에는 그들이 스카이 음성을 만든 정확한 경위 설명을 요청하는 내용이 담겨 있다고 한다. 현재 오픈 AI와 샘 알트만은 스카이 음성을 삭제한 상황이며 해당 논란에 대한 답변을 최대한 회피하는 것으로 보인다.

샘 알트만(왼쪽)과 스칼렛 요한슨

미국의 엔터테인먼트 전문지 <할리우드 리포트>에 따르면 이번 사건이 지난해 파업에 돌입했던 할리우드 배우와 성우들의 심경을 자극한 모양이다. 미국 배우조합은 요즘 생성형 AI에 수집되는 음성에 대한 권한을 강화하는 법안 통과를 위한 로비를 벌이고 있는 상황에서 오픈 AI가 스칼렛 요한슨의 목소리를 도용했다는 혐의에 관심을 기울이고 있다고 전했다. 동시에 최근 실리콘밸리 빅테크 기업에 대한 규제에 강도를 높이고 있는 워싱턴 DC의 기류에도 심상치 않은 영향을 미칠 가능성이 있다는 전망도 제기된다. 미국의 정치 전문 일간지 <폴리티코>는 최근 바이든 행정부에서 AI 규제에 대한 정책 문제에 큰 관심을 기울이고 있는 상황에서 이번 논란이 중요한 지렛대가 될 수 있음을 시사했다.


한편 스칼렛 요한슨은 성명서를 통해 심각한 딥페이크 문제가 제기되는 현실을 지적하며 ‘자신의 정체성을 보호하기 위해 고군분투하는 이 시기에 이는 반드시 명확히 밝혀져야 할 문제’라 기술했다. 그러니까 AI가 우연히 생성한 목소리가 아니라 프로그램의 대중적 인지도를 계산한 인간의 욕망에서 비롯된 목소리 도용의 정황이 뚜렷하다는 건 AI 산업과 휴먼 에러의 관계를 되짚게 만든다. 기술 발전의 수식에서 자연상수로 인류의 발전을 둘 것인가, 개인의 욕망을 둘 것인가. 그 결과는 매우 다를 것이다. 결국 AI가 학습하는 것이 그러한 개인의 욕망이라면 과연 AI의 미래 또한 투명할 수 있을까? 물론 이번 사태로 AI가 인류를 절멸할 계획을 세우진 못할 것이다. 다만 거짓말하는 건 AI가 아니라는 것이다. 인간의 오류를 감당하는 건 결국 AI가 아니라 끝내 인간일 것이다. 명백한 휴먼 에러다.


('GQ KOREA' 7월호에 쓴 칼럼을 재편집한 글입니다.)

매거진의 이전글 지방 소멸시대와 지방 문화콘텐츠 육성
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari