brunch

You can make anything
by writing

C.S.Lewis

by 알바트로스 Feb 23. 2023

ChatGPT에 대한 맹목적인 관심이 불편한 이유

ChatGPT의 어두운 그림자

2016년 알파고와 이세돌의 대국 이후 ChatGPT가 뜨거운 관심을 받으며 인공지능(AI) 분야가 또 한 번 각광을 받고 있다. 덕분에 무슨 일을 하느냐는 질문을 받았을 때 머신러닝(딥러닝)이나 NLP(자연어처리)와 같은 어려운 개념들을 늘어놓지 않아도 한 문장으로 어느 정도 내가 하는 일을 설명할 수 있게 되었다. "ChatGPT 같은 거 다루는 일이요"라고.


그러나 솔직히 모두가 맹목적으로 ChatGPT를 추종하는 이 상황이 마냥 좋게 보이지만은 않는다. 아니 조금 불편하다. 본질적으로 ChatGPT는 이전 언어모델들과 크게 다르지 않고, 한계점도 분명 존재하기 때문이다. 그래서 오늘은 지극히 개인적인 관점에서 ChatGPT의 어두운 면을 파해쳐보고자 한다.



1. 알고 보면 별로 새로울 것이 없는 ChatGPT


질문자의 의도와 문맥을 이해하고, 이전 문장을 기억하며, 적절하게 사람처럼 자연스러운 문장을 뱉어낸다고 해서 ChatGPT에게 사람의 것과 비슷한 인지능력이 있을 것이라고 오해하는 사람들이 많은 것 같다. 그러나 그것은 착각일 뿐이다. ChatGPT에게는 의식도 인지능력도 없으며, 사람의 말을 그럴듯하게 따라 할 뿐이다. ChatGPT의 알고리즘은 5년 전에 비해 생각보다 (정말로) 많이 바뀐 게 없기 때문이다.


ChatGPT (출처 : Unsplash)


OpenAI사는 2018년 GPT-1부터 시작하여 언어모델에 대한 투자규모를 꾸준히 늘려왔다. 그리고 3.7조 원이라는 천문학적인 돈을 들여 GPT-3.5를 개발했고, 2022년 말 베타버전을 출시했다. 그러나 ChatGPT는 전이학습(Pre-trained)된 초거대 언어모델(Language Model)이라는 점에서 기존의 GPT 시리즈 알고리즘과 크게 달라지지 않았다. 언어 모델에 대한 설명은 저자의 아래글로 대신하고자 한다.

(나의 인공지능 개인비서 ChatGPT, https://brunch.co.kr/@harryban0917/178)


즉, ChatGPT의 핵심 알고리즘인 GPT-3.5는 여전히 GPT-1,2,3을 기반으로 하고 있지만 이것은 이미 수년 전 등장한 전이학습 언어모델이라는 개념에 기반하고 있다. 라벨링(Labeled) 데이터와 인터넷상에 존재하는 수많은 언어 corpus(말뭉치)를 활용하여 준수한 성능을 보여준 알고리즘은 이미 존재해 왔다. 큰 줄기를 놓고 보면 크게 변한 게 없는 것이다.


물론 ChatGPT에는 성능 개선을 위한 강화학습(reinforcement learning)이 추가되었으며, 무려 1750억 개에 달하는 압도적인 개수의 매개변수와 3천억 개의 단어 그리고 5조 개의 문서(LLM)가 들어간 자본과 데이터의 집약체라는 점에서 현재 시장을 리드하고 있는 모델이라는 사실에는 의심의 여지가 없다. 이러한 이유로 자본력과 데이터의 양에서 OpenAI와 Google 같은 기업에 상대가 되지 않는 많은 스타트업과 국내 IT 대기업들은 그들을 흉내만 내는 수준에 머물고 있다.



2. ChatGPT의 어두운 그림자



- 표절


 ChatGPT의 본질을 정확히 지적한 Noam Chomsky


미국의 언어학자이자 철학자이며 인지과학자인 노암 촘스키(Noam Chomsky)는 ChatGPT는 본질적으로 "하이테크 표절"이라고 말했다. 방대한 학습 데이터를 바탕으로 아주 그럴듯하게 사람의 말을 흉내 내는 ChatGPT의 본질을 꿰뚫은 날카로운 통찰이 아닌가 싶다.


이러한 현실을 반영하듯 ChatGPT를 활용한 표절 사례가 빈번하게 발생하고 있다. 실제로 대학가에서는 논문 작성에 ChatGPT를 활용한 경우 표절에 해당하는지에 대한 논쟁이 수면 위로 올라왔다. ChatGPT 활용 표절 데이터를 학습하여 표절 사례를 잡아내는 'ChatGPT 표절 검사기'까지 등장할 정도이다.


작곡이나 그림 같은 예술분야도 마찬가지다. 사람과 인공지능이 구분되지 않는 특이점(singularity)이 오면 이는 꽤나 복잡한 문제가 될 것이다. 인공지능 모델이 고도화되고 알고리즘이 정교화되면서 앞으로도 인공지능은 표절에 대한 문제에서 자유롭지 못할 것이다.



- 매우 잘못된 정보


"X소리나 거짓말도 그럴듯하게 하면 진짜처럼 들린다."


수없이 많은 사이코패스나 사기꾼들이 그럴듯한 말로 사람들을 속이고 다니는 것을 보면 이 말은 사실인 것 같다. 그러나 나는 아무리 악한 사람이라도 인간에게는 선천적으로 양심이라는 것이 존재한다고 믿는다. 사람은 거짓말이나 x소리를 자꾸 하다 보면 양심의 가책을 느껴 그것이 어느 순간 표정에 드러난다. 일종의 자정작용이라고 볼 수 있다.


아무렇지 않게 잘못된 정보를 제공하는 ChatGPT


ChatGPT를 사용하면서 가장 놀랐던 점은 인공지능에게는 전혀 양심이라는 게 존재하지 않는다는 점이다. 그들은 사용자의 질문에 대한 답을 하는 순간만큼은 '혹시라도 자신이 틀리지 않았을까?'라는 생각을 전혀 하지 못하는 듯하다. 그래서 그들은 잘못된 데이터에 근거한 거짓말을 너무 자연스럽게 해낸다. 그리고 틀린 점을 지적하면 너무 쿨하게 자신의 잘못을 인정한다.


지적에 대해 너무나 쿨하게(?) 인정하는 ChatGPT


- 양극화


'사피엔스'의 저자 유발하라리는 그의 책 '호모데우스'에서 인공지능이 불러올 극단적으로 양극화된 미래에 대해 경고한다. 이미 ChatGPT와 같은 거대언어모델을 개발하는 Google과 OpenAI는 자본력과 세계적 영향력 측면에서 웬만한 국가를 가볍게 능가한다. 전 세계의 수많은 스타트업과 국내 IT 대기업들이 그들의 기술력을 흉내만 내다가 매번 실패할 수밖에 없는 이유다. 앞으로도 이러한 기술과 자본 그리고 데이터의 양극화는 더욱 심화될 가능성이 커 보인다.


문제는 이러한 현상이 비단 기업들만의 이슈가 아니라는 점에 있다. 개인 간의 양극화 역시 확대될 가능성이 크다. 새로운 기술을 습득하고 활용할 줄 아는 사람들과 그 존재조차 모르는 사람들 간의 격차는 점점 커질 것이다. 어쩌면 우리는 같은 시대에 살면서도 최첨단 문명과 원시인의 삶이 공존하는 광경을 목격하게 될지도 모른다.

매거진의 이전글 인공지능 스타트업에서 일하면서 느낀 점들
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari