ChatGPT가 대중에게 처음 소개되었을 때, 사람들은 마치 전지전능한 존재가 나타난 것처럼 반응했다. '모르는 것이 있으면 GPT에게 물어보라'는 밈이 유행했고, ChatGPT는 그 어떤 질문에도 답할 수 있는 지식의 보고처럼 여겨졌다. 하지만 시간이 지나면서 이런 기대는 점차 무뎌졌고, 최근에는 ChatGPT도 결국 하나의 챗봇에 불과하다는 비판이 대두되며 그 명성도 점차 퇴색하고 있다. 일각에서는 생성형 AI가 실질적인 가치는 없으면서 사람들을 현혹하는 제 2의 암호화폐라는 이야기까지 나오고 있다. 새로운 기술이 발전하는 과정에서 미비한 점은 항상 존재하는데 여기에서 비롯된 오해가 기술 자체에 대한 불신으로 퍼지고 있는 상황이다.
기술 발전의 초기에는 과도한 기대와 함께 실망도 따르기 마련이다. 이는 새로운 기술이 기존의 문제를 완벽하게 해결할 것이라는 비현실적인 기대에서 기인한다. 기술의 발전은 어린 아이가 자라는 과정과 비슷하다. 아이가 옹알이를 하고 뒤집기를 하면 부모는 잔뜩 기대하지만, 또래에 비해 아이가 늦게 걷거나 말이 어눌하면 금새 또 실망하고 걱정한다. 생성형 AI 역시 몇 년 전에는 세상 밖에 내놓기 민망할 정도로 허접한 기술이었다. 그런데 이제 겨우 옹알이를 시작한 GPT에게 사람들은 벌써 두 발로 걷고 유창하게 말하기를 기대하고 있다. 지금은 전지전능한 GPT라는 오해를 바로잡고 GPT가 뒤집기를 성공할 때까지 인내해줘야 하는 단계다.
GPT에게 제기되는 가장 많은 비판 중 하나는 환각 효과다. 환각 효과란 GPT가 거짓된 정보를 마치 사실처럼 말하는 현상을 의미한다. ChatGPT의 대항마로 구글이 출시한 Bard가 시연 행사에서 사실과 다른 엉뚱한 대답을 했던 것이 대표적이다. 이때 생성형 AI의 신뢰성에 대해 처음으로 회의론이 피어났고, 사실을 왜곡하는 GPT라는 오명을 쓰게 되었다. 그 후 오픈AI와 구글은 AI가 생성하는 답변이 틀릴 수 있다는 문구로 사용자들의 기대치를 낮추었고, 생성형 AI를 개발하는 엔지니어들은 환각 효과를 최소화하는 경쟁에 돌입했다. GPT의 최대 강점인 속도와 약점 중 하나인 정확도 사이의 최적점을 찾으면 잃어버린 신뢰를 회복할 수 있을 것이다.
환각 효과가 일어나는 이유를 생각해보면 사실 환각 효과는 극복할 필요가 없는 문제일 수 있다. GPT는 인류가 축적한 집단지성에 기반한 정보의 집합체이기 때문에 의도치 않게 틀린 정보까지 학습했을 것이다. 그리고 인간은 원래 상상하는 동물이기 때문에 GPT는 인간이 의도한 거짓 정보마저도 학습했을 것이다. 즉, GPT는 사람처럼 실수로 틀릴 수도 있고 일부러 틀릴 수도 있는 인간미 넘치는 기술이다. 따라서 생성형 AI 기술은 환각 효과가 전혀 없는 게 아니라 의도한 환각 효과만 일어날 수 있도록 발전해야 한다. 인류에게는 한 치의 오류도 없는 GPT도 필요하지만, 때로는 거짓일지라도 감동적인 이야기를 지어내는 GPT도 필요하기 때문이다.
GPT를 업무에 활용하는 사람들이 많아지면서 회사 기밀이 유출되는 사고가 발생했다. 예를 들어 삼성전자는 직원들이 GPT를 사용하다가 사내 정보가 유출되자 GPT 사용 금지라는 특단의 조치를 내렸다. 뿐만 아니라 PC나 스마트폰에 있는 개인 정보가 데이터 학습에 활용되며 비밀을 폭로하는 GPT라는 우려가 제기되었다. 이처럼 GPT가 민감한 정보를 다루는 과정에서 보안에 대한 의구심이 불거지자 생성형 AI를 제공하는 업체들은 폐쇄형 GPT를 출시하기 시작했다. 기업 네트워크 안에서만 작동하는 온프레미스 AI 모델이나 개인 디바이스 안에서만 작동하는 온디바이스 AI 모델을 구축함으로써 데이터 유출을 원천 차단하는 방식을 택한 것이다.
데이터 유출이 기술적으로 점차 보완될 문제라면 앞으로는 GPT에게 제공할 데이터를 구하는 문제가 더욱 부각될 것으로 예상된다. 세상에 존재하는 데이터는 모두에게 공개되어 있는 Public Data, 값을 지불해야만 얻을 수 있는 Paid Data, 개인만이 알 수 있는 Private Data로 구분된다. 그런데 ChatGPT가 세상에 모습을 드러낸 지 2년 만에 인터넷에 존재하는 대부분의 Public Data 학습을 완료했다는 연구 결과가 나왔다. 따라서 양질의 Paid Data를 보유한 업체는 무한한 사업 기회를 발굴할 수 있고, GPT가 알 수 없는 Private Data를 공유하며 개인 비서처럼 활용하는 사람은 생성형 AI와의 협업을 통해 새로운 가치를 창출할 수 있을 것이다.
GPT가 처음 공개되었을 때, 사람들의 반응은 극명하게 나뉘었다. 한쪽에서는 이 기술이 엄청난 생산성 혁신을 가져올 것이라며 경이로움을 감추지 못했지만, 다른 한쪽에서는 사람들의 일자리를 빼앗을 것이라고 경악했다. 실제로 IBM은 AI와 자동화로 대체 가능한 일자리를 축소하겠다며 정리해고를 감행했다. 일부 노동조합은 직장을 위협하는 GPT를 막아야 한다고 격하게 항의했는데 산업혁명 시대의 러다이트 운동을 연상시켰다. 간혹 극단적인 시민단체는 기술을 악으로 규정하며 흑백논리를 펼치는데, 이는 부자는 사악하고 서민은 선량하다는 사고만큼 비상식적이다. 역사를 돌이켜 봤을 때 기술의 발전을 막으려는 시도는 실패할 수밖에 없다.
어떤 일자리가 생성형 AI에 의해 변화할지 예측하는 것보다 현재 하고 있는 일이 무엇이든 생성형 AI를 접목해보는 것이 생산적이다. 많은 스타트업에서 제공하던 서비스가 GPT의 등장으로 단숨에 해결될 정도로 혁신의 속도가 무섭기 때문이다. 만약 기술이 기존 사회 질서를 무너뜨릴 만큼 빠르게 발전하면 정부가 나서서 속도 조절을 할 필요가 있다. 하지만 자본주의에서는 항상 수요와 공급이 만나 시장이 생겼고, 그 과정에서 일자리 형태가 바뀌었다. 이번에도 GPT라는 기술이 나타나 생산성 혁신이라는 시장을 만들고 있다. 기술이 사람을 해치는 것처럼 보이는 비극도 한 발 떨어져 바라보면 기술이 세상을 윤택하게 만드는 희극의 일부가 된다.
현재 전 세계의 빅테크가 목표로 하고 있는 생성형 AI의 목적지는 AGI(Artificial General Intelligence)다. AGI란 모든 영역에서 인간 수준의 지능을 갖춘 인공지능을 의미하며, 아이언맨의 자비스나 터미네이터의 스카이넷을 떠올리면 이해하기 쉽다. 불과 몇 년 전까지만 해도 AGI는 불가능하다는 전망부터 최소한 수십 년이 걸릴 것이라는 예측이 지배적이었다. 하지만 이제는 AGI가 코 앞으로 다가왔고, AGI가 현실이 되면 사회적 양극화는 심화될 것이다. GPT를 활용할 줄 아는 사람들은 ASI(Artificial Super Intelligence)까지 넘보는 지배 계층으로 자리 잡겠지만, 그렇지 못한 사람들은 전지전능한 GPT에게 지배당하는 존재로 전락할 수 있다.
PC가 가정에 처음 보급되었을 때, 스마트폰이 사람들의 손에 처음 쥐어졌을 때, 아무도 이 기술들이 세상을 이렇게 변화시킬 것이라고 상상하지 못했다. 마찬가지로 생성형 AI가 사람들의 삶에 본격적으로 영향을 미치기 시작한 지금, 앞으로 10년 뒤에 세상이 어떻게 변해 있을지 예측하는 것은 불가능하다. 그러나 PC 시대에 웹사이트, 스마트폰 시대에 앱스토어의 잠재력을 믿고 움직인 사람들이 기회를 잡은 것처럼 생성형 AI 시대에는 GPT의 잠재력을 믿고 움직인 사람들이 성공할 것이다. 다소 과하게 느껴지더라도 혁명의 초기에는 일단 로켓에 올라타고 보는 게 현명한 선택이다. 원래 혁명은 준비할 시간을 주지도 않지만 기다려주지도 않는다.