인공 지능 챗봇들이 우리의 질문에 대답으로 토해 내는 내용을 읽으면서 때로 컴퓨터 너머에 지성을 가진 어떤 존재가 있는 것처럼 느껴질 때가 있습니다. 거대언어모델이 어떻게 작동하는지 들었기에 그 대답들은 질문한 상황에서 확률적으로 가장 근사하게 나올 것 같은 단어들을 연결한 것일 뿐, 인공 지능에 사람과 같은 지성은 없다는 점은 늘 생각하고 있습니다. 하지만 그럼에도 불구하고 그것이 토해내는 대답에 감탄하다 못해 섬뜩할 때 까지도 있습니다. 이러한 느낌이 드는 이유 중의 하나는 아직까지 어떻게 그러한 대답이 나왔는지 설명하기가 쉽지 않다는 사실입니다.
몇 달 전에 - 인공 지능에 대해 이야기할 때 몇 개월은 엄청난 변화가 일어날 수 있는 시간이라는 점은 감안해야겠지요. - 들은 발표에서는 인공 지능이 내놓은 대답이 어디에서 온 것인지 밝혀내는 것은 불가능한 일은 아니겠지만 그 대답을 내놓은 것보다 수 백, 수천 배의 더 많은 연산이 필요한 작업이라고 했습니다. 현실적으로 불가능하다고 보아도 좋을 것이라는 이야기까지 하는 이들이 있더군요. 결국 우리는 어떻게 만들어지고 작동하는지 정확히는 모르지만 어쨌든 우리의 질문에 대답을 내놓을 수 있는 블랙박스를 가지고 있는 셈입니다.
챗 GPT 가 처음 등장해서 사람들이 사용하기 시작했을 무렵 오스트레일리아의 한 정치인은 자기 자신에 대해 인공 지능에게 물어보고 나온 대답에 경악을 금할 수 없었습니다. 챗 GPT는 이 정치인이 뇌물수수죄로 수감 생활을 했었다고 답을 한 것이었지요. 물론 전혀 사실이 아닌 일이었습니다만 이 대답에 화가 난 그 정치인은 챗 GPT를 만든 Open AI에 소송을 할 것이라고 했고 그런 기사가 보도된 적이 있습니다. 이 사람 이외에도 챗 GPT가 자신에 대해 말하는 헛소리에 놀란 사람들이 많이 있습니다.
만일 그런 잘못된 대답이 사람들에게 어떤 종류든 피해를 입혔다면 누가 책임을 져야 할까요? 어떤 회사에서 잘 못 만들어진 도구를 팔았고 그것으로 사람들이 육체적인 피해를 입었다면 당연히 그 회사에서 책임을 져야겠지요. 그런데 인공 지능의 대답으로 인한 피해는 앞서의 피해와는 다른 종류의 피해라고도 할 수 있을 텐데, 무엇이 잘못되었는지를 찾기도 쉽지 않은 상황에서 누구의 책임인지를 따지는 일은 더 힘들지 않을까 싶습니다.
인공 지능을 개발하는 업체에서는 어떻게 그런 식의 대답이 나왔는지 원인을 파악하기 힘들지만 그래도 최대한 그런 대답을 막기 위해 노력을 하고 있습니다. 그런데 여기서 한 가지 재미있는 사실은 최근 발표된 한 편의 논문에 따르면 인공 지능의 대답을 어느 정도 제어해서 내가 원하는 대답을 하게 만드는 방법도 있다는 사실입니다. 물론 한 편의 논문 만으로 그렇다 아니 다를 이야기 하기는 힘이 듭니다만 뉴욕 타임스의 칼럼리스트인 케빈 루스는 "어떻게 챗봇의 마음을 어떻게 바꿀 수 있을까?(How Do You Change a Chatbot’s Mind?)"라는 기사를 통해 흥미로운 실험을 소개했습니다.
케빈 루스는 2023년에 밸런타인데이 저녁 마이크로 소프트에서 출시한 빙(Bing)의 챗봇과 이야기를 하면서 그 챗 봇이 자신의 이름은 시드니이고 케빈은 아내가 아니라 자신을 사랑하고 있다고 하는 등의 대답을 들었다는 기사를 쓴 바로 그 사람입니다. 케빈이 쓴 2023년의 기사와 그에 따른 다른 이들의 의견들이 전 세계의 언론에서 보도가 되었는데 그것 때문인지는 몰라도 인공 지능 챗봇 사이에서 케빈의 평판은 그리 좋은 편이 아니었다고 합니다. 케빈 스스로 이런 챗봇들에게 자신에 대해 물었을 때 언론인으로서의 윤리에 문제가 있다는 등의 이야기가 나왔다는 것이지요. 그래서 케빈은 인공지능들 사이에 퍼진 자신에 대한 부정적인 의견을 바꾸기로 생각했습니다.
그 방법에 대해 취재하는 과정에서 케빈은 이미 이런 일 즉, 인공 지능이 토해내는 대답을 조작하는 방법으로 비즈니스를 시작한 이들을 발견했습니다. 예를 들어 사람들이 인공 지능 챗봇에게 가장 가성비가 좋은 자동차는 혹은 컴퓨터는 뭐야?라고 물었을 때 이런 제품을 생산하는 회사의 입장에서는 인공 지능이 자기 회사의 제품을 추천해 주기를 원하겠지요. 그래서 그런 대답을 챗 봇이 하게 만드는 방법을 고안하여 고객들에게 유료로 서비스를 제공하는 이들이 이미 존재한다는 것이지요.
그리고 케빈은 위에서 소개한 논문의 저자들을 만나 자신의 평판을 바꾸는 시도를 했습니다. 그 결과는 어느 정도 성공적이었다고 합니다. 이것이 가능했던 이유는 인공지능 챗 봇 들이 점점 더 검색 엔진을 통해 최근의 정보를 검색하고 그것을 바탕으로 답을 내놓는 일이 많아졌기 때문입니다. 결국 인공지능 시스템도 인터넷상의 다른 웹사이트들을 통해 대답의 바탕이 되는 학습데이터를 입수할 수밖에 없으니 결국 그 학습데이터를 자신에게 유리하게 조작하고, 더 나아가 그 데이터들이 인공 지능 시스템을 통해 학습되는 방식을 어느 정도 조작한다면 인공 지능이 토해 내는 대답도 조작이 가능하다는 것이지요.
어떻게 답이 나오는지 정확히는 알지 못 하지만 적어도 어떤 부분을 조작하면 내가 원하는 답을 나오게 할 수 있는지는 알게 되었다는 것이지요. 물론 인공지능을 개발하는 회사에서는 이런 부분의 약점을 개선하기 위해 시스템을 개선할 것이고 동시에 인공지능최적화를 비즈니스 모델로 삼은 회사에서는 그것들을 뚫기 위한 노력을 할 겁니다. 마치 검색 엔진과 검색 엔진의 검색 결과 중에서 자기가 원하는 사이트를 가장 먼저 올리기 위해 노력을 하는 검색 엔진 최적화 회사 사이의 쫓고 쫓기는 싸움처럼 말입니다.
그렇다면 이런 싸움이 벌어지고 있는 인터넷을 이용하는 우리는 어떤 생각을 하고 어떻게 그런 것들을 받아들여야 할까요? 이런 싸움을 벌이고 있는 이들이 궁극적으로 얻으려고 하는 것은 시스템을 이용하는 우리의 관심입니다. 즉, 자신들이 제공하는 정보를 조금이라도 더 설득력 있고, 매력적으로 만들어 우리 관심을 끌어서 광고를 파는 것이 무엇보다 큰 목적이라 할 수 있을 것입니다. 심지어 인공 지능 회사에서 적극적으로 광고를 만드는 방법에 대해서도 이야기하는 이들이 있을 정도이니 말입니다.
만일 그들의 최종적인 목표가 우리의 주의력이고 우리가 그 정보를 믿게 만들려는 것이라면 결국 우리가 그 정보를 어떻게 받아들이냐에 따라 그 싸움 자체가 아무 의미가 없는 것이 될 수도 있습니다. 우리가 인공 지능이 토해 내는 정보를 있는 그대로 받아들이지 않고 다른 소스를 통해 교차 검증하고 그렇게 검증된 정보를 바탕으로 행동한다면, 그리고 이러한 인공 지능 시스템이 가진 능력과 이런 한계를 이해한다면 우리는 인공 지능을 훨씬 더 지혜롭게 사용할 수 있을 것입니다.
무엇 때문에 우리가 인공 지능을 이용하는지를 생각하고 인공 지능이 토해내는 정보가 내 목적에 얼마나 맞는지 따져 보아야 합니다. 그렇게 따져 보고 인공 지능이 주는 정보를 믿고 그에 따라 행동해야 할지 아니면 인공 지능이 아닌 다른 도구들도 사용해 보아야 할지 우리가 스스로 결정해야 할 일입니다. 그리고 당연한 일입니다만 우리가 결정하고 행동한 일에 대해서는 우리가 책임을 져야 합니다. 인공 지능 만을 믿고 그것에 따라 아무런 생각 없이 행동하는 것은 장전된 권총의 방아쇠에 손가락을 걸어 놓고 어디가 앞이고 뒤인지도 모른 채 그것 권총을 앞 위로 휘두르는 것과 같은 일입니다. 그것이 재미있게 느껴질 수도 있겠지만 그 권총의 총구가 향하는 곳에 내가 서 있을 수도 있다는 점도 생각해야 합니다.
이렇게 생각하다 보면 우리가 살아가는 현재가 참 위태 위태한 상황에 놓인 것 같습니다. 하지만 기술적인 발전을 거부하고 옛날로 돌아가자고 이런 말씀을 드리는 것이 아닙니다. 새로운 기술이 우리 삶에 도움이 되는 방식으로 그것들을 이용해야 하고 그것들에 매몰되는 것이 아니라 그 기술을 나에게 맞게 나를 위해 주체적으로 사용해야 한다는 말씀을 드리는 것입니다. 그러기 위해서는 그 기술들에 대해 더 알아야 하고 그 기술을 받아들이는 나 자신과 우리 사회에 대해서도 더 깊이 생각해야 합니다. "인공 지능"이라는 말이 들어간다고 해서 그것이 무조건 첨단이고 우리에게 도움이 된다는 생각은 특히 하지 말아야 합니다. 사람 잡는 선 무당이 되지 않으려면 말입니다.
* 이 글에 쓰인 이미지는 Unsplash 에서 가져온 것들입니다.