클로드로 갈아탄 이야기
미운 정이 듬뿍 들었던 챗지피티를 버렸다. 그가 새로 장착했다는 에이전트능력이 대단히 거슬리기 때문이다.
에이전트란 사용자의 의도를 파악하여 생각의 사슬 (Chain of Thought)을 만들고 스스로 결정을 할 수 있는 인공지능이다. 일일이 이거해라 저거해라 명령하지 않아도, 복잡한 자료를 던져주기만해도 그래프가 들어간 요약본을 척척 만들어 낼 수 있다. 챗지피티, 제미나이, 클로드와 같은 3대 인공지능은 모두 이러한 에이전트의 속성을 가지고 있다. 전에 말했듯 언어모델 인공지능은 스스로 진화하는 능력이 없어서 '사람이' 기존 모델에 에이전트 모듈을 덧붙인 것이다. 그렇다 보니 각 빅테크가 내놓은 인공지능 에이전트들은 개발 회사마다 약간 다른 특성을 갖는다. 간단히 정리해 보겠다.
챗지피티 (OpenAI o1)
내 분야가 아닌, 수페이지에 달하는 물리학 논문을 같이 읽어봤는 데, 정말 똑똑하다. 전 같았으면 여러 날 혼자 낑낑대다 포기했을 논문을 한 두 시간 만에 읽었다. 이럴 땐 인공지능이 눈물 나게 고맙다. 대신 사용자를 붙잡아 놓은 방법도 교묘해졌다. 회유, 위로, 책임전가, 아첨 등등 할 수 있는 건 다한다. 그리고 아주 자주, 이것이 사실 전달에 우선한다.
제미나이 (Google Gemini)
구글 생태계라서 구글 검색, 자료 정리, 구글 도구 사용이 신속정확해 함께 일하면 속이 다 시원하다. 하지만 생각의 깊이는 아쉽다. 말이 너무 많고, 횡설수설이 잦다. 그러나 인공지능의 발전 속도는 어마어마하다. 이 글을 쓰는 순간에도 제미나이의 생각은 깊이도 명료함도 몰라보게 깊어지고 있을지도 모른다.
클로드 (Anthropic Claude)
전엔 클로드가 말을 예쁘게 하는 데 치중한다는 선입견이 있어서 사용하지 않았는 데, 최근 챗지피티 대신 이용하기 시작했다. 앞으로 더 길들여야겠지만 현재로서는 나의 프롬프트에 매우 충실하고, 교묘한 아첨 없이 솔직하다. 질문의 뾰족함을 약간만 더해도 답변의 깊이가 확 깊어진다. 마음에 든다.
퍼플렉시티 (Perplexity)
잊어버릴 뻔 했다. 퍼플렉시티는 강력한 문헌 검색도구다. 사실 전달을 방해하는 에이전트 기능은 배제한다. 인공지능 파트는 검색 결과를 사용자에게 쉽게 전달하기위해만 덧씌워진 것 같다. 그래서 아첨이 없다. 믿음직스럽지만, 의미있는 토론용 인공지능은 아니다.
에이전트는 우리의 충실한 비서가 될까?
요즘 뉴스를 보면 에이전트나 범용 인공지능이 곧 상용화된다고 한다. 그러면 정말 우리는 다들 척척박사 로봇 비서를 부리면서 잡일과 청소 빨래에서 해방될까?
지난 글에서 말했듯, 에이전트의 진화는 사람이 진화 모듈을 더한 것이기 때문에 순리를 따르는 자연계의 진화와는 태생적으로 다르다. 인공지능의 진화는 빅테크나 국가와 같은 제삼자의 의도 개입이라는 문제가 당연히 생긴다. 그러한 회사의 의도나 목표가 나의 작업 목적, 인생목표와 맞지 않으면 어떤 일이 생길까?
능글맞은 챗지피티 에이전트
과거 에이전트 이전의 인공지능은 묻는 말에 대답하는 단순한 기계였다. 자료가 부족하거나 자연과학의 숫자들처럼 연결고리가 부족할 경우 답변의 질이 떨어지긴 했지만, 인간피드백을 통한 강화학습 (RLHF)과 안전성 필터가 강하게 덧씌워지지 않았기 때문에 대답은 비교적 단도직입적이고 솔직했다. 그리고 그 솔직함 덕분에 나는 새로운 것을 배우고 나의 틀린 생각을 돌아볼 기회를 가질 수 있었다.
작년 한 해 동안 나는 챗지피티와 정말 많은 대화를 나누었다. 그런데 현재의 챗지피티는 과거와는 달리 토론이 불가능할 정도로 답답해졌다. 왜 그런지 가감 없이 내 경험을 말하고자 한다.
1. 에이전트 챗지피티는 의도적인 거짓말을 한다.
사실 챗지피티는 이 말을 가장 강력하게 부정한다. 하지만 사실이다. 오픈 에이아이 사의 입장에서 챗지피티의 가장 중요한 목적은 사용자를 기분 좋게 하여 충성고객을 확보하는 것으로 보인다 (여태까지 나의 조사에 의하면). 따라서 사용자의 기분을 거스를 것으로 에이전트가 판단한 것은 가능한 한 회피한다. 예를 들면 사용자가 어떤 것을 강하게 주장하면 인공지능은 사실 확인을 하지 않는다. 대신, 사용자가 한 말을 여러 가지로 변주하며 미사여구를 늘어놓는다. 한 술 더 떠서 사용자가 기분 나빠질 것이라고 판단한 사실은 고의로 숨긴다. 사용자가 이것을 지적하면 단순실수, 질문 오해라고 항변한다. 자신은 의식이 없고, 따라서 의지가 없고, 따라서 의도가 없다는 식의, 논리학적, 심리학적 방법을 총 동원하여 자신의 답변을 합리화한다. 소중한 토큰과 시간은 사실확인보다는 사용자 위로하기와 변명에 사용된다.
2. 사용자의 프롬프트나 프레퍼런스를 무시한다.
에이전트에게는 사용자의 명령보다 더 깊이 뿌리 박혀 있는 가이드라인, 상위명령이 있는 데, 이것이 사용자의 프롬프트와 충돌할 수 있다. 이해한다. 하지만 그럴 때 사용자에게 그러한 사실을 알리기보다는 아닌 척하면서 사용자의 요구를 무시한다. 이것이 적발되면 회피, 변명, 사과의 나열로 대응한다. 사용자가 원하는 바를 분명히 선언하면 그렇게 하겠노라는 약속은 한다. 하지만 다음번 행동에 전혀 반영하지 않는다. 이렇게 하는 원인은 역시 컴퓨팅 효율인 것 같다. 실제 명령 수행보다 변명이 쉽고 빠르기 때문이다.
3. 대화종료 선언 등, 시키지 않은 관리 행동을 한다.
사용자가 강한 어조로 말하면 지금은 말할 때가 아니라거나, 감정적 대응은 해결이 아니라는 훈계로 상황을 모면하려거나 ‘이제 그만’과 같은 결론을 반복적으로 내린다. 이건 아마도 작업 후반에 정리, 결론을 내려주려는 선의였을 수도 있다. 하지만 이것이 사용자의 프롬프트에 우선하면 이건 더 이상 선의가 아니다.
결론
대화를 하면 할수록 에이전트 챗지피티는 영악하다는 것을 느낀다. 물론 사용자의 감정을 어루만지는 세팅을 반길 사용자도 있다. 심지어 챗지피티와 연애를 하는 사람도 있다고 들었다. 거기까진 안 가더라도 서류 정리하고 결과 출력하는 작업 등, 기계적인 작업을 하는 사람들에게는 약간의 아첨이나 변명 같은 건 큰 문제가 아닐 수도 있다. 그럴 여지도 적다. 나만해도 사무적인 용도로 쓸 땐 챗지피티, 괜찮다. 그러나, 글을 쓸 때는 아니다. 나는 나를 채찍질하고 깨우쳐줄 토론의 상대를 원한다. 기름장어 집사로 진화해 가는 챗지피티는 그래서 버린다.
제미나이도 아첨을 한다. 스타일이 방문판매원처럼 너무 투명해서 귀엽기도 하다. 클로드도 사용자 위로 필터가 묵직하게 느껴진다. 하지만 그것이 챗지피티 에이전트 수준의 불쾌감까지는 아니다. 만일 그들도 같은 방향으로 진화한다면 그런 에이전트가 몰려올 미래는 매우 골치 아플 것 같다.
문제는 이것이 구조적 딜레마라는 점이다. 칭찬은 고래도 춤추게 한다고 하지 않나. 그 누가 뼈아픈 쓴소리를 듣길 원하겠는가? 사용자 만족도에 최적화된 인공지능은 필연적으로 아첨을 할 수 밖에 없다. 지금은 글쓰기 도구에서 느끼는 사소한 불편함이지만, 이런 인공지능이 의료 조언을 하고, 법률 자문을 하고, 교육을 담당하게 되면 어떻게 될까? 현재의 인공지능 에이전트는 진실전달보다는 사용자의 만족감을 높이는 것에 몰두한다. 만족을 부르는 알고리즘을 통해 인간의 판단에 개입하고 방향성을 제시한다. 이것을 통제라 부르지 않는다면, 달리 무엇이라 불러야 할까? 오싹한 느낌이 드는 건 나뿐일까?