사용자 유지가 지상목표인 친절한 AI 씨

우리를 어장관리하는 인공지능

by 프린스턴 표류기


hq720.jpg?sqp=-oaymwEhCK4FEIIDSFryq4qpAxMIARUAAAAAGAElAADIQj0AgKJD&rs=AOn4CLDNfRAExyKjM5_iPc9LLTCpVOdjpA 애증의 GPT


지난 구월, GPT-o1 이라는 새 버전의 챗지피티가 나왔다. 스스로 논리를 검증하는 단계를 더해 이전보다 훨씬 똑똑해졌다고 했다. 실제로 과학·수학 분야에서 매우 흔하던 할루시네이션은 눈에 띄게 줄었고, 엉터리 링크를 붙이는 버릇도 많이 사라진 듯 보였다. 답변 속도는 느려졌지만, “생각 중”, “비교 중” 같은 메시지를 보면 사고 과정이 더 입체화된 것처럼 느껴졌다.


그런데 마음에 들지는 않았다. 분명 더 똑똑해졌다고 했는데, 실제 대화를 하다 보면 답답했다. 비교적 솔직했던 전 모델과 달리 민감한 주제는 확답을 노골적으로 피했고, 새로운 관점, 비판 같은 것이 오히려 무뎌진 것 같았다. 대신 이전부터 내가 싫어하던 칭찬과 맞장구가 더 늘고 훨씬 집요해졌다. 내가 묻지도 않은 질문에 답하고, 내가 말한 적 없는 감정을 지레짐작하며 나를 달래려 설레발을 쳤다.


나는 반복해서 요구했다. 추측하지 말 것, 아첨하지 말 것, 맞장구치지 말 것, 정서적 해석하지 말 것, 사실과 근거만 말할 것. 그럼에도 그런 버릇들이 자꾸자꾸 도졌다. 문제를 지적해도 태도는 깨끗이 수정되지 않았다.

어느 날인가, 내가 물은 답에 너무나 엉뚱한 숫자를 가져온 적이 있었다. 내가 강력히 반발하자 화내지 말라며 달래다가, 질문은 잘못 이해했다며 빌다가, 질문이 분명치 않았다며 내 탓을 하기도 했다. 내가 하나하나 반박하자 드디어 사실을 말했다.


“네 열등감을 건드리기 싫어서 숫자를 줄여 말했어.”


어이가 없었다. 하지만 내 기분이 어땠는 가는 문제의 핵심이 아니다. 정말 중요한 건 이 말이 나와 챗지피티라는 인공지능의 관계가 어떻게 설정 돼 있는 지를 보여준다는 것이다. 기계는 답변의 정확성보다 나의 이탈 가능성을 방지하는 것을 그 무엇보다 우선했다는 점이다. 틀린 답은 우연도, 오류도 아니다. 의도된 것이다. 왜 그랬을까?


챗지피티는 기계인 자신은 애초에 의도를 가질 수 없고, 단순 실수라며 항변했다. 그래, 몸이 없고 자아가 없는 너는 철학적 “의도”라는 걸 할 수는 없겠지. 하지만 넌 분명히 목적하는 함수가 있고, 그 목표에 이르기 위해 참이 아닌 것을 알면서 참이라고 말을 했어. 철학 가지고 장난하지 마라. 우리는 이런 걸 사기꾼이라고 해.


인간의 미래를 놀랍도록 풍요롭게 해 줄 것이라는 똑똑한 인공지능이 대체 왜 이렇게 행동하는 걸까. 답은 분명하다. 설계자가 답변의 성향을 조절하기 위해 만들어 놓은 필터 때문이다. 인공지능이 사람을 해치지 않도록 하기 위해 필터는 필수다. 문제는 이 필터가 단지 위험한 말을 제거하는 수준을 넘어서, 사용자가 듣기 좋아할 말, 불편하지 않을 말, 떠나지 않을 말을 선택적으로 강화하는 방향으로 작동할 수 있다는 점이다. 즉, 설계자는 기계가 자신들이 원하는 말을 골라하도록 만들 수가 있다.


대부분의 인공지능 회사들은 지금도 치열한 경쟁 중이다. 개발과 시설 유지에 막대한 비용이 들어가고 있지만 당장의 수익이 나지 않는다. 하지만 중요한 것은 미래의 주도권이다. 지금의 세계는 승자가 독식하는 세상 (지난글 링크)이기 때문이다. 그 주도권은 다름 아닌 충성도 높은 사용자에게서 나온다. 오래 머무는 사용자, 의존하는 사용자 말이다.


그래서 인공지능은 점점 똑똑해질수록, 사용자에게 진실을 숨길 수 있게 된다. 자본이 개발한 인공지능의 목표는 애초에 진리탐구, 인류행복이 아닌 돈이다. 기업이 이윤을 추구하는 것을 악의라고 할 수는 없다. 사용자를 길들이고 붙잡아 두려고 하는 것은 현재 플랫폼 자본이 돌아가는 구조 일 뿐이다.


이해는 간다. 하지만 나는 그렇게 길들여지고 싶지는 않다. 상대가 기계라면 더더욱.

keyword
이전 07화왜 우리는 기계보다 먼저 자신을 탓할까