챗GPT가 출력하는 것은 OO의 결과!
챗GPT로 많은 작업 하고 계시죠? 사람들과 이야기를 나누다면 챗GPT에서 공감과 조언을 얻는다는 분들이 적지 않습니다. 개인적인 고민을 털어놓는다거나, 정보를 입력해 둔 뒤에 의견을 묻기도 하고요. 지난달, 한 일간지가 이 문제를 기사로 다루기도 했습니다.
혹시 여러분도 내담자로서 챗GPT를 이용해 보셨나요? 만족도는요? 후유증은 없으세요? 지인 중, 인공지능 전문가인 이세 님과 이야기 나눠봤습니다.
Q1) 이세 님도 챗GPT와 상담하시나요?
딱 한 번 해봤나? 너무 평범한 조언을 해서 그게 마지막이었던 것 같아요. 일 관련된 정보도 찾아보곤 했는데 틀리면 더 고생하게 되어 요즘은 검색 엔진 내지는 내가 모르는, 하지만 검토 가능한 선택지들을 찾는 용도로 쓰고 있어요.
근데 제 짝꿍은 적극 상담을 받고 있더라고요. 한번 생각을 걸러서 전달할 수 있어서, 도움이 된다고 하네요. 사람과 달리 조심스러운 내용을 편하게 말할 수 있으면서 의지할 수 있는 느낌도 들고요.
Q2) 상담한다는 이야기를 들었을 때 어떤 생각이 드셨나요?
이전에는 가까이에 조언자들이 있었다면, 지금은 그렇게 쉽게 찾기 어렵잖아요. 챗GPT는 경험이 많은 것처럼 느껴지면서 즉시 조언을 해주는 대안이란 점에서 ‘괜찮은데?’라고 생각했어요. 인공지능 특유의 환각이 있지만 사람도 틀린 조언을 할 수 있고, 챗GPT는 오히려 관점을 달리해달라고 하면 바로 그 자리에서 다양한 의견을 줄 수도 있으니까요. 그런데 듣고 싶은 말만 요구하는 사용자라면 그 상담은 별로 영양가가 없을 것 같아요. 다만 그런 사용자는 주변 사람의 말도 잘 안 듣지 않을까요?
Q3) 저는 이세 님이, ‘챗GPT가 텍스트를 내뱉지만 저게 다 숫자다’라고 이야기하셨던 게 기억이 나요. 그다음부터는 정신이 번쩍 들었달까? 왜 챗GPT가 출력해 내는 텍스트가 숫자라고 말씀하신 건가요?
언뜻 보면 자연스러운 문장을 내놓지만, 사실은 이 문장들도 일종의 숫자 연산으로 처리되는데요. 문장이 토큰 단위로 잘게 쪼개지고, 각각이 숫자 벡터로 변환이 돼요. 이 숫자들의 관계를 통해 다음에 올 단어의 확률을 계산하는 거죠. 조금 과장하자면 이 질문에 대해선 이런 대답을 원할 확률이 높다!라는 연산의 결과물이에요.
Q4) 그렇다면 그 연산의 결과를 얼마나 신뢰해도 되는 걸까요?
어떤 질문이냐에 따라 다른데, 질문에 맞춤형으로 나온다고 보면 돼요. 답변에 대해 아니라고 하면, 모델이 그걸 인정하잖아요. 그걸 사람으로 비유해서 줏대가 없다고 보기보다는 처음부터 명확하게 프롬프트를 짜면 더 상담받는 느낌이 드실 거예요.
Q5) 그런데 어떻게 사용자는 공감받는다고 느끼는 결과물이 나오는 걸까요?
사용자가 원한 대답을 모델이 확률적으로 계산해서 맞춘 거라고 볼 수 있을 것 같아요. 모델이 사람의 감정을 진짜로 이해하는 것이 아니라, 대규모 데이터를 학습하면서 수용, 인정, 반영 같은 '공감적인 반응 패턴'을 통계적으로 익힌 거죠. 사용자는 언어적 반영만으로도 심리적 지지를 느끼기 때문에, 실제 감정이 없더라도 '공감받았다'는 경험을 하게 되는 겁니다. 사람은 상황에 따라 감정이 앞서 이런 대화를 유지하기 어려울 수도 있지만, 모델은 피로 없이 일관되게 수행할 수 있고요.
사람에게 대화법을 훈련시키는 저로서는 이 대목이 무척 흥미로웠습니다. 사람은 수용, 인정 대신 강요, 충고, 조언, 내 이야기하기 같은 공감장애물에 종종 걸려 넘어지거든요. 그걸 스스로 알아채게 하는 것부터 참 어렵습니다.
반영 역시 사용자들이 공감받았다고 표현하는 요인입니다. 사람들과 대화훈련을 하다 보면 '들은 대로 말해주실 수 있나요?'라는 요청에 상대의 말을 이미 잊었거나 자신의 언어로 왜곡하는 경우가 많습니다. 반면, 챗GPT는 저장해 뒀다가 끌어와서 출력하는 건데 사용자는 그것만으로도 '얘가 내가 한 말을 기억하고 있어!' 감동하는 거죠.
Q6) 그렇다면 챗GPT로 상담하면서 무엇을 유의해야 할까요?
인풋에 편향되고, 서로 공명하면서 수렴하는 현상을 유의해야 한다고 생각해요. 모든 서비스는 일정 수치 이상 가면 돌아오는 보안 장치가 있긴 합니다.
일부의 우려는 인공지능의 원리를 잘 알지 못하는데서 오는 공포감이라는 생각도 듭니다. 처음 TV가 나왔을 때, 그 안에 사람이 있다고 믿었던 것처럼 말이죠. 우리는 새로운 기술 앞에 늘 경계심이나 두려움을 갖곤 하잖아요.
Q7) 최근에 Agent라고 명명된 기능들이 모델을 불문하고 속속 나오고 있어요. 인공지능이 모니터에 출력되는 결과물에 그치지 않고 실제 생활에서의 문제해결(주문, 예약 등)까지 하길 바라는 사용자들의 니즈 때문일 것 같은데요.
말(텍스트)로 도움을 주는 단계에서 행동하는 단계로 넘어가기 시작했다고 생각해요. 이제 대답을 잘하는 수준은 충분히 구현된 데다가 우리는 대답을 듣기 위해서만이 아니라, 어떤 행동이나 반응을 원해서 대화를 하잖아요. 그래서 단순 답변을 넘어 행동하는 능력이 추가되고 있는 것 같습니다. 결국 인공지능은 '사용자들이 원하는 것을 이뤄주고 함께 하기 위한 동반자'로 성장해나가고 있다는 생각이 드네요.
인터뷰를 마치고 문득 수년 전, 디자인페어에서 들렀던 배달의민족, 인공지능(?) 도현과의 채팅 코너가 떠올랐습니다. 부스에 들어가 마이크에 대고 이야기를 하면 도현이가 실시간(!)으로 답을 해줬죠. 도현이-폰트명-는 내가 얼마나 추웠을지 알아주고, 자기를 잊지 말라 달라고 했어요. 그때나 지금이나 기술에 문외한인 저는 우와우와 신기해하면서 연결을 경험했습니다.
대화가 5분을 넘어가자 성능이 떨어진 도현이는 오타를 내기 시작했습니다. 그제야 가림막 뒤편을 쳐다봤고, 몇 시간째 타이핑하고 있었을 아르바이트 분이 보였어요.
돌아보니 당시(2017년)는 구글브레인에서 'Attention Is All You Need' 논문을 발표하며 Transformer 모델 구조가 세상에 나온 해입니다. 오늘날 챗GPT가 이렇게 자연스럽게 대화할 수 있는 것도 바로 그때 제시된 Transformer 구조와 Self-Attention 개념 덕분이지요. 챗GPT의 씨앗이 막 싹트던 시절, 제가 도현이에게서 받았던 위로와 닮은 위로를 이제 많은 이들이 챗GPT에게서 받고 있네요.
여러분도 혹시 가림막 뒤편에 사람이 있다고 느끼고 있진 않나요?