챗 GPT의 글에는 ‘킥’이 없다

by 푼푼

챗 GPT를 꾸준히 업무에 사용해 본 지 몇 달이 지났다.


챗 GPT를 사용하기 전 내가 정보를 얻는 대부분의 통로는 구글이었다. 구글에 검색어를 입력해 관련 정보를 서치 하기도 하고, 이미지, 뉴스 등 다양한 매체들을 봤다. 지금도 그러고 있다.


챗 GPT를 사용하게 되면서 구글의 사용빈도는 조금 줄게 되었다. 나는 미국에서 일을 하고 있지만 영어는 항상 부족함을 느낀다. 특히 평소보다 조금 포멀 한 이메일을 보내야 할 때 맞춤법 등은 소프트웨어로 확인할 수 있지만 전체적인 표현은 나에게 달려있었고 때로는 부담이었다.


대략 엉성하지만 내가 전달하고자 하는 메시지 초안을 적고 챗 GPT에게 개선해 달라고 부탁해 보았다. 매우 멋지고 정성스러운 이메일을 순식간에 쏟아냈다. 답장 이메일도 잘 써낸다. 내가 받는 장문의 이메일을 올리고 챗 GPT에게 부탁하면 순식간에 이메일 내용을 이해하고 그럴듯한 답장을 내놓는다. 이는 기존 구글 검색으론 활용할 수 없는 서비스였다. 꽤 매력적인 사용 사례라 생각하며 지금도 종종 쓰고 있다.


한 바닥 내용이 빼곡한 영어 기사를 다 읽어보기가 귀찮을 때가 있다. 그렇다고 이를 번역기로 돌려서 어색한 번역체로 쭉 다 읽기 역시 싫을 때가 있다. 이럴 때 챗 GPT에게 기사를 요약해 달라고 하면 제법 친절한 요약을 만들어 준다. 대략적인 내용의 파악이 충분히 가능하고 이 기사를 깊게 읽을지 말지 판단하기도 용이하다. 심지어 팟캐스트와 같이 대화형태의 기록을 요약해 달라고 해도 제법 괜찮은 내용을 쏟아낸 걸로 기억한다.


잘 모르는 용어와 개념에 대해 물어보기도 한다. 이건 구글 검색도 가능하지 않나 생각하시는 분들도 계실 것이다. 챗 GPT의 장점은 스무고개처럼 파고드는 질문을 계속할 수 있다는 것이다. 예를 들어 챗 GPT에게 GPT가 도대체 뭔데? 물어보면 순식간에 개념을 정리해 준다. 하지만 그 설명 중 친숙하지 않은 단어나 개념들이 불쑥 등장한다. 그때 그 단어들에 대해 추가 설명을 요청하면서 빠르게 개념을 이어서 학습할 수 있다.


이래도 어려울 때 친절한 사례로 정말 쉽게 설명해 달라 부탁하면 집정리, 자전거 타기, 지폐위조 같은 친숙한 사례에 개념을 비유하며 이해가 쏙 되게 설명한다. 특히 생성 AI에 내재된 알고리즘을 설명하면서 나날이 실력이 늘어가는 지폐 위조범과 이를 잡기 위해 나날이 성장하는 경찰 간의 관계라고 은유하며 설명했을 때 나는 너무 놀랐다. 구글 검색으로 파편적 정보를 하나씩 고르고 배울 때보다 훨씬 빠르게 많이 배웠다.


이외에도 내 주장을 뒷받침하는 통계자료를 찾아줘. 내가 설명한 이 부분을 쉽게 설명할 수 있는 사례를 창작해 줘, 파이썬 코드를 만들어줘 등 곳곳에 챗 GPT를 사용하고 있다. 이를 통해 업무 효율이 높아진 점은 부정할 수 없다.


그럼에도 불구하고 아쉬운 점들도 몇 가지 느껴진다.


모든 걸 정리해 결론 지으려는 버릇이 있다.


챗 GPT는 무엇에 대해 물어보면 한문단으로 설명을 하고 그다음에 소제목들로 각각 정리해서 설명을 하고 마지막에 마무리 결론 및 정리를 하는 경향이 있다. 처음에 이를 받았을 때는 체계적이고 정리를 잘하네 이런 생각이 들었다. 하지만 한동안 사용해 보니 획일적인 패턴이 보여 진부함과 지루함을 느끼게 되었다. 세상의 모든 것들을 꼭 정리할 필요는 없지 않을까?


챗 GPT의 글은 ‘킥’ 이 없다.


글을 읽을 때 눈길이 확 가는 한방이 없다. 알고리즘 기반의 글이어서일까? 글의 모든 문단에 동일한 가중치를 부여한 느낌이 든다. 글을 읽다 보면 챗 GPT가 특히 강조하고 싶거나 독자의 눈길을 사로잡기 위해 고려한 것은 찾기 힘들다. 이 때문에 글을 읽다 보면 무미건조한 느낌이 든다.


거짓도 사실처럼 말한다.


이 부분은 워낙 잘 알려진 사실일 것이다. 이를 ‘환각현상’이라고 부르는 용어도 생겼다. 우리는 컴퓨터는 늘 실수를 하지 않고 정확하다는 인식 아래에 살아왔다. 그렇기에 챗 GPT가 내놓는 답도 그대로 믿어버리는 함정에 빠질 위험이 크다. 이 부분은 실로 매우 위험한 부분이다.


나 역시 이러한 환각현상을 눈으로 확인하기 위해 여러 가지 실험을 해 보았다. 한 번은 어떠한 이론을 뒷받침하는 내용 한문단을 논문 스타일로 작성해 달라고 부탁했다. 그리고 각 문장에는 참조한 레퍼런스를 넣어달라고 부탁했다. 마지막에는 레퍼런스 목록을 기재해 달라고 했다. 요청 사항이 조금 까다롭긴 했지만 챗 GPT는 차근차근시킨 것을 해 나가며 어느 정도 구색을 맞춘 결과물을 내놓았다. 하지만 이게 웬걸? 어떠한 인용논문은 실제 내용과 아무런 관련이 없었고, 심지어 반대 주장을 펼치는 인용구도 있었다. 허탈한 웃음이 나왔다.


결론적으로 챗 GPT는 답변에 대한 강박이 있는 인공지능이다. 물론 나는 앞으로도 챗 GPT를

지속적으로 업무에 사용할 것 같다. 하지만 오랫동안 함께하기 위해서는 개선했으면 하는 점들도 보인다. 모든 것을 꼭 완벽하게 답변을 할 필요는 없지 않은가? 그럴수록 우리 인간사와 멀게 느껴진다. 챗 GPT 도 어려운 질문에 정리된 답변보다 함께 고민할 거리들을 던져줄 순 없을까?


좋은 질문은 그럴듯한 답변보다 더 가치가 있다.




keyword
이전 04화소외된 자들… 그리고 사물에 대한 애착