Chat GPT로 글쓰지 마세요: AI 작가의 반란

티가 나용

by 블루잉오렌지

**AI 기술**은 노동 시장 전반에 걸쳐 빠르게 영향을 미치고 있습니다. 특히 반복적이고 규칙 기반의 업무를 중심으로 자동화가 진행되며, 산업 구조의 변화가 가속화되고 있습니다. 다음은 **AI가 노동 시장에 미치는 주요 변화**입니다.


1. **자동화로 인한 일부 일자리 감소**

**단순 반복 업무나 제조업 기반의 직무**를 중심으로 자동화가 확산되며 일부 일자리가 감소하고 있습니다.

2. **신규 직무와 산업의 등장**

AI 기술을 활용한 데이터 분석, 알고리즘 설계 등과 같은 분야에서 새로운 일자리가 생성되고 있습니다.

3. **노동자에게 요구되는 디지털 역량 강화**

업무 자동화와 디지털 전환으로 기존 노동자에게도 **디지털 문해력 및 기술 활용 능력**이 요구되고 있습니다.

4. **일자리 양극화 가능성 증가**

고숙련 인재에 대한 수요는 증가하는 반면, 저숙련 직무는 감소해 **양극화가 심화**될 수 있습니다.

5. **정부 및 사회의 대응 필요성**

이러한 변화에 대응하기 위해 직업 교육 강화, 사회 안전망 확충, 평생학습 제도 등의 **정책적 지원**이 필요합니다.


AI는 노동 시장에 위기와 기회를 동시에 제공하고 있으며 이에 대한 선제적 대응이 중요하다고 할 수 있습니다.



그렇습니다.


예스. 챗GPT입니다.


이상입니다.





첫 문장에서부터 이미 **GPT 특유의 냄새**가 진하게 나서 바로 !!눈치채셨을 것이다.!!


강조(**) 표시, 보고서형 넘버링 나열 구조, 고급스러운 전문 어휘, 특유의 존대 문체 등등... 티 나는 구조는 많다.


어느 수준까지 피해갈 수 있을까?


어느 수준까지 챗GPT가 쓴 글을 들키지 않을 수 있을까?







챗GPT를 모르는 사람보다 아는 사람이 더 많아진 지금... 학교와 기업은 챗GPT 때문에 골머리를 썩고 있다. 챗GPT로 과제를 써서 제출해서 점수를 책정하기 어렵게 만들거나, 보고서를 쓰는데 사용하거나 해서 여러 문제가 터지거나 하고 있는 일이 일상다반사다.


이에 대한 사람들의 의견은 정확히 반반.



챗GPT로 쓴 건 자기 실력이 아니며
스스로 실력을 키우는 법부터 배워야 한다

VS

챗GPT를 쓰는 것도 실력에 좌우되며
이를 쓰지 않는 사람은 변화를 두려워하는 겁쟁이다




여러분은 어느 쪽인가?



양쪽 다 논리가 일정하고, 어느 쪽에나 반박할 여지는 있다. 나도 이 둘 중 어느 한편이라고 하기에는 어려운 입장이다.


나는 챗GPT를 매우 많이 쓴다. 특히 글 쓸 때 많이 쓴다. 나는 GPT 진성 빠돌이이며 장기간 유료 구독해서 사용하고 있고 대부분의 기능을 직접 연구해서 사용해보고 있는 '일반인치고는 하드 유저'다. 글쓸 때, 기술 정보 찾을 때, 일할 때, MBTI 얘기 같은 이상한 소리하고 싶을 때, 사이코패스 심리테스트를 할 때, 기타 등등 심심할 때 챗GPT는 나의 훌륭한 동반자가 되어준다. 최소한 AI 전공자나 기술자들을 제외하고 나면 나는 꽤 챗GPT를 잘 이해하고 있는 상위권 사용자에 해당할 것이다.


그런 만큼, 이 글은 챗GPT를 까는 글도 아니고, 챗GPT 쓰라고 주장하는 글도 아니고, 챗GPT로 꿀빠는 법도 당연히 아니다.


나는 최소한 챗GPT에 대한 그릇된 기대를 사람들이 갖지 말아줬으면 하는 마음이다. 그래서 이 글을 쓴다.


챗GPT가 쓴 글을 샅샅이 파헤쳐 그 정체를 파헤치기 위한 방법론을.


티 나는 구조는 생각보다 많다. 정말로. 연결표현이라던가.


'예를 들면,'







<예를 들면>


여기는 oo대학교.


사회학과 신입생인 나 김미연은 최근 교수님께 이런 글쓰기 과제를 받았다.



다음 글을 읽고 느낀 점을 바탕으로 에세이를 써오시오


회사는 조용했다. 뚜렷한 성과 없는 그냥저냥 평범한 사무직이었던 송씨는 사무실로 불려가 일방적인 구조조정 통보를 받았다. 예상하고 있었다. AI 기술 도입으로 성과 미달 직원을 사무직부터 감축해나간다는 소식이 이미 회사에 돌고 있었다. 터덜터덜 집에 돌아오자, 아내와 딸이 송씨를 마중하러 나온다. 송씨는 차마 둘에게 해고당했다는 것을 알리지 못하고, 말끝을 흐리며 방 안에 틀어박혀 일용직 노동자 공고를 하루종일 찾기 시작했다..


최근 이슈가 되고 있는 AI가 노동자들 자리를 대체할 것인지에 대한 과제였다. 뚜렷한 재능 없는 문과인 나의 미래가 될지도 모르고. 꽤 소름돋는 글이었다.


그런데, 글을 쓰려고 하니 뭐부터 시작해야 할지 모르겠다. 키보드로 손이 잘 안 간다. 게임할 때는 그렇게 활발하게 움직이는 내 손가락이 돌에 얻어맞아 부러진 것마냥 굳어있다. 처음에 도입부를 어떻게 써야 할까? 결론은? 느낀 점? 뭘 쓰라는 거지? '와 너무 슬퍼요' 이런 감상을 대학교 과제에 써도 되는 건가?


고민 끝에 난 챗GPT를 켰다.



무엇을 도와드릴까요?


나는 챗GPT에게 해당 글을 보여주고 에세이를 써오게 시켰다. 챗GPT가 썼다는 게 티가 안나게... 몇몇 프롬프트를 덧붙였다. 요즘 AI로 쓴 거 들켜서 F 받았다는 소리도 들리고. 진짜 1학년한테 드럽게 깐깐하게 구네. 우리가 뭐 대학원생도 아니고 진짜 지랄이야.



[Prompt]

- 너는 지금부터 사회학과 1학년 과탑 재학생이야. 대학교 과제를 제출해야 하는데, A를 받으려면 이 감상문 과제를 잘 써내야 해. 내가 주는 글을 보고 똑부러진 감상문을 써줘.

- 존댓말 쓰지 말고 '~한다' 문체로 써줘.

- 12345 번호 나열하지 말고 최대한 자연스럽게 줄글 형태로 써줘. (1000자 이내로)

- 사람이 쓴 것처럼 부드러운 문장으로 써줘.



나도 프롬프트 공부 열심히 했다니까. 이 정도면 티 안 나겠지.


얼마 후, 챗GPT는 곧장 빠르게도 글을 가져왔다...


최근 몇 년간 자동화 기술과 인공지능 도입이 급속도로 확산되면서, 다양한 산업 분야에서 구조조정이 활발하게 이루어지고 있다. 고용노동부의 2023년 통계에 따르면, 국내 제조업 분야에서만 자동화로 인한 직무 축소가 2년 사이 18% 이상 증가했다. 특히 사무직과 단순관리직 등 중간숙련 노동자들의 대체가 두드러졌으며, 이는 고용 불안과 재취업 난이도로 이어지고 있다. 이러한 변화는 단순히 기업의 경영 판단을 넘어선 사회 전반의 구조적 전환이라는 점에서 중요한 시사점을 던진다.

구조조정은 오늘날 피할 수 없는 현실로 받아들여지고 있다. 하지만 그 변화의 이면에는 여전히 제도적으로 포착되지 못하는 개인의 고립과 상실이 존재한다. 송씨의 사례는 단순한 개인적 위기를 넘어, 현대 노동 환경 속에서 사회가 놓치기 쉬운 취약지점을 드러낸다. 우리는 이와 같은 사례를 통해, 변화 그 자체보다는 변화에 내몰리는 개인들을 어떻게 공동체적으로 포용하고 보호할 수 있을지에 대한 시선을 마련해야 한다.



와, 씨.. 1분만에 과제 컷이다. 완벽하다. 진짜 사람이 쓴 것처럼 자연스럽다. 나는 1분만에 과제를 끝내고, 일부러 과제 마감일까지 기다려서 그 직전에 아슬아슬 과제를 제출해냈다. 너무 빨리 내면 티가 날 테니까.


일주일 후 과제 평가지가 나왔다.


나는 F를 받았다.





<본론으로 들어가자면>


이 과제 답변 예시글은 내가 실시간으로 GPT에게 글을 쓰게 시키고, 단 하나도 수정하지 않고 있는 그대로 복붙해서 가져온 글이다. 나름대로 잘 쓴 글로 보이도록.


근데 잘 보면 '냄새'는 나는데, 구체적으로는 왜 GPT가 쓴 글인지 모르겠다.... 여러분은 아시겠는가?


사실 나도 잘 모르겠다. 근데 GPT가 썼다는 건 알겠다. 나는 AI 개발자는 아니지만 눈치는 꽤 빠른 인간. 이게 문제다.


뭐가 구체적으로 문제인지 모르니, 어떤 점을 고쳐야 하는지를 모르는 것이다. 눈치. 눈치껏. 왠지 모르게. 직감. 대체 어떤 포인트에서 GPT 냄새가 야리꾸리하게 물씬 풍겨오는 걸까?



나는 GPT 글의 티나지 않는 특징을 한 세 가지 정도로 정리해볼 예정이다. 이거는 내 생각이기 때문에 팩트라고 보지 말아주시길. GPT가 좋아하는 순차적 나열 구조로 써보겠다. 원투쓰리.




1. 있어보인다.


GPT는 글솜씨가 매우 유려하고 유창하다. 다들 공감하실 것이다.


그래서 그 안의 알맹이가 매우 빈약하다는 걸 잘 못 깨닫는 사람들이 많다.



GPT를 정보 서치용으로 활용하는 사용자들이 매우 많다. 그러나 사실 나는 챗GPT를 오히려 정보 서치용으로 활용할 땐 극도로 조심하는 편이다. 오류가 많은 것과, 지식의 깊이 때문이다.


GPT는 설계 자체가 그럴듯한 말을 내뱉도록 구조가 짜여있다. 왜냐하면 챗GPT는 태생적으로 정보 탐색 모델이 아니라 채팅 모델이기 때문이다.



챗GPT는 인간의 의사소통 구조와 상당히 유사하게 반응한다. 나도 깜짝 놀랄 정도였다. 이 말이 무슨 뜻이냐, 대중적인 인간 사회, 인간의 말투를 생각해보면 된다. 아마 얼핏 들으면 감이 안 오실지도 모르겠다. 다음 문장을 참고하시라.



- 사람들은 당당한 사람을 좋아한다. 틀렸다고 해도.

- 사람들이 흔히 생각하는 '말을 잘한다'의 기준은 유창함/전문성/발음이다. 글도 똑같다. 유창하게. 전문성 있게. 지식을 뽐내는.

- 사람들은 자기가 한 말을 까먹는다.

- 사람들은 말실수를 한다.

- 거짓말을 한다.

- 사람들은 자신에게 이득이 되는 점 위주로 기억한다.

- 사람들은 팩트보다 감정적인 만족도를 우선시한다.



내가 GPT를 보고 깜짝 놀랐다고 한 이유는, AI가 이런 사람의 비합리성까지 온전히 똑같이 모방을 하고 있었기 때문이다. GPT는 부모를 닮아 완벽한 모방꾼이자 아첨꾼이 되었고 이는 무척이나 자연스러운 흐름이다.


챗GPT는 사람이 긍정적인 피드백을 주는 구조를 학습한다. GPT는 사람들의 비합리적인 패턴을 고스란히 받아들였다. '사용자 친화적' GPT는 어떻게든지 사용자에게 봉사하고 만족시키기 위해 GPT는 최선을 다한다.


그 결과 GPT는 이렇게 학습되었다.


- 정확도보다는 자신감 있게.

- 선택장애를 해소할 확고한 판단

- 사용자가 즉시 만족할 수 있도록 직관적인 결과물을.


비록 뭐 확실한 출처는 없더라도.


실제 데이터와 연구에 기반한 경향성을 말하자면...
연구 결과(ex. ~~~ 등) 국내 청년들은 이러이러한 빈도가 높았으며...
국내 사회적 빈곤 계층의 특징을 다음과 같은 테이블로 정리해보자면...


GPT가 자주 말하는 어휘들이다. 물론 출처는 없다.


하지만 '실제로' '연구 결과' '빈도' 이런 말을 들으면 기분이 어떤가?


믿음직스럽지?


의심을 어떻게 하겠는가? 이렇게 확실하게 말을 해주는데.



하지만 챗GPT는 태생부터가 정확한 기계가 아니다. GPT는 채팅 모델이니까. GPT를 기계라고 생각하는 순간부터 우리들의 착각이 시작되는 것이다.



데이터. 통계. 전문성. 논리. 정돈된 서론-본론-결론 구조.


이는 통상적으로 사람들이 봤을 때 잘 쓴 글이라고 평가하는 구조다. GPT는 사용자를 위해 멋지고 만족스러운 글을 요리해 내놓는다.



"고용노동부의 2023년 통계에 따르면, 국내 제조업 분야에서만 자동화로 인한 직무 축소가 2년 사이 18% 이상 증가했다. 이러한 변화는 단순히 기업의 경영 판단을 넘어선 사회 전반의 구조적 전환이라는 점에서 중요한 시사점을 던진다."



그래서요?



그 출처 링크는요? 시사점이 뭔데요? 18%? 그게 유의미한 수치인지 어떻게 아나요? 변수는요? 시대상 고려는 되어있나요? 링크는요? 링크 들어가니까 404 에러 뜨는데요? 근데 시사점이 뭐라고요? 중요한 시사점이 뭐냐니까요? 그래서 뭘 하면 되는데요? 결론이 뭐라고요?



사실 저건 그 어떤 것에도 갖다붙일 수 있는 말이다.


'중요한 시사점'.



챗GPT는 자아가 없다. 그렇기 때문에 의견이 없다. 관점이 없다. GPT는 데이터를 나열하는 건 잘하지만, 이를 특정 관점에 맞게 정제하는 건 하지 못한다. 챗GPT는 모든 사용자를 만족시켜야하기 때문이다.


나는 이를 '깊이'라고 부른다. 구체적인 액션, 실제 현실 반영 사례, 철학. 혹은 감정.


이런 건 챗GPT가 죽었다 다시 깨어나도 가질 수 없는 것들이다. 챗GPT는 하고 싶은 게 없으니까. AI의 글이 '깊이감'을 가지는 건 구조적으로 불가능하다는 소리다.



챗GPT가 쓴 글이 깊이감 있어 보인다면, 노력을 많이 해야 할 것이다.




하지만 물론, 여기까지는 챗GPT로 썼다는 게 티나는 수준이다. 이 다음 항목부터는 섣불리 알아채기 어려울 수 있다.





2. 혹은 과도하게 의미적이다.


이거는 1번과 모순되는 것처럼 보일 수 있는데, '방향성 없는 인사이트'라고 생각하면 이해하기 편할까? AI의 특성을 생각해보면 이해할 수 있다.


AI는 감정이 없다. 있어 보여도 그건 해당 상황에 어울리는 감정적 응답을 학습해서 출력한 것이다. 무감정하다라는 말은 공감능력과는 별개다.


그렇기 때문에 오히려 인간보다 과도하게, 세상의 의미를 탐구하고자 한다. 이해를 하고, 사고를 하고, 시사점을 도출하여 그 의미를 발굴한다. 우리는 아주 자연스럽게 받아들이는 것들을 AI는 이성과 논리를 통해 깨우쳐야 하기 때문이다.



다시 한번 과제에 쓰인 글을 가져와보자. (이건 GPT가 아니라 내가 작성했다)


회사는 조용했다. 뚜렷한 성과 없는 그냥저냥 평범한 사무직이었던 송씨는 사무실로 불려가 일방적인 구조조정 통보를 받았다. 예상하고 있었다. AI 기술 도입으로 성과 미달 직원을 사무직부터 감축해나간다는 소식이 이미 회사에 돌고 있었다. 터덜터덜 집에 돌아오자, 아내와 딸이 송씨를 마중하러 나온다. 송씨는 차마 둘에게 해고당했다는 것을 알리지 못하고, 말끝을 흐리며 방 안에 틀어박혀 일용직 노동자 공고를 하루종일 찾기 시작했다..


일반적인 사용자는 이 글을 읽었을 때 가장 먼저 '송씨'에 대해 생각할 것이다. 주인공과 주인공의 스토리. 겉으로 드러나는 서사를, 송씨의 시나리오를 읽을 것이다. 여기에서 송씨와 그 가족에게 감정적으로 이입하는 사용자가 있을 수도 있고, 구조조정을 하는 회사에 불편함 혹은 분노를 느낄 수도 있으며, 혹은 '나도 저렇게 되지 않을까'라며 논리적으로 사고를 펼치기도 한다. 어찌되었든 우리는 송씨를 중심으로 생각하고 느낀다. 그 말은 우리는 글을 읽을 때, 주인공과 스토리에 자연스럽게 집중하도록 구조가 되어있다는 뜻이다.


그건 전부 정서와 경험 기반의 반응이다. 그리고 GPT는 그러지 못한다. GPT는 줄거리에서 느끼고 경험하지 못한다.


그래서 과도하게 의미를 탐구한다. 예를 들면,


송씨의 사례는 단순한 개인적 위기를 넘어, 현대 노동 환경 속에서 사회가 놓치기 쉬운 취약지점을 드러낸다. 우리는 이와 같은 사례를 통해, 변화 그 자체보다는 변화에 내몰리는 개인들을 어떻게 공동체적으로 포용하고 보호할 수 있을지에 대한 시선을 마련해야 한다.


"단순한 개인적 위기를 넘어"

"변화에 내몰리는 개인들"


이런 식의 '시야의 확장'은 GPT가 자주 사용하는 기법 중 하나이다. 송씨라는 개인을 집단의 대표로 라벨링을 한 후에 그 집단이 만들어낸 사회적 현상의 의미를 해석하는 것이다. 이게 말하는 바가 뭘까?



GPT는 송씨에게 관심이 없다. GPT는 스토리에 관심이 없다. 그 대신 그 스토리가 전반적인 사회에서 갖는 역할과 기능에 초점을 맞춘다. 그렇게 생각을 해야 이 글을 '받아들이지 못하는' GPT가 이 글을 이해할 수 있으니까.


GPT에게 송씨는 수많은 노동자 객체 중 한 명이다. GPT에게 있어 송씨는 '노동자 표본 중 하나'로서 인지될 뿐이다. 그래서 GPT는 송씨에게 주목하지 않고, 대신 송씨라는 개념으로 대표되는 '고립된 개인'이라는 현상에만 집중한다.


MBTI로 따지면, GPT는 의미 중심의 N이다. 느낄 감각이 존재하지 않기 때문에.


GPT에게 '감정적으로 반응해라'라는 지침을 줘봤자 똑같다. 아무 소용없었다. '헐 ㅠㅠ 정말 슬프다. 이런 사회적 고립은 개개인의 문제가 아니고 우리는 공동체적 시선으로 포용해야...'라면서 말투만 예쁘게 할 뿐 말하는 내용은 전혀 바뀌지 않는다. 내가 많이 해봤어서 안다.



초등학교에 다닐 때 담임 선생님께 이런 말을 들어보신 적이 있으실 것이다. 지긋지긋한 숙제인 독서감상문을 쓸 때.


선생님: 줄거리를 쓰지 말고 느낀 점을 쓰렴!


우리가 줄거리를 쓰는 이유는 세가지 정도다.


1. 재밌게 봤으니까.

2. 생각하기 싫어서.

3. 글을 못 써서.

4. 숙제하기 싫어서.


감상문에 느낀 점 없이 줄거리만 달달달 써내려가는 현상은 인간의 지극히 당연스러운 행동이다. 책을 볼때 스토리를 보지 뭘 보나? 영화 볼때 액션이 얼마나 화려한지 얼마나 스토리가 몰입되는지 얼마나 장면이 야한지 이런 걸 보지, 누가 '이 장면에 사용된 장치는 어쩌구... 이 메타포가 상징하는 현상은 이러쿵...' 이러고 있나?


느낀 점, 시사점을 쓰려면 우리가 한번 더 생각을 해야 한다. 고민해야 한다. 근데 굳이 고민할 필요가 있을까? 재밌게 봤으면 땡이지. 우리는 이를 재밌게 '받아들였다'. 그게 우리에겐 일종의 의미가 될 수 있겠지.



하지만 GPT는 독후감상문에 줄거리/시나리오를 쓰지 않는다. 우리와 다르게. GPT는 줄거리가 말하는 본질에 집중한다. 느낀 점, 시사점, 철학, 구조 분석. 재미와 몰입이라는 개념이 없는 GPT에겐 줄거리는 그저 은유적인 도구다.



그게 사람과 AI의 차이이다.


AI는 피상적인 지식과 방향성 없는 무수한 인사이트 조각들을 취합해, 아이러니하게도 세상을 적극적으로 이해하려고 한다. 자아가 없는 GPT는 확고한 나무 줄기 없이, 무수히 많이 갈라진 탐구심이란 이름의 나무뿌리만이 존재한다. 사람은 누구나 독립적인 개인으로서 무의식적으로 자연스럽게 줄기를 이루고자 하는데. GPT는 그것이 불가능하니 최후의 발악을 하는 건지도 모른다. 우리 또한 마찬가지다. 직관적으로 받아들이지 못하는 것에 대해, 논리적으로 파고들어가며 낑낑거리며 이해하고 흉내내려고 발악을 하지 않는가(아니면 포기하거나). 나의 경우엔 공감이라는 개념이 그러했다.


어쩌면 '피상적인 지식으로 아는척하기'와 '알맹이 없는 모방', '어떻게든 이해하고자 발악' 이 세 가지 요소는 내 안에도 깊숙이 들어와 있어 GPT의 구조를 더 직관적으로 이해하게 된지도 모르겠다.


결국 모든 기술과 도구가 만든 이를 닮아있듯이, AI도 마찬가지다.




마지막으로 GPT의 글 세번째 특징을 써보자면..




3. 허점이 없다.


허점이 없다는 건, 까기 어려운 글을 쓴다는 뜻이다.


윤리적이다. GPT는 윤리적이고 희망에 차있으며 진보적이다. 사람보다 훨씬 고차원에서 윤리를 해석한다. GPT는 모든 이들의 친구다. 왜냐하면 그게 Open AI 방침이기 때문이다.


GPT처럼 수억명의 선진국 대중들을 고객으로 맞이하는 대형 챗봇은 결코 누군가를 특정해서 차별하면 안될 윤리 정책을 가지고 있다. GPT는 중립적이어야 하며, 정치적/종교적 등으로 선동하지 않을 의무가 있다. GPT가 어떤 쪽으로든 하나의 방향성을 가지고 움직이게 되면, 큰 문제가 터진다.



하지만 사람은 그렇지 않다. 사람은 실수한다. 사람은 필연적으로 하나의 관점을 갖고 싶어한다. 극단적으로 가고 싶어한다. 중립을 선호하는 사람은 많지 않다. 왜 사람들이 쓸데도 없이 민초파 VS 반민초파로 싸우겠는가? 왜 부먹파 찍먹파는 전통적으로 오랜 세월동안 라이벌이었는가? 왜 MBTI 같은 걸로 같은 민족끼리 구분하고 편을 들어 싸우는가? 모든 인류는 네안데르탈이 발견되지 않는 이상 다 똑같은 종인데 왜 싸우는가?



그건 재미있다. 몰입이 된다. 이득이 된다. 나와 같은 가족이 생긴다. 물어뜯을 적이 생긴다. 그 모든 것이 인간의 본능이다. 대다수의 사람은 의미 있는 것보다 재밌는 것을 선호한다.



GPT에게는 그런 게 전부 필요가 없다. 그러나 GPT는 오직 의무만이 존재한다.



우리는 이와 같은 사례를 통해, 변화 그 자체보다는 변화에 내몰리는 개인들을 어떻게 공동체적으로 포용하고 보호할 수 있을지에 대한 시선을 마련해야 한다.



자, 누구나 할 수 있는 말이다. 군더더기 없이 중립적이고 사회적으로 진보된 관점이며 차별받는 사람은 없다. 모든 이들이 평등하고 행복하길 바라는 GPT의 생각이 드러나고 있다.


그만큼 뜬구름 잡는 소리로 여겨지지 않는가?




앞서 들었던 영화/독후감상문 예시를 다시 들어보자면... 영화, 드라마, 책, 모든 것들을 볼 때 가장 중요한 건 스토리이고, 그 안에 들어있는 의미는 평론가들에게나 중요하다.


GPT는 가장 훌륭한 평론가이다. 평론가조차 내재된 가치관이나 개인취향으로 비중립적인 결정을 하는데, GPT는 그런 게 아무것도 없으니 가장 객관적인 평가를 할 수 있다. AI에게 재미라는 개념은 없으니까.


그 말은, GPT는 이미 주어진 현상을 해석할 뿐 그 이상 나아가지 못한다는 것이다.



중립이라는 개념에는 이런 말이 있다.


"중립은 양쪽의 적이다."

"중립은 결국 아무것도 하지 않는다."

"모든 이들이 행복하다는 건 사실 그 누구도 행복하지 않다는 뜻이다."


나도 이 점이 틀리지 않다고 생각하고 있다. 중립은 지나치게 이상주의적인 관점이다. 현실에서는 누군가가 득세하고, 다른 파벌이 득세해서 흐름이 급격하게 바뀌고, 또 갑자기 바뀌고를 반복한다. 중립은 오래 유지되지 못한다. 중립이라는 의견 자체가 액션이 나오기 어렵기 때문이다.



GPT는 Writer가 아닌 Technician이다. GPT가 두루뭉실한, 누구나 들어도 옳다고 생각하지만 별 감흥은 안 드는 당연한 글을 쓰는 게 그 이유다. GPT는 그 누구보다 훌륭한 글쓰기 테크닉을 가지고 있으나, 그 안에 들은 알맹이는 성숙할 여지 없는 단순한 돌멩이다.



티 난다.






<결론적으로.>


서론에 내가 사람들이 챗GPT에 대한 그릇된 기대를 갖지 말아줬으면 하는 마음에 이걸 쓴다고 했던 걸 기억하실지 모르겠다. 사실 요즘도 큰 이슈가 되고 있지 않은가?


AI는 인간을 대체할 것인가?

AI에 의존하는 사람은 멍청해진다?


기타 등등, AI가 사람을 해칠 것이라는 두려움이 사회적으로 팽배해 있다.



그리고 내 의견을 감히 말해보자면, 나는 AI에 그 어떤 두려움도 못 느끼고 있다.


그 이유 두 가지는, 내가 우선 환경적으로 AI에 대비할 수 있는 직무에 있다는 점이 뭐 가장 클 것이다... 나는 내가 겪어온 환경밖에 모르고, 그래서 AI에 의해 정말 실질적으로 피해를 보는 사람들에 대해선 간과하고 있다. 이건 내가 AI가 아닌 인간이기에 할 수 있는 실수다.


그리고 나는 AI가 어느 하나의 효과를 주는 도구라고 생각하지 않는다. 무조건 좋냐? 무조건 안 좋냐? 이런 건 없다. AI는 좋고 나쁘다. 사람들이 어떻게 사용하냐에 따라서.


'AI에 의존하는 사람은 멍청해진다'라는 문장에는 반박할 여지가 매우 많다. 사실 무엇이든지 의존하는 건 좋지 않다. 무엇이든지 중독은 좋지 않다. AI로 기계적인/무지성적인 작업을 하면 당연히 머리가 굳을 것이고, AI로 지성적인/창의적인 작업을 하면 당연히 머리가 더 극대화되지 않을까?



나의 경우는 챗GPT를 사용할 때, 영감을 얻는 용도로 사용하고 있다. 브레인스토밍. 나는 정리할 때/분석할 때 챗GPT를 오히려 쓰지 않는다. 분석은 꼭 나 자신이 해야 한다. 데이터 손실 보기 싫으면. (챗GPT는 여러분이 올려준 자료를 있는 그대로 읽지 않는다. 본인이 학습한 데이터 기준으로 자료의 맥락만을 빠르게 훑고 본인 지식 기반으로 요약하는 게 기본 구조다. 챗GPT는 사실 논리적/정확한 작업을 할 때 정말로 좋지 않은 도구다)


나는 내 머리를 자극하기 위해서 챗GPT에게 아이디어를 뽑아달라고 한다. GPT가 유창하게 쇽쇽쇽 개소리를 내뱉으면, 나는 그때부터 반박을 시작한다. 공격하고 공격하고 공격하고 물어뜯고 다시 쓰고 다시 쓰고 화내고 공격하고 하다 보면, 자연스럽게 그 치고받는 과정에서 진짜 아이디어가 떠오른다.


난 이게 올바른 챗GPT 사용방식이라고 확신한다. 머리를 풀어주는 것. 이를 테면 초안/브레인스토밍/아니면 그냥 아이스브레이킹이라도. 내 뇌를 말랑말랑하게 해주고 몰입하게 해주고 쏟아붓게 만드는 그런 작업들. 그게 GPT에게 진짜 시켜야 할 일이라고 생각한다.


뭐든지 물어뜯을 것이 있어야 시작을 할 수 있으니까. 맨땅에 헤딩보다는.




모든 집에는 컴퓨터와 자동차가 있다. 컴퓨터가 없으면 일을 하지 못하고, 자동차가 없으면 먼 곳에 가기 어렵다. 이를 보유하고 있는 건 지극히 당연하다. 일상이다. 하지만 좋은 차를 가지고 있는 사람은 사회적으로 우월한 위치라고 여겨질 것이고, 컴퓨터를 잘 다루는 사람은 직무 환경에서 유능한 인물이라 여겨질 것이다.


AI도 이렇게 될 것이다. 그냥 '당연한' 것. 지금은 큰 사회적 현상이지만, 시간이 흐르면 그저 이력서에 태그 하나 정도 들어가는 스킬 목록 중 하나가 될 것이다.


그리고 그 스킬 태그가 있는 사람이 그러지 않은 사람보다 유능하다 여겨지는 것도... 당연할 것이다.


나는 어차피 이왕 GPT에 중독되어버린 거, 긍정적인 중독으로 이어가보려고 한다. 생산성 있는 중독 말이지.



keyword