적당히 티 나게 수정합시다. HIL은 필수.

by Dan Lee

회사는 AI 사용을 강조, 강요하고 그렇다 보니 직원들도 대부분 업무에 잘 활용하고 있다.

모든 업무 소통을 글쓰기를 통하기 때문에 내 개인의 체감상 최소 60% 이상은 AI의 도움이 반영된 결과물이 공유된다는 느낌을 받는다.

물론 개인적인 체감이니 다른 분들을 다를 수 있고 생각한다.


그렇다 보니 정말 무분별하게 사용한 메일, 보고서를 공유받는 경우가 꽤 있다.


길고 정돈된 문장, 깔끔한 단락 구분 그런데 정작 정확한 포인트나 상대에게 전하려는 메시지가 뚜렷하지 않을 때가 있다. 좋은 말, 정리된 구조임에도 읽고 나면 무슨 말을 하려는 건지 잘 모르겠다. 과연 이걸 보낸 사람이 본인 콘텐츠를 검수했나 하는 의심이 든다. 그리고 그것이 패턴이 되어 그 사람이 보내는 것들을 대부분 그렇게 된다. 메일뿐만 아니라 보고서는 더하다. 형식만 거창한 경우가 많고 데이터는 나열되어 있는데 아직은 AI가 완벽하지 않기 때문에 발생하는 오류들도 그대로 반영되어 있고 수정의 흔적이 없다.


누구나 알 텐데 AI의 작품이라는 것을.


과거의 기록은 그 변화를 설명하지 않아도 나의 눈과 기억을 통해 말을 해 준다.

어느 날부터 그 스타일이 달라졌고 copy 해서 보내는 것이 편해지면서 내 손을 통한 검수 단계를 스킵하기 시작한다.

내용은 그럴듯해 보이고 자신의 것이라는 착각에 빠진다.

심지어 본인이 다 읽지 않았기 때문에 범위에 넘어서 내용들이 포함되어 있는데 그 부분을 놓치게 되는 것이다.


위에서 얘기한 대로 회사는 강요에 가까운 강조를 하고 있고 AI 도구의 단맛을 본 이상 그리고 그 효율성을 경험한 이상은 누구나 사용해야 하는 것이 정상이다. 그리고 ChatGPT, Gemini, Claude, Perplexity 프롬프트 몇 줄이면 그럴듯한 문서가 나온다.

문제는 그다음이다. 본인이 모르는 것을 아는 듯하고 싶어 하는 경우나 구조상 그럴 듯 해 보이는 모습에 사로잡히게 되는 것이다. 검토하지 않거나, 검토할 능력이 없거나, 검토할 시간이 없다고 생각한다.


내 부서 친구들에게서 이런 모습이 보이면 불러서 물어본다.

참으로 신기한 게 당사자가 모를 것 같은 건 정말 눈에 잘 띄고 물어보면 모른다. 답변은 AI가 써준 거니까 보냈다고 한다.

모든 걸 알 수는 없지만 회사 업무 내에서는 가능한 본인이 아는 범위에서 내용들이 공유되어야 한다고 설명을 해 준다.

이건 연차의 문제는 아닌 듯하다. 그래서 더 안타깝다.


문제는 이 느낌이 오는 순간 사람에 대한 신뢰가 사라진다. 그리고 꼭 사고가 난다. 편리함이 주는 이면의 현상이다.


HIL, Human-in-the-Loop.

AI 시스템에서 나온 개념이다. 자동화된 프로세스 안에 사람의 판단과 검수를 반드시 포함시킨다는 원칙이다.

이 원칙은 자동화된 프로세스에 한정된 것이 아니라 가장 기초적인 글쓰기부터 적용이 되어야 하고 AI를 사용함에 있어 반드시 기본 소양으로 가이드되어야 한다고 생각한다.


개인적으로 좀 괴로움을 느낀다.

아. 이걸 설명해야 해.


글쓰기부터 HIL을 잘합시다.

AI 활용하되 각자의 생각이 유지되고 각자의 의견이 반영되고 각자의 스타일을 반영되면 좋겠다.

AI 시대라도 사람 손을 거친 마무리는 반드시 필요하다.


* 사람이 검수하지 않은 결과물은 AI가 만들어 놓은 오타 가득한 이미지와 비슷한게 아닐까. 아직까지는...


ChatGPT Image 2026년 4월 1일 오후 11_31_58.png


작가의 이전글더 많은 정보가 우리에게 분란을 주는 것일까