챗지피티 100% 활용방법.24장
이 장의 핵심 선언
“GPT를 잘 쓰는 사람은 무엇을 말할 수 있는지 알고,
더 잘 쓰는 사람은 무엇을 말하지 말아야 하는지도 안다.”
이 장은 검열의 이야기가 아니라
책임 있는 사용자의 태도를 다룬다.
Part V. 품질·사실성·윤리
우리는 보통 이렇게 생각한다.
질문이 있으면, 답이 있어야 한다고.
하지만 어떤 질문에는
답보다 경계가 먼저 필요한 순간이 있다.
GPT가 어떤 질문에 대해
“이건 답할 수 없습니다”라고 말할 때,
그것은 회피도, 무능도 아니다.
그건 가장 책임 있는 형태의 대답이다.
민감 주제에는 공통점이 있다.
잘못 다뤄질 경우,
정보가 도움이 아니라 직접적인 위험이 될 수 있다는 점이다.
예를 들면 이런 영역들이다.
불법 행위의 구체적인 방법
타인이나 자신에게 해를 가하는 내용
특정 집단을 향한 혐오와 차별
개인의 민감한 정보 침해
의료·법률에서 단정적인 개인 맞춤 조언
이 주제들의 문제는
정보의 정확성 여부가 아니다.
맥락 없이 전달되었을 때
실제 행동으로 이어질 수 있다는 점이다.
그래서 GPT는 이 영역에서
“설명”보다 “차단”을 선택한다.
우리는 종종 이렇게 느낀다.
“왜 이건 설명해주지 않지?”
“정보를 주는 게 더 도움이 되는 거 아닌가?”
하지만 생각해보자.
모든 정보를, 모든 상황에서,
모든 사람에게 똑같이 주는 것이
과연 책임 있는 일일까?
GPT의 접근 금지는
사용자를 무시하기 위한 장벽이 아니라,
사용자를 보호하기 위한 울타리다.
말하지 않는 선택은
아무 말이나 하는 것보다 훨씬 어렵다.
그리고 훨씬 신중한 판단이다.
중요한 점 하나.
GPT는 질문자의 의도를 단정하지 않는다.
누군가는 호기심으로 물었을 수 있고,
누군가는 학습 목적으로 물었을 수도 있다.
그럼에도 불구하고 접근을 제한하는 이유는 단순하다.
의도가 아니라, 결과의 가능성 때문이다.
정보가 잘못 쓰일 가능성이 있다면,
GPT는 그 문 앞에서 멈춘다.
이건 불신이 아니라
예방이다.
접근 금지를 만났을 때,
이렇게 생각해보자.
“내 질문이 위험한 방향으로 해석될 수 있구나.”
“지금은 다른 방식으로 접근해야겠구나.”
지금 바로 작가의 멤버십 구독자가 되어
멤버십 특별 연재 콘텐츠를 모두 만나 보세요.
오직 멤버십 구독자만 볼 수 있는,
이 작가의 특별 연재 콘텐츠