챗GPT에게 분석을 의뢰하고 신뢰하는 것의 문제점
요즘 ‘챗지피티가 다 해준다’는 말이 흔하다.
하지만 정말 그럴까?
잘 알지도 못하면서 챗지피티에 모든 걸 맡기는 건,
사실보다 더 위험할 수 있다.
생성형 AI에서의 할루시네이션 (Hallucination)
실제 사실과 다르지만 "그럴싸한 답변"이 만들어지는 현상이다.
이 현상이 아래의 현상들과 결합하면, 더 강하게 왜곡된 결과를 만들어낸다.
1. 확증 편향 (Confirmation Bias)
이미 가진 믿음이나 생각을 강화하는 정보만 받아들이는 경향.
질문이 특정 방향성을 띠면, 결과도 그 생각을 뒷받침하는 쪽으로 흘러감.
2. 프레이밍 효과 (Framing Effect)
같은 사실이라도 질문이나 맥락을 어떻게 “틀 지우느냐”에 따라 결과 해석이 달라짐.
사용자가 대화 맥락을 어떻게 깔아주느냐가 결과물의 톤을 좌우하는 것.
3. 맥락 의존성 (Context Dependence)
언어 모델이나 인간의 판단 모두, 입력된 맥락에 강하게 의존해 결과를 내놓음.
GPT의 답변도 이전 대화 흐름(컨텍스트)에 따라 달라지는 현상.
4. 유도 질문 효과 (Leading Question Effect)
질문 방식 자체가 대답을 특정 방향으로 이끄는 효과.
지금 바로 작가의 멤버십 구독자가 되어
멤버십 특별 연재 콘텐츠를 모두 만나 보세요.
오직 멤버십 구독자만 볼 수 있는,
이 작가의 특별 연재 콘텐츠