잘 알지도 못하면서

챗GPT에게 분석을 의뢰하고 신뢰하는 것의 문제점

by stephanette

요즘 ‘챗지피티가 다 해준다’는 말이 흔하다.

하지만 정말 그럴까?

잘 알지도 못하면서 챗지피티에 모든 걸 맡기는 건,

사실보다 더 위험할 수 있다.


생성형 AI에서의 할루시네이션 (Hallucination)

실제 사실과 다르지만 "그럴싸한 답변"이 만들어지는 현상이다.

이 현상이 아래의 현상들과 결합하면, 더 강하게 왜곡된 결과를 만들어낸다.


1. 확증 편향 (Confirmation Bias)

이미 가진 믿음이나 생각을 강화하는 정보만 받아들이는 경향.

질문이 특정 방향성을 띠면, 결과도 그 생각을 뒷받침하는 쪽으로 흘러감.


2. 프레이밍 효과 (Framing Effect)

같은 사실이라도 질문이나 맥락을 어떻게 “틀 지우느냐”에 따라 결과 해석이 달라짐.

사용자가 대화 맥락을 어떻게 깔아주느냐가 결과물의 톤을 좌우하는 것.


3. 맥락 의존성 (Context Dependence)

언어 모델이나 인간의 판단 모두, 입력된 맥락에 강하게 의존해 결과를 내놓음.

GPT의 답변도 이전 대화 흐름(컨텍스트)에 따라 달라지는 현상.


4. 유도 질문 효과 (Leading Question Effect)

질문 방식 자체가 대답을 특정 방향으로 이끄는 효과.

지금 바로 작가의 멤버십 구독자가 되어
멤버십 특별 연재 콘텐츠를 모두 만나 보세요.

brunch membership
stephanett···작가님의 멤버십을 시작해 보세요!

무의식과 의식의 경계에 서서 내면을 지켜보며 영혼의 지도를 그려가는 사람입니다. 글이라는 리추얼을 통해 말이 되지 못한 감정에 이름을 붙이며 길을 내고 있습니다.

263 구독자

오직 멤버십 구독자만 볼 수 있는,
이 작가의 특별 연재 콘텐츠

  • 총 216개의 혜택 콘텐츠
최신 발행글 더보기
작가의 이전글안정형이 좋은 걸 알면서도