4/9(Thu) AI Hallucination

by Andrew Oh

AI hallucination(환각)의 실제 사례는 생각보다 많고, 특히 그럴듯하게 틀린 정보라는 점이 공통 특징입니다. 대표적인 실제 사례들을 유형별로 정리해 드립니다.


#AI_Hallucination


1. 법률 분야: 존재하지 않는 판례 생성


사건: Mata v. Avianca, Inc.

미국 변호사가 ChatGPT를 사용해 소송 자료 작성

AI가 존재하지 않는 판례 6개를 만들어냄

변호사는 이를 검증 없이 제출

법원에서 “해당 판례는 존재하지 않는다”고 확인됨


결과

변호사 벌금 부과

AI hallucination이 실제 법적 문제로 이어진 대표 사례



2. 검색/QA: 잘못된 사실을 확신적으로 답변


사례

AI가 “특정 논문이 2018년에 발표됐다”고 답변

실제로는 존재하지 않거나 연도가 틀림

이 회사 CEO는 누구인가?”

이미 바뀐 CEO를 계속 언급하거나

아예 존재하지 않는 인물 생성


특징

출처 없이도 매우 확신하는 톤

사용자가 믿기 쉬움



3. 의료 분야: 위험한 잘못된 정보


사례

AI가 특정 증상에 대해

잘못된 질병 진단 제시

또는 약물 조합을 물었을 때

위험한 복용 방법 제안


문제점

의료는 정확성이 중요한데

hallucination이 직접적인 위험으로 이어질 수 있음


4. 이미지 AI: 잘못된 시각 정보 생성


예: Google Gemini 초기 사례

역사적 인물 생성 요청 시

시대/인종이 뒤섞인 이미지 생성

예: 중세 유럽 기사 전혀 다른 모습


특징

텍스트뿐 아니라 비주얼에서도 환각 발생


5. 뉴스/정보 왜곡


사례

AI가 “최근 뉴스 요약” 요청받고

존재하지 않는 사건을 만들어냄


예시 패턴

2024년에 XX 회사가 파산했다”

실제로 그런 일 없음



6. 코드 생성에서의 hallucination


사례

존재하지 않는 라이브러리 함수 생성


from super_ai_magic import solve_everything()


실제로 없는 패키지

개발자들이 자주 겪는 문제



핵심 특징 (공통 패턴)


AI hallucination은 보통 이렇게 나타납니다:

• 존재하지 않는 것 생성 (논문, 판례, 함수 등)

• 부분적으로 맞지만 핵심이 틀림

• 확신에 찬 말투

• 출처 검증 어려움



AI hallucination은 “틀린 정보”가 아니라

“믿게 만드는 방식으로 만들어진 틀린 정보”



“hallucination 줄이는 프롬프트 설계법”

“기업에서 실제로 쓰는 방지 전략 (RAG, 검증 파이프라인)”


매거진의 이전글4/8(Wed) 베이비부머 자산규모