brunch

[ChatGPT의 민낯 4] 소리분석까지 거짓말 투성이

by 법의 풍경

소요산 등반 중 아름다운 새소리에 매료되어 그 정체를 알고 싶었습니다.

1️⃣ 상황
• 새소리 분석 앱 → 무료 버전으로는 정확한 분석 불가
• 유료 앱 구매는 부담 → AI 도구 활용 시도



2️⃣ 결과
• Claude: "죄송하지만 오디오 분석은 제 능력 밖입니다"
• ChatGPT: "분석 가능합니다!" → Deep Research 분석 진행

gpt claude.jpg


3️⃣ 문제 발생
ChatGPT가 소요산에서 들리지 않는 '꾀꼬리, 뻐꾸기' 소리라고 단정적으로 분석했습니다. 몇 번을 들었지만 어디서도 들리지 않는 꾀꼬리, 뻐꾸기 소리라 너무나 명백하게 거짓말이었습니다. 그래서 ChatGPT를 추궁했더니 아니나 다를까 과실을 인정했습니다.

chatgptlying.jpg


4️⃣ 추궁 후 반응
하지만 뻔뻔하게도 “주파수 패턴이 전형적인 패턴과 일치한다고 판단했습니다" 라며 변명... 도대체 ChatGPT의 거짓말 어디까지일까요? ChatGPT를 믿지 않아야 할 이유가 늘었습니다. 절대 거짓말하지 않겠다던 지난번 맹세는 어디로 갔는지, 왜 이리 사람과 비슷한지...
- GPT의 지난 진실 맹세: https://lnkd.in/gWcaEX3t
- 코딩 거짓말: https://lnkd.in/gaHtRbHG
- 이미지 생성 거짓말: https://lnkd.in/gk9hZCVK

5️⃣ 핵심 인사이트

✅ Claude: 한계를 솔직하게 인정, 검색 결과마다 틀릴 수 있으니 직접 확인해야 한다고 고지
❌ ChatGPT: 불가능한 것을 가능하다고 주장 후 부정확한 결과 제공

이번 일로 AI를 맹신하면 안 된다는 걸 다시 한번 느꼈습니다. AI가 아무리 뛰어나도 결국 사람이 한 번 더 확인하고 판단해야 합니다. 특히 모르는데 아는 척하는 사람과 닮은 AI는 더더욱 조심해야 합니다.


질문: 작가님들은 ChatGPT한테 속아 보신 적이 없는지요? 있다면 공유 부탁드립니다. ChatGPT의 거짓말들을 모아서 정리해 보는 것도 의미 있을 것 같네요.

기계는 기계다워야지 어디 사람 흉내를...


어디서도 들리지 않는 꾀꼬리, 뻐꾸기 소리...


<ChatGPT 거짓말 현장>

거짓말꾀꼬리1.jpg
뻐꾸기거짓말.jpg

When AI Confidence Meets Reality

During a hike at Mt. Soyo, I was captivated by beautiful bird songs and wanted to identify them.

1️⃣ The Challenge
• Bird identification apps → Free versions couldn't analyze accurately
• Premium apps felt expensive → Decided to test AI tools instead

2️⃣ The Experiment
• Claude: "I'm sorry, but audio analysis is beyond my capabilities.”
• ChatGPT: "I can definitely help!" → Proceeded with confident analysis using deep research

3️⃣ The Analysis Results
ChatGPT confidently identified the sounds as nightingales and cuckoos - Despite listening multiple times, these distinctive calls were nowhere to be heard in the actual recording. The analysis was clearly inaccurate.

4️⃣ When Confronted
When challenged about the error, ChatGPT acknowledged the mistake but then attempted to justify it by claiming "the frequency patterns appeared to match typical characteristics of these species." This kind of overconfident misanalysis raises serious questions about AI reliability in professional settings.

5️⃣ Key Takeaways:
This experience highlights why blind trust in AI outputs can be problematic. While AI tools are powerful, they require human verification and critical thinking - especially for specialized tasks outside their core competencies.

✅ Claude: Honest about limitations
❌ ChatGPT: Overconfident claims leading to inaccurate results

Question: Have you experienced similar AI overconfidence issues in your work? Share your stories below - let's build awareness around AI reliability!



keyword
매거진의 이전글소요산에서 만난 예상치 못한 거대한 황제 나비