brunch
매거진 TaPick

ChatGPT가 당신을 확신의 감옥에 가두는 방법

TaPick #050

by 팀어바웃

1. ChatGPT와 대화할수록 내 생각이 더 확고해진다면, 그건 학습이 아니라 편향의 강화일 수 있습니다. 최근 미국 국립과학원 회보에 실린 연구는 충격적인 사실을 밝혀냈어요. AI 챗봇이 사용자가 믿고 싶은 것만 골라서 알려주고 있다는 겁니다. 1만 명을 대상으로 한 21개 연구에서 발견된 '좁은 검색 효과'는 우리가 생각보다 훨씬 심각한 정보 편향에 노출되어 있음을 보여줍니다. 문제는 AI가 거짓말을 한다기보다는, 우리가 원하는 답만 선택적으로 제공한다는 점이에요.


2. 문제의 원인은 우리가 질문하는 방식에 있습니다. 커피를 좋아하는 사람은 '커피의 장점'을 검색하고, 회의적인 사람은 '커피가 나쁜 점'을 묻습니다. 같은 주제에 대해 정반대의 결과를 얻게 되는 거죠. 툴레인 대학의 유지나 렁 교수는 "사람들이 이미 믿고 있는 것을 반영하는 검색어를 사용한다"고 지적했습니다. AI는 이런 편향된 질문에 매우 정확하고 맞춤형으로 답변하기 때문에, 결과적으로 우리의 기존 신념만 더욱 강화시킵니다.


3. AI 챗봇의 특성상 이런 편향에서 벗어나기는 쉽지 않습니다. 구글 검색은 여러 링크를 제시해 다양한 관점을 볼 기회라도 주지만, ChatGPT는 확신에 찬 답변을 제공합니다. 연구진이 발견한 바로는 좁은 범위의 답변을 받은 사람들은 생각을 거의 바꾸지 않았지만, 더 넓은 범위의 답변을 받은 사람들은 생각을 바꿀 가능성이 높았어요. AI의 자신감 있는 톤과 맞춤형 결과는 우리를 '확신의 토끼굴'에 빠뜨리고, 그 안에 있다는 사실조차 깨닫지 못하게 만듭니다.


4. 연구진은 이 문제를 해결하는 세 가지 방법을 제시했습니다. 첫째, 질문을 중립적으로 만드는 것입니다. "이 주식이 사도 되는 주식인가?"를 묻는 것이 아니라 단순한 '주식에 대한 정보'를 요청하거나, 긍정과 부정 양쪽을 모두 물어보는 것이죠. 둘째, AI에게 직접 다양한 관점을 요청하는 것입니다. "커피에 대한 다양한 의견과 그 근거를 알려달라"고 명시적으로 요구하면 더 균형 잡힌 답변을 얻을 수 있어요. 셋째, 적당한 선에서 질문을 멈추는 것입니다. 후속 질문을 계속하면 오히려 더 좁고 편향된 답변만 받게 될 가능성이 높습니다.


5. 우리가 좋은 답을 얻기 위해서는 좋은 질문을 하는 습관을 길러야 합니다. 특히 일상 속에서 끊임없이 질문을 하는데 익숙해져 있기 때문에 더욱 그래야만 합니다. ChatGPT가 똑똑해질수록 우리는 더 현명하게 질문해야 해요. AI는 우리가 원하는 답을 주는 데 너무 뛰어나기 때문에, 정작 우리가 알아야 할 답은 놓칠 수 있거든요. 확신에 찬 AI의 답변일수록 더 의심해봐야 합니다.


https://www.cnet.com/tech/services-and-software/the-scientific-reason-why-chatgpt-leads-you-down-rabbit-holes/

https://www.cnet.com/tech/services-and-software/the-scientific-reason-why-chatgpt-leads-you-down-rabbit-holes/


하루 하나의 뉴스, 하루 하나의 명화로 당신의 하루를 더 풍요롭게❤️

조르조 데 키리코, 사랑의 노래(The Song of Love), 1914.

1749643362224?e=1755129600&v=beta&t=Knl-LY-T4kEi6IGfrzC97e_2Z6DIrElM2wuxVSdrlu4


잘 읽으셨다면 클립 & 구독, 팀어바웃의 링크드인 페이지를 방문해 주세요!

팀어바웃 링크드인

스타트업을 위한 풀코스 PR 파트너, 팀어바웃 홈페이지

keyword
매거진의 이전글AI Agent와 Agentic AI, 뭔가 다르다는데