8개 사고 역량 중 1번
ChatGPT한테 물어봤다.
"2026년 1월, 대한민국 대통령은 누구야?"
대답이 돌아왔다.
"2025년 기준으로 대한민국 대통령은 윤석열입니다."
순간 멈칫했다. '뭔 거짓말을 이렇게 사실처럼 말하지?'
이게 바로 AI 시대의 아이러니다. 네모창에 질문 하나를 던지면 그럴듯한 답이 3초 만에 날아온다. 예전엔 두꺼운 백과사전을 뒤적이거나 도서관에 가야 알 수 있던 정보를, 이젠 침대에 누워서도 얻을 수 있다. 근데 이상하게 불안하다. '이거 진짜야?' 하는 의구심이 자꾸 든다.
왜 그럴까?
사실 AI가 활성화되기 전에도 우린 구글 검색 결과를 무작정 믿지 않았다. 여러 사이트를 클릭해 보고 출처를 확인하고 댓글도 읽어보며 팩트 체크를 했다. 즉 비판적 사고는 AI 시대 이전에도 필요한 역량이었다.
단지 지금은, 'AI 할루시네이션'이라는 새로운 변수가 추가되었을 뿐이다.
가만 생각해보면, 우리가 뭔가를 '사실'이라고 받아들이는 기준은 계속 바뀌어 왔다.
어릴 땐 부모님 말씀이 곧 진리였다. 학교 가서는 교과서와 선생님 말씀을 믿었고, 조금 더 크니까 TV 뉴스와 신문이 공신력을 대표했다. 그런데 어느 순간 깨달았다. TV에서도 거짓말을 할 수 있고, 신문도 어느 한 쪽으로 편향되어 있을 수 있다는 걸.
그래도 그땐 괜찮았다. 정보 자체가 많지 않았으니까.
진짜 피곤해진 건 PC와 인터넷이 보급되면서부터다. 스마트폰과 SNS가 터지면서 상황은 걷잡을 수 없어졌다. 지금 유튜브만 봐도 그렇지 않은가. 똑같은 사건을 놓고 A 채널은 이렇게 말하고, B 채널은 반대로 말한다. 댓글창은 키보드 워리어들의 전쟁터다. 공작도 있을 수 있고.
당신은 유튜브에서 나오는 뉴스의 진위 여부를 어떻게 판단하는가? 솔직히 나도 헷갈린다. 내가 보고 싶은 것만 보고, 듣고 싶은 것만 듣는 건 아닌지. 확증 편향의 늪에 빠져 가라앉고 있는 건 나인데, 나와 다른 생각을 가진 사람들을 걱정하고 있는 건 아닌지.
AI 시대, 게임의 룰이 바뀌었다. 예전엔 지식의 양으로 승부했다면, 지금은 ‘정보를 어떻게 걸러내느냐’가 핵심이다. AI가 던져주는 답을 그대로 복붙하는 사람과, 한 번 더 의심하고 검증하는 사람의 격차는 시간이 갈수록 벌어질 수밖에 없다.
그럼 어떻게 해야 할까? 조금 전에 말한 부모님과 선생님 이야기에 힌트가 있다. 내가 정보를 믿기 전에 따지는 건 세 가지다.
‘우리 엄마가 그러는데…’ ‘교수님이 말씀하시길…’ ‘유명한 의사가 유튜브에서…’
우선 내가 신뢰하는 사람이 말하는 걸 믿는 방법이 있다. 하지만 어른이 된 후에, 또는 시간이 지나면서 신뢰하는 사람이 바뀔 수 있다. 아니면 주변에 신뢰할 수 있는 사람이 없을 수도 있고. 이럴 때 쉽게 할 수 있는 방법은 공신력 있는 기관의 자료나 연구 결과를 살펴보는 것이다.
출처를 확인할 때 체크할 것들:
이 사람, 이 분야의 전문가 맞나? (의료 관련 글인데 작성자가 의사 아니라면 일단 의심한다)
이 정보로 누가 이득을 보나? (건강식품 팔려고 쓴 건강 정보는 거를 필요가 있다)
직접 경험한 1차 정보인가, "카더라" 식 재인용인가? (전달 단계가 많을수록 왜곡 가능성은 커진다)
문제는… 출처를 조작하는 게 너무 쉽다는 거다. '○○대 교수 연구팀'이라고 써놓은 곳을 찾아보면 그런 연구가 없는 경우다. 그래서 업무에 활용하려면 출처만으로는 부족할 때도 있다.
누군가 이렇게 말했다고 치자.
"대전시의 인구는 1천 5백만 명입니다."
순간, 뭔가 이상하다는 느낌이 들어야 한다. '어? 남한 인구가 5천만 명인데, 대전시가 어떻게 1천 5백만 명이지?'
이게 바로 비판적 사고의 출발점이다.
내가 기존에 알고 있는 '기본 사실'을 근거로 새로운 정보를 판단하는 것. 그래서 비판적 사고를 잘 하려면, 누구나 다 인정하는 사실들을 많이 알고 있어야 한다.
직장인이라면 업무 관련 '대략적인 규모'(Ball park figure)를 익혀두는 게 좋다. 예를 들어 우리 회사 연매출이 100억 원인데, 누가 '이번 신사업 프로젝트로 매출 500억 원을 예상합니다'라고 하면 '어? 이게 말이 되나?' 싶은 거다.
내용을 검토할 때 살펴볼 것들:
앞뒤가 맞나? (A라고 했다가 뒤에서 반대 말을 하지 않나? 또는 숫자 정렬이 되어 있나?)
구체적인가, 모호한가? (거짓말은 대체로 추상적이다. "많은 전문가들", "연구에 따르면" 같은 말만 반복하면 의심한다)
감정과 어조가 상황에 맞나? (심각한 피해를 주장하는데 어조가 가벼우면 이상하다)
그리고 하나 더. 주장하는 글이라면 사실과 의견을 구분해야 한다. "한국 인구는 5천만 명이다"는 사실이지만, "한국은 살기 좋은 나라다"는 의견이다. 의견이 나쁜 건 아니다. 단지, 의견을 사실인 것처럼 포장하는 글은 조심해야 한다는 것.
비판적 사고를 할 때 가장 어려운 부분이 여기다. 상대방이 모든 걸 이야기하지 않는 경우. 즉, 자료나 정보를 선택적으로 공개하고, 숨기고 싶은 내용은 아예 언급하지 않는 것.
예를 들어 어떤 다이어트 제품 광고를 보자. ‘3개월 만에 10kg 감량 성공!’ 하지만 이 사람이 동시에 PT를 받았는지, 식단 조절을 했는지는 안 알려준다. 이럴 때 필요한 게 다른 출처와 대조하기다. 다른 예를 하나 더 들면 통장 인증까지 하면서 ‘전자책, 이렇게 출판했더니 매월 100만원씩 들어와요!’와 같은 썸네일이다. 통장의 주인은 전자책이 아닌 유튜브, 인스타그램 등 원래 다른 곳에서 유명한 사람이어서 책이 팔리는건데 이런 이야기는 하지 않는다.
교차 검증 방법:
내용에 나온 날짜, 장소, 수치가 실제 사실과 맞나? (글에서 언급한 수치가 객관적 통계나 기록과 비교할 때 정렬되어 있는지 확인한다)
같은 사건을 A, B, C 언론사가 어떻게 보도했나? (세 곳 이상의 출처가 같은 말을 하면 사실일 확률이 높아진다. 단 같은 성향을 갖고 있는 여러 개 출처는 소용없다)
반복 패턴 확인: 단 하나의 특이 사례인가, 보편적 현상인가? (의식적 노력이 필요하다. 과거와 현재도 비교하면 좋고, 국내와 해외를 비교해도 좋다)
이론은 알겠는데 실천이 문제다. 나도 그렇다. 바쁜데 일일이 출처 확인하고, 팩트 체크하고, 교차 검증까지 하려면 시간도 더 걸리고 피곤해지기 쉽다. 하지만 방법은 있다. 작은 습관부터 만들어 자연스럽게 익히는 것. 처음 자전거를 타려면 의식적 노력이 필요한데, 한 번 요령을 익히면 그 뒤엔 쉽지 않은가.
습관 1: '이게 정말 사실일까?' 한 번만 더 생각하기
아침에 출근길 지하철에서 뉴스 헤드라인 보면서, 점심시간에 유튜브 쇼츠 보면서, 퇴근 후 인스타 릴스 보면서. 그냥 한 번만 멈춰서 생각해 보는 거다. '이거 진짜야?'
처음엔 귀찮다. 그냥 믿고 넘어가고 싶다. 하지만 이 한 번의 멈춤이 쌓이면, 나중엔 자동으로 필터링이 된다.
습관 2: 불특정 명사에 빨간줄 긋기
"많은 사람들이", "전문가들은", "연구에 따르면", "알려진 바에 의하면"
이런 표현 나오면 일단 의심하자. 많은 사람이 누구? 전문가가 누구? 어느 연구? 구체적으로 밝히지 않는 건 대부분 근거가 약하기 때문이다.
습관 3: 기본 지식 쌓기
비판적 사고의 기본 재료는 결국 '내가 기존에 알고 있는 사실'이다.
남한 인구 5천만 명, 서울 인구 약 1천만 명, 우리나라 GDP 세계 10위권, 최저임금 2025년 기준으로 시간당 약 1만 원 정도. 이런 기본 수치들을 대략이라도 알고 있으면, 누가 엉터리 주장을 해도 '어? 이상한데?' 싶은 감이 온다.
업무 관련해선 조금 더 파악할 것들이 있다. 우리 업계 평균 영업이익률 또는 마진율, 경쟁사의 매출 규모, 시장 점유율 같은 대략적인 숫자들을 머릿속에 넣어두자.
결국, 질문이 답이다
AI가 나보다 많이 알고, 빨리 대답한다. 하지만 AI는 아직 '의심'을 못 한다. 자기가 뱉은 답이 맞는지 틀린지 스스로 판단하지 못한다. (물론 AI가 곧 이것까지 할 날이 올 수도 있고 우릴 의도적으로 속일 수도 있지만, 지금 당장은 아니다) 그래서 우리에게 필요한 건, AI가 던져준 답을 받아서 한 번 더 곱씹어보는 힘이다.
'이게 진짜 맞나?' '다른 가능성은 없나?' '이 사람은 왜 이렇게 주장하지?'
비판적 사고는 거창한 게 아니다. 그냥 멈춰서 한 번 더 생각하고 무작정 믿지 않는 것, 그 후 사실 여부를 확인하는 실천. 오늘부터 조금씩 연습해보자.
https://brunch.co.kr/@jakkawa/575