AI 시대에 필요한 논리적 사고

8개 사고 역량 중 2번

by 작가와

며칠 전 회의에서 이런 말을 들었다.

" ChatGPT, Gemini, Claude, 세 개 다 물어봤는데 답이 똑같아요. 이건 팩트네요."

순간 고개를 끄덕일 뻔했다. 서로 다른 AI가 같은 답을 내놓았으면 그럴듯해 보인다. 마치 세 명의 전문가가 동시에 같은 의견을 내는 것 같지 않나.

근데 잠깐, 진짜 그럴까?


이 말 속에는 꽤 흥미로운 착각이 숨어 있다. '서로 다른 AI가 같은 답을 했으니 이건 사실이다'라는 판단. 겉으로 보면 합리적이다. 하지만 논리적으론 점검이 필요한 거다.

조금만 더 생각해보자. ChatGPT, Gemini, Claude는 서로 다른 회사의 AI다. 하지만 학습 데이터의 상당 부분은 인터넷이라는 같은 바다에서 온다. 만약 인터넷에 잘못된 정보가 널리 퍼진 상황이라면, 세 AI가 모두 그 정보를 '그럴듯한 사실'처럼 학습했을 가능성은 없을까?

여기서 우리가 쓰고 있는 건 귀납적 사고다. '여러 출처에서 같은 말이 나온다 → 그 말은 사실일 것이다.' 이 추론 자체가 틀린 건 아니다. 문제는, 이 귀납이 충분히 점검되었느냐는 것이다. 출처가 정말 독립적인가? 서로 영향을 주지 않았다고 말할 수 있는가? 같은 오염된 데이터를 반복해서 확인하고 있는 건 아닐까?

AI 세 개의 답이 같다는 사실은 '사실일 가능성'을 높여줄 수는 있다. 하지만 그 자체로 '팩트'를 보증하진 않는다.


이 지점에서 우리는 질문을 하나 던져야 한다. "나는 지금 논리적으로 판단하고 있는 걸까, 아니면 논리적으로 보이는 지름길을 택하고 있는 걸까?"

논리적 사고는 정답을 빨리 고르는 능력이 아니다. 그 답이 어떻게 만들어졌는지, 그리고 내가 어떤 사고 방식을 쓰고 있는지를 한 번 더 들여다보는 태도에 가깝다.

회의 중엔 이런 말을 자주 듣는다.

"그럴 것 같지 않아요?", "제 경험상은 그렇던데요.", "보통은 다 이렇게 하잖아요."

이 말들이 전부 틀린 건 아니다. 다만 공통점이 하나 있다. '어떤 사고 방식을 쓰고 있는지' 드러나지 않는다는 거다.


사실 논리적 사고는 하나가 아니다.

우리가 일상에서 쓰는 논리는 크게 세 가지 틀로 나뉜다. 귀납적 사고, 연역적 사고, 가추적 사고.

문제는 대부분의 사람들이 이 세 가지를 섞어 쓰면서도, 정작 스스로는 어떤 사고를 하고 있는지 인식하지 못한다는 점이다. 그래서 AI가 던져준 답 앞에서 헷갈리는 것이고.

고3가지 논리적 사고.jpg 논리적 사고의 3형제?


1. 귀납적 사고

"사례를 모아서 일반적인 규칙을 찾는 힘"

귀납적 사고는 이렇게 시작한다. '비슷한 일이 반복된다 → 뭔가 규칙이 있는 것 같다.' 우리는 일상에서 가장 많이 귀납적 사고를 쓴다. 하지만 동시에 가장 많이 실수하는 사고 방식이기도 하다.

예를 들어보자. 어느 팀장이 이렇게 말한다. "우리 팀원들은 재택하면 일 안 해요. 지난주에 김 대리, 이번 주에 박 과장 둘 다 보고서를 늦게 냈거든요." 이게 바로 귀납적 사고다. 두 번의 사례를 보고 '우리 팀원들은 재택하면 일 안 한다'는 일반화를 만든 것이다. (실은 반대도 말은 된다. '우리 팀장님은 재택하면 일 안 해요'는 왜 안 되겠는가?)

근데 이 논리, 뭔가 불편하지 않나? 두 명만 보고 전체 팀원에 대한 결론을 내렸다. 게다가 보고서가 늦어진 게 정말 재택 때문인지, 다른 이유가 있는 건 아닌지도 확인하지 않았다.


귀납적 사고를 제대로 하려면 세 가지를 점검해야 한다.

첫째, 사례가 충분한가? 한두 번 본 걸로 결론을 내리고 있진 않은가? 귀납의 가장 흔한 오류는 '표본이 너무 작은 것'이다. 위의 예에서는 두 명만 보고 팀 전체를 판단했다.

둘째, 반복되는 패턴이 있는가? 사례가 여러 개 있어도 결과가 들쭉날쭉하면 일반화할 수 없다. '항상 그런가, 가끔 그런가'를 구분해야 한다.

셋째, 예외는 어떻게 설명되는가? 예외가 있다는 건 틀렸다는 뜻이 아니다. 다만 예외를 설명하지 못할 때, 그 일반화는 약해진다.

귀납적 사고는 결국 '그럴듯한 결론'을 만드는 사고가 아니라, '조심스러운 일반화'를 만드는 사고다. AI 시대엔 이게 더 중요해졌다. AI가 "우리 고객의 70%가 이 기능을 원합니다"라고 분석해도, '그 70%가 정말 대표성이 있는 표본인가?', '나머지 30%는 왜 원하지 않는가?'를 따져봐야 한다.


2. 연역적 사고

"전제가 참이면, 결론도 반드시 참이 되게 만드는 힘"

연역적 사고는 정반대 방향이다. '이 전제가 참이라면 → 결론은 반드시 이렇게 된다.' 연역은 단순해 보이지만, 실제로는 가장 엄격한 사고 방식이다. '말이 되는가'가 아니라, '다르게 될 수 있는가'를 묻기 때문이다.

예를 들어보자. 누군가 이렇게 말한다. "모든 직원은 출근 시 보안 카드가 필요하다. 김 대리는 직원이다. 따라서 김 대리는 출근 시 보안 카드가 필요하다." 이게 바로 연역적 사고다. 전제 두 개가 참이면, 결론도 반드시 참이 된다.

문제는, 실제 업무에선 이렇게 깔끔한 전제가 거의 없다는 거다. 대신 이런 말을 자주 듣는다. "경기가 안 좋아서 매출이 떨어졌습니다." 겉으로는 논리적으로 들린다. 하지만 숨겨진 전제를 한 번 따져보며 전제가 참인지 질문해야 한다. '그런데 이 전제가 정말 참인가? 우리 회사만 매출이 떨어진 건 아닌가? 경쟁사도 똑같이 어려운가? 이런 질문을 던지지 않으면 '경기 탓'이라는 핑계 뒤에 진짜 문제가 숨어버린다.


연역적 사고를 제대로 하려면 역시 세 가지를 점검해야 한다.

첫째, 전제는 사실인가? 그럴듯해 보인다고 해서 참은 아니다. 전제가 틀리면, 그 위에 쌓은 논리는 전부 무너진다.

둘째, 이 결론은 필연적인가? 전제가 참이어도, 다른 결론이 가능하다면 그건 연역이 아니라 해석이다. '경기가 안 좋다'는 게 사실이어도, 매출 하락의 원인이 경기만은 아닐 수 있다.

셋째, 숨어 있는 가정은 없는가? 말로 하지 않았지만 당연하다고 깔아둔 전제는 없는지. 연역적 사고의 수준은 '숨은 전제를 찾는 능력'에서 갈린다.

AI 시대에 연역적 사고가 중요한 이유는 간단하다. (데이터리터러시와 조금 중복되는데) AI가 "이 데이터를 분석하면 이런 결론이 나옵니다"라고 해도, 그 데이터 분석의 전제가 뭔지, 숨겨진 가정이 뭔지를 우리가 따져봐야 한다. AI는 전제를 의심하지 않으니까.


3. 가추적 사고 (이건 익숙하지 않을 수 있어 사례를 더 썼다)

"현상을 보고, 가장 그럴듯한 원인을 추론하는 힘"

가추적 사고는 가장 헷갈리지만, 현실에서는 자주 필요한 사고 방식이다. 그리고 무의식적으로 많이 하는 사고이기도 하다. '이런 결과가 나왔는데, 왜 이런 일이 벌어졌을까?' 원인이 확실하지 않을 때, 우리는 가설을 세울 수밖에 없다. 이때 필요한 게 가추적 사고다.

예를 들어보자. 갑자기 우리 앱의 이탈률이 급증했다. 왜 그럴까? 가능한 설명은 여러 개다. '최근 업데이트가 불편해서일 수도 있고', '경쟁사가 더 좋은 기능을 출시했을 수도 있고', '마케팅 채널에서 타겟이 잘못 설정됐을 수도 있다.'

이 중에서 어떤 게 진짜 원인일까? 확실히 알 방법은 없다. 하지만 각 가설을 검토하면서 '어떤 설명이 더 많은 현상을 설명하는가', '어떤 가설이 더 단순한가'를 따져볼 수는 있다.


가추적 사고를 제대로 하려면 역시 세 가지를 점검해야 한다. 앱 이탈률 예시를 계속 활용해서 설명해보자.

첫째, 가능한 설명을 여러 개 세웠는가?

이탈률이 급증했다는 보고를 받았을 때, 대부분은 이렇게 반응한다. "아, 지난주 업데이트가 문제였구나!" 왜냐하면 타이밍이 딱 맞아떨어지니까. 하지만 이건 추론이 아니라 '단정'이다.

진짜 가추적 사고는 여기서부터 시작한다. "이탈률이 올랐다. 왜 그럴까?" 그리고 가능한 설명을 줄줄이 늘어놓는 거다.

가설 1: 업데이트 후 UI가 불편해졌다

가설 2: 경쟁사가 프로모션을 진행 중이다

가설 3: 마케팅 채널에서 우리 타겟이 아닌 사람들이 대거 유입됐다

가설 4: 계절적 요인이다 (작년 같은 시기에도 비슷했는지 확인 필요)

이렇게 여러 개를 늘어놓는 순간, 뭔가 달라진다. '업데이트 탓'이라는 단 하나의 설명에 갇혀 있을 때와 달리, 이제 비교를 시작할 수 있다. 이게 가추적 사고의 첫 번째 핵심이다. 하나만 떠올렸다면 그건 추론이 아니라 그냥 '내가 믿고 싶은 이야기'일 뿐이다.


둘째, 어떤 가설이 더 많은 단서를 설명하는가?

이제 데이터를 더 들여다본다. 이탈률만 오른 게 아니라, 최근 고객 리뷰도 악화됐고, 평균 체류 시간도 줄었다는 걸 발견했다.

자, 이제 위의 네 가지 가설을 다시 점검해보자.

가설 1 (UI 불편): 이탈률 상승 ✓, 리뷰 악화 ✓, 체류시간 감소 ✓ → 세 가지 현상을 모두 설명한다

가설 2 (경쟁사 프로모션): 이탈률 상승 ✓, 리뷰 악화 ✗, 체류시간 감소 ✗ → 이탈만 설명, 나머지는 설명 못함

가설 3 (타겟 이탈): 이탈률 상승 ✓, 리뷰 악화 △ (타겟이 아니면 리뷰를 안 남길 수도), 체류시간 감소 ✓

가설 4 (계절 요인): 확인 필요

보이는가? 가설 1번이 가장 많은 현상을 동시에 설명한다. 이게 두 번째 점검 포인트다. 하나의 사실만 맞추는 설명보다, 여러 단서를 한꺼번에 설명하는 가설이 강하다. 마치 퍼즐 조각이 딱딱 들어맞는 것처럼.


셋째, 불필요한 가정이 많지 않은가?

이제 누군가 이렇게 말한다고 치자.

"이탈률이 오른 건, 경쟁사가 우리 앱을 모니터링하다가 우리가 업데이트하는 타이밍에 맞춰 프로모션을 진행했고, 동시에 날씨가 추워져서 사람들이 야외 활동을 줄이면서 우리 앱 사용도 줄었고, 게다가 최근 경제 불황으로 소비심리가 위축되면서..."

이 설명, 뭔가 그럴듯해 보이지만 문제가 있다. 너무 많은 '만약'이 필요하다. 경쟁사가 우리를 모니터링했다고 가정해야 하고, 날씨 변화가 우리 앱에 영향을 준다고 가정해야 하고, 경제 불황과 연결된다고 가정해야 한다.

반면 '업데이트 후 UI가 불편해졌다'는 단순하다. 추가 가정이 거의 필요 없다. 업데이트했고, 불편해졌고, 그래서 사람들이 떠났다. 끝.

이게 세 번째 점검 포인트다. 설명이 복잡해질수록, 즉 '~이고 동시에 ~이고 게다가 ~'가 많아질수록 틀릴 가능성은 커진다. 가장 적은 가정으로 설명되는 가설을 선택하라. 이걸 철학자들은 '오컴의 면도날'이라고 부르는데, 쉽게 말하면 '복잡하게 생각하지 마라'는 거다.


정리하면 이렇다.

1. 여러 가설을 세워라 (한 개만 떠올렸다면 그건 확신이지 추론이 아니다)

2. 가장 많은 현상을 설명하는 가설을 찾아라 (퍼즐 조각이 딱딱 맞는 느낌)

3. 가장 단순한 설명을 선택하라 (복잡할수록 틀릴 확률 높음)

가추적 사고는 정답을 찾는 사고가 아니다. '지금 시점에서 가장 합리적인 설명'을 고르는 사고다. AI 시대엔 이게 더욱 중요해졌다. AI가 패턴을 찾아내고 상관관계를 보여줘도, '왜 이런 패턴이 생겼는가', '진짜 원인은 뭔가'를 추론하는 건 여전히 사람의 몫이니까.


그래서, 어떻게 훈련하나?

이론을 아는 것과, 실제로 사고할 때 쓰는 건 다르다. 나도 그렇다. 컨설팅할 때 논리 구조 짜는 건 익숙한데, 정작 내 생각을 정리할 때는 귀납인지 연역인지 가추인지 헷갈릴 때가 많다.

그래서 훈련은 '지식 추가'가 아니라 '질문 습관'에 가깝다. 작은 것부터 시작해보자.


습관 1: 지금 내가 쓰는 사고 방식은 뭔지 이름 붙이기

뉴스를 보거나, 회의에서 의견을 들을 때 이렇게만 물어보자.

- 이건 사례를 모아서 말하는 건가? (귀납)

- 전제에서 결론을 끌어내는 건가? (연역)

- 이유를 추정하고 있는 건가? (가추)

사고에 이름을 붙이는 순간, 논리는 또렷해진다. 처음엔 어색해도 괜찮다. 일주일만 연습하면 자동으로 구분이 된다.


습관 2: 사고 방식마다 질문 하나씩만 던지기

귀납이라면 → "이거, 반복된 사례가 충분한가?"

연역이라면 → "이 전제가 참이어도, 다른 결론은 불가능한가?"

가추라면 → "이걸 설명할 수 있는 다른 가설은 없을까?"

질문 하나면 충분하다. 세 개를 동시에 하려 하면 아무것도 못 한다. 나도 처음엔 욕심부려서 다 점검하려다가 지쳐서 포기했다. 하나씩, 천천히.


습관 3: '그럴듯함'이라는 말을 경계하기

논리적 사고를 방해하는 가장 위험한 단어는 "그럴듯하다"다. 속으로 생각하든 입으로 내뱉든 정말 자주 등장한다. 하루에도 수십 번 나타난다. 기사를 보며, 대화를 하며, 심지어 영상을 보면서도.

이런 그럴듯함은 귀납에서는 '표본 부족'을 가리고, 연역에서는 '필연성 부족'을 가리고, 가추에서는 '대안 가설 부재'를 가린다. 그럴듯하다는 느낌이 들면, 오히려 한 번 더 멈춰야 한다.

회의 중에 누군가 "이 아이디어 괜찮은 것 같은데요?"라고 하면, 나는 예전에 이렇게 물어봤다. "괜찮다는 근거가 사례인가요, 전제인가요, 아니면 추론인가요?" 처음엔 다들 당황하지만, 점점 논의의 질이 달라진다. (지금은 나이와 직급이 있어서 이렇게 묻는다. “왜, 그렇게 생각해?”)


결국 논리적 사고란 똑똑해지는 기술이 아니다. 말을 잘하는 기술도 아니다. 지금 내가 어떤 방식으로 생각하고 있는지를 스스로 인식하는 능력이다. 귀납인지, 연역인지, 가추인지. 그걸 구분하는 순간, 생각은 정돈되고 단단해진다. (그래서 뇌 근육?)

AI가 던져준 답 앞에서 "이거 맞나?"라고 고민할 때, 이 세 가지 사고 방식을 떠올려 보자. 그 순간 우리는 AI를 쓰는 사람이 아니라, AI를 제대로 활용하는 사람이 된다.


https://brunch.co.kr/@jakkawa/575


keyword
매거진의 이전글내가 지금까지 너를 어떻게 대했는대!!!