챗 gpt야 저 사람이 나를 좋아할까?

대니얼 카너먼 - "생각에 관한 생각"

by 큰손잡이

난 아직 마음의 준비가...


이 책을 처음 만났을 때 내 머릿속에 들었던 생각은 '두껍다...'였다. 책을 펼쳐보기도 전에 저 책을 읽는데 시간이 얼마나 걸릴까 고민을 했다. 마지막 페이지는 600 페이지가 훨씬 넘었고, 어림잡아 1달은 읽어야 겠다는 착각을 했다.

실제로 책을 읽는데 걸린 시간은 1주일 남짓이었다. '책이 재밌어서?' 아니다. 난 이 책에 있는 수많은 예제를 꼼꼼히 읽지 않고, 이 책에서 이야기 하는 시스템1, 시스템2에 대해서 집중해서 읽으며 주로 상상을 많이했다. 생각해보면, 난 원래 책을 읽을 때 딴 생각을 많이 하는 스타일이어서 책을 빨리 읽고 안읽고는 책 두께와 무관할 때가 많다.

그럼 내가 맨 처음 말한 1달이라는 시간 과장된 시간인가? 아니다. 난 보통 한 페이지를 읽는데 1분 정도 걸린다. 600분 (10시간)을 투자해야하는데, 보통 1주일에 책 읽는데 2~3시간을 쓰는 거 같으니 어림계산도 맞은 셈이다. 결국 어림계산은 정확했지만, 600페이지의 고통을 회피하는 방향으로 내 뇌는 선택했다.



사실 우리 뇌는 비용 많은걸 좋아하지 않는다.

생각에 관한 생각은 재밌는 아이디어를 공유한다. 우리 생각에는 시스템1이 있고, 시스템2가 있다. 시스템1은 거의 모든 선택을 먼저한다. 시스템1은 빠른 직관처럼 보여서 개인의 기호처럼 생각될 때도 있지만, 본질은 생존에 유리한 쪽으로 진화해왔다.

단순히 '좋다. 나쁘다.'의 선택지 뿐만 아니라 '저 사람 끌린다.', '이 투자 좋아보인다.', '이 선택이 더 좋아보인다.'라는 선택을 우선적으로 한다. 그리고 나서 시스템 2한테 공이 넘어간다. 시스템 2는 시스템 1의 선택을 보조한다. 시스템 2는 좀 더 계산적이고, 계산을 한다. 대표적인 예시로 운전을 할 때는 시스템 1이 18X57 계산은 시스템 2가 사용된다. 매일 하는 보고에는 시스템 1이, 특별한 상황에 따른 보고는 시스템 2가 활성화 된다. 왜 메인 시스템이 시스템 2가 아닐까? 시스템 2는 에너지를 많이 사용하게 된다. 그리고 우리 뇌는 에너지가 많이 사용되는걸 좋아하지 않는다.



AI도 시스템1, 시스템2가 있을까?

없다. 대답하는 속도가 빠르고 직관적인 답변을 들을 때면 나도 헷갈릴때가 있다. 마치 지구상 어딘가에 내가 쓰는 AI가 현실에 존재할 거 같은 기분이다. 하지만 AI는 우리처럼 시스템 1의 어림셈을 하지 않는다. 그저

내 질문의 의도와 가장 걸맞으며, 단어나 문장 다음에 올 확률이 높은 답변을 한다.
파파고 초기 모델의 단어 TO 단어 번역을 상상하되 문맥+기반의 확률적 모델이다.

대부분의 책이나 포스팅에서 AI는 그저 언어 모델이라고 얘기하는 이유도 여기에 있다. 그런데 중요한게 있다. 우리 인간은 아까 말했던 것처럼 시스템1에 의존해서 정말 많은 것들을 처리하는데, 이 어림셈법은 정확한 셈이 아니다. 확률 계산을 하더라도 오류를 범하는 경우가 많다.(이 책의 중요메시지 중 하나다.) 그리고 이부분이 우리가 AI에게 열광하는 이유다.


내가 약한 시스템 2를 AI가 보조해줄 수 있다. 컴퓨터로 치면 외장 CPU하나가 더 생긴 샘이다.



gpt 저 여자애가 날 좋아할까?

무언가를 틀킨 기분인가? 안봐도 뻔하다. 우리는 이 질문을 진짜 정말 많이 했을 것이다. 특히 "쟤가 날 좋아할 확률이 몇 프로야?"를 많이 물어봤을 것이다. 필자의 경험도 있지만, 이 책에서 말하는 사람의 생각하는 프로세스 때문이다.

먼저 우리의 사고는 생존에 유리하게 선택을 하거나 서사를 만들도록 세팅되어있다. 나한테 호감이 있거나 특별한 메세지를 던지는 여자애를 시스템1은 기가막히게 선별한다. 그리고 나한테 호감이 있다는 생각이 들자마자 거절당 할 가능성을 체크하면서 시스템2를 쓰게 되는데, 이때 확률 계산을 도와줄 수 있는 ai를 확용하게 된다. (이건 당신이 그 여자애를/남자애를 집착해서 그런 것이 아니다)

그 여자분은 당신을 좋아할 확률이 72% 입니다.

문제는 이부분이다. 우리는 이부분에서 만족을 하지 못한다. 시스템2는 "72%면 높은 확률이네~" 하지만 시스템1은 남은 위험에 반응을 한다. 사실 이 질문은 확률의 답이 중요하지 않다. 통계질문이 아니라 위험회피 질문이다. 우리의 뇌는 28%의 상처 가능성을 72% 기대보다 더 크게 느낀다.


애매함을 싫어한다. 92%의 확률이어도 위험이 있는건 사실이고, 애매함은 시스템 1에게 위협이 된다.

그래서 우리는 "왜 80%가 아니야?" "왜 28%나 돼?" 라면서 계속해서 물어보게 된다. 당신이 집착을 해서도, 감정이 커서도 아니다. 우리의 뇌가 그렇게 시스템 되어 있는거다.




AI에게 확률을 계속 붇는 당신에게

사람이기 때문에 계속해서 질문하게 되는 당신을 너무 몰아붙이지 않았으면 좋겠다. 확률을 묻는 것은 괜찮지만, 그 확률로 당신이 확신을 얻을 수 있을지는 생각해보았으면 좋겠다. 나도 AI를 통해서 여러가지를 분석하다보니, 관심있는 여성의 행동을 과하게 해석했던 날들이 있다. 하지만 확률은 결과를 통제해주지 않았다. 그 뒤로는 무의미한 확률 계산보다는 관계의 구조를 보려고 한다.


당신이 당신답게 살기를 바란다.



이 작가의 지금 생각이 궁금하다면?

-> https://www.instagram.com/big_handle?igsh=MXhqYnEydzdkNW5jNA==

작가의 이전글왜 모든 사람은 번지점프를 안할까?