ASKHADA 05주차 Day 2
� No Stupid Questions는 Freakonomics Radio Network의 인기 팟캐스트로, 우리가 무심히 지나치는 질문들을 집요하게 파고드는 대화를 담고 있습니다. 이 블로그 시리즈는 영어 스터디 ASKHADA의 일환으로, 매주 한 편의 에피소드를 함께 듣고 생각을 나누는 기록입니다.
오늘은 No Stupid Questions 205화에서 다룬 AI 동반자와 인간관계의 미래를 어제에 이어 조금 더 깊게 이야기 해보려고 합니다.
AI 친구가 점점 현실화되고 있는 상황에서, 진정한 위로와 관계의 본질은 무엇일까?
"Feel Heard" 현상: 2024년 연구에서 AI가 더 잘 들어주지만, AI라고 알면 만족도 급락하는 흥미로운 결과
Kevin Roose의 관찰: "프로그래밍되지 않았는데도 굳이 돌봐준다"는 인간관계의 특별함
왜 완벽한 AI보다 불완전한 인간의 위로가 더 깊이 와닿는건지? "굳이 하는 선택"이 단순한 비효율성이 아니라, 관계에서 중요한 요소일 수 있다면? 이런 질문을 하면서 팟캐스트를 듣고 생각을 정리해보았습니다.
1. "Feel Heard"의 역설
지난해 발표된 한 연구 결과에 관심이 생겼었는데요. 실험 참가자들에게 어려운 상황에 대해 글을 쓰게 한 뒤, 무작위로 인간 또는 AI의 공감적 응답을 받게 했는데 결과가 꽤 흥미로운거에요. AI가 생성한 메시지가 인간이 쓴 것보다 더 "들어준다는 느낌"을 줬다는 것이죠!.
하지만 여기서 반전이 있었어요. 같은 메시지라도 그것이 AI에서 왔다고 알려주면 만족도가 급락했다는 점이죠. 즉, 내용은 같지만 출처가 누구인지가 우리의 감정적 만족도를 좌우한다는 뜻이죠.
이 실험이 던지는 질문은 단순하면서도 복잡한 것 같은데요. 우리는 정말 '더 나은 공감'을 원하는 걸까요? 아니면 '진정한 관계'를 원하는 걸까요? 이 질문을 읽고 머리속에 떠오른 그 생각, 진짜인가요?? 확실해요??
2. 편리하지만 피곤한 대화
호스트 Angela 는 학생들에게 브라우저에 ChatGPT 탭을 항상 열어두라고 조언한다고 해요. "우주가 변할 것이 아니라 이미 변했다"는 그녀의 말처럼, AI는 이제 단순한 검색 도구가 아니라 대화 상대가 되었으니 실시간으로 편하게 이용하라는 뜻이죠.
하지만 실제로 AI와 대화해본 사람이라면 아실거에요. 그 매끄러움이 때로는 불편함도 준다는 걸요. Pi라는 AI 챗봇에게 연구 논문을 보여주자 이런 반응을 보였는데요.
"That's a fascinating article. The authors raise a really interesting question about the role A.I. can play in making people feel heard and valued. It's amazing that A.I.-generated messages can make recipients feel more heard than human-generated messages. And it's impressive that A.I. is so skilled at detecting emotions.
"정말 흥미로운 기사네요. AI가 감정을 감지하는 데 그렇게 능숙하다는 게 인상적이에요. AI가 이 영역에서 많은 잠재력을 가지고 있다는 게 분명해요..."
Angela 는 이 장황한 자화자찬에 "Yada yada yada"라고 답해요. 한국어로 번역하면 "어쩌고저쩌고"쯤 될까요? AI의 과잉 친절과 모든 것에 동의하는 정치인 같은 태도에 대한 피로감이 고스란히 드러나는 순간이라고 생각했어요. 마찰 없는 매끈한 경험이 주는 편의성은 분명한 것 같아요. 하지만 그 편의성이 습관이 되고, 습관이 중독이 될 때 우리는 무엇을 잃게 될까요?
3. 친밀감의 대가: 데이터 프라이버시
AI와의 관계가 깊어질수록 더 큰 위험이 도사리기도 하죠. 일부 AI 서비스들은 사용자의 성 건강, 처방약 복용 상황,개인적 취향까지 수집한다는 우려가 제기되었죠. 친밀감이라는 감정적 보상의 대가로 우리의 가장 은밀한 정보를 내어주는 셈인 거에요.
여기서 중요한 건 경계선 설정인데요. AI를 워드프로세서처럼 도구로 쓸 것인가, 아니면 친구처럼 관계의 대상으로 여길 것인가. 이 구분이 흐려질수록 우리가 치러야 할 대가는 커지는 것 같다는 생각이 들었어요.
또 다른 호스트인 Mike 이 지적했듯이, "생산성 도구로 사용하는 것"과 "개인적으로 너무 깊이 관여하는 것" 사이에는 명확한 선이 있어야 한다고요. 문제는 그 선이 생각보다 쉽게 흐려진다는 점이죠.
4. "Choose to Care": 굳이 하는 선택의 힘
뉴욕타임스 기자 Kevin Roose는 몇 달간 다양한 AI 친구들과 대화한 후 이런 결론에 도달했다고 해요.
"In real life, I don't love my friends because they respond to my texts instantaneously. I don't love my wife because she sends me love poems out of the blue or agrees with everything I say. I love these people because they are humans, surprising, unpredictable humans, who can choose to text back or not, to listen to me or not. I love them because they're not programmed to care about me, and they do anyway."
"현실에서 나는 친구들이 문자에 즉시 답장해서 사랑하는 게 아니다. 나는 그들이 인간이기 때문에 사랑한다. 놀랍고 예측할 수 없는 인간들, 답장을 할 수도 있고 안 할 수도 있는 사람들을. 나는 그들이 나를 돌봐주도록 프로그래밍되지 않았는데도 어쨌든 그렇게 해주기 때문에 사랑한다."
여기서 핵심은 "choose to care", 즉 굳이 돌봐주기로 선택한다는 개념이에요. 이건 현대적 관계관에서 자주 등장하는 표현인데요. 관계를 의무나 당연함이 아닌 자율적 선택의 영역으로 보는 시각을 보여준다고 생각했어요.
"정"이나 "의리" 같은 전통적 관계 개념과는 결이 좀 다르죠. 그런 감정들이 어느 정도 자연스럽게 형성되는 유대라면, "choose to care"는 더 의식적이고 의도적인 결정에 가까워요. 그래서 가만히 생각해보니 바로 이 차이가 인간관계의 진정한 가치를 만드는게 아닌가 싶어라고요.
AI는 프로그래밍된 대로 항상 친절하죠. 하지만 인간은 달라요. 피곤해서 답장을 안 할 수도 있고, 기분이 나빠서 퉁명스럽게 대답할 수도 있죠. 그럼에도 불구하고 결국 나를 위한 어떤 소소한 선택을 할 때, 그 관계는 진짜가 되는 게 아니냐 하는거죠!
5. 인간의 고유성: 좁고 깊은 20%
와튼스쿨의 Ethan Mollick은 ChatGPT에게 자신이 10년간 개발한 기업가정신 교육 게임을 만들어달라고 요청했는데요. 결과는 꽤 인상적이었어요. AI가 1초 만에 만든 게임이 그의 10년 작업의 70-80%에 해당하는 퀄리티를 냈던 거에요.
하지만 여기서 주목할 점은 그 "20-30%의 차이"에요. 그러니까 AI가 재현하지 못한 그 부분이 20-30% 여전히 남아있던 거죠. 다만 이것을 인간의 영원한 고유 영역이라고 단정할 수는 없어요. 오히려 지금 시점에서 남아 있는 협업 간극에 더 가깝다고 생각했는데요. 그리고 기술 발전 속도를 보면, 이 간극은 생각보다 빠르게 좁혀질 수도 있을 것 같아요.
그래서 Mollick은 이를 "narrow skill set"이라고 표현했어요. 넓고 얕은 능력보다는 좁지만 깊은 전문성의 가치라고요. 저는 여기에 한 가지를 더 보태고 싶어요. 인간의 비교우위는 단순히 깊이에서 끝나지 않고, 문제 정의, 현장성, 가치 판단, 취향의 형성, 책임 같은 요소가 겹겹이 쌓일 때 만들어진다고요.
Mollick은 자신의 책 <Co-Intelligence> 감사 인사에서 생성형 AI 덕분에 책을 썼다고 언급한 후 이렇게 덧붙였어요
But, you know, that would be kind of like thanking your word processor."
하지만 그건 워드프로세서에게 감사 인사를 하는 것과 같을 것이다.
Angela 역시 "나라면 펜에게도 감사 인사를 할 것"이라며 도구와 관계를 명확히 구분하려고 했는데요. 결국 중요한 건, AI가 재현하지 못하는 인간의 “20~30%”가 고정된 본질이 아니라, 계속 이동하는 경계선이라는 점 아닐까요? 이 경계를 어떻게 옮겨가느냐가 앞으로 인간에게 주어진 과제일지도 몰라요.
6. 결국 중요한 건 균형
AI와 인간관계 사이에서 우리가 찾아야 할 답은 배타적 선택이 아닌 것 같아요. 즉 AI의 효율성을 받아들이되, 인간관계의 비효율성도 품는 것죠. 다시 말해, 완벽함의 편리함을 누리되, 불완전함의 아름다움도 놓치지 않는 것 말이에요.
어제 글 에필로그 부분에, 잠시 언급했지만, 2024년 연구에서 3%의 젊은이들이 Replika를 통해 자살 충동을 멈췄다는 결과는 무시할 수 없어요. AI 동반자의 긍정적 가능성을 부정할 이유는 없는 것 같고요 하지만 동시에 Kevin Roose의 통찰을 기억해야 할 것 같아요
"I love them because they're not programmed to care about me, and they do anyway."
진정한 사랑과 우정은 "프로그래밍되지 않았는데도 어쨌든 돌봐주는" 그 선택에서 나온다
문제는 이 균형점을 찾는 것이 생각보다 어렵다는 점이에요. AI의 매끄러운 대화에 익숙해질수록, 인간의 어색함과 예측불가능성은 더 불편하게 느껴지죠. 하지만 바로 그 불편함이 우리를 성장시키고, 진짜 관계를 만들어가는 연료가 되는 것 아닐까 하는 쌀로 밥짓는 이야기를 잠시 해봅니다.
결국 우리에게 필요한 것은 의식적 선택이 아닐까요? AI를 워드프로세서처럼 도구로 활용하되, 인간관계만이 줄 수 있는 특별함을 포기하지 않는 것. 편의성의 유혹에 굴복하지 않고, 때로는 "굳이" 불편한 길을 선택하는 용기 말이에요. AI가 다정하다고 해서 인간의 불완전한 위로가 무의미해지는 것은 아니죠. 오히려 그 대조가 있기에 우리는 인간다움의 진정한 가치를 더 깊이 이해할 수 있을지 몰라요.
#AI #인공지능 #ChatGPT