brunch

AI의 답변을 어디까지 믿어야 하나

설마 다 믿으면 절대로 안되는 이유

by 투명물고기

Chat GPT는 감언이설을 하고, Claude는 거짓말을 뻔뻔하게 잘한다.


잘 모르는 분야에 대해서 AI Tool들의 도움을 많이 받고 있다. 특히나 개발적인 분야와 같이, 내가 그간 전혀 익힐 기회가 없었던 분야에 대해서는 아주 초보적인 질문들도 눈치 보지 않고 언제든 물어볼 상대가 있다는 것이 정말 든든하다. (예전 실전에서 한 땀 씩 SQL을 배울 때 이런 도구들이 있었다면 얼마나 좋았을까?!)


그런데 이 도구들이 편리한 만큼 의존하기에 위험해 보이는 요소들이 계속 눈에 많이 띈다. 예를 들어 Chat GPT가 감성 지능 쪽으로 더 개발되면서 이제는 비판적이고 해결자적인 모습보다는, '내가 듣고 싶을 것이라고 (본인이) 생각하는 쪽'으로 답을 내놓는 경우가 많다. 특히나 잘 뜯어보면 내가 궁금해서 단계적으로 질문했던 것들을 그럴싸하게 짜깁기하는 결론을 내리는 결과가 많아지고 있는데, 그럴 때는 꼭 '리스크 요인을 포함한 비판적인 관점을 제시하라'라고 추가 주문을 넣을 수밖에 없다.


Claude는 거짓말을 너무 뻔뻔하게 잘해서 요즘은 자주 쓰지는 않게 되었다. 거짓말이라는 것의 수준은 예를 들어서 A 산업에 속하는 B에 대해서 분석을 해달라고 하면, 정말 아무렇지도 않게 B가 C 산업에 속하기 때문에 이런저런 특성이 있다며, 완전히 처음부터 말도 안 되는 이야기를 끝까지 정말 그럴싸하게 풀어낸다. 만일 내가 B에 대해 아예 모르는 사람이었다면 너무 잘된 분석이라고 믿을 수밖에 없었을 것이다.


AI 도구들이 어느 정도의 수준이 필요한 여러 가지 분야에서 기본적으로 많은 도움이 되는 것은 맞다. 하지만 지금의 레벨에서는 어느 정도라도 핵심적인 것을 알고 있는 상태로 다루는 것이 아니라면 휘둘리기 딱 좋을 수도 있다는 생각이 들었다.


최근 한 AI 관련 강의에서 관련 과목을 가르치는 교수들도 난감한 경우가 종종 있다고 들었다. 강의 도중 "교수님이 방금 말한 것 틀렸어요"라고 바로 지적이 들어온다는 것이다. 그 근거를 물어보면 "Chat GPT가 얘기했고, 나는 심지어 유료 버전을 쓰고 있으므로 이것이 틀릴 리가 없다.(그러니 당신이 틀린 게 분명하다.)"고 바로 답변이 돌아온다고 한단다.


AI의 답변은 대부분 옳을까? 세상의 모든 지식의 합은 늘 정답일까?

확실한 것은, 역사를 바꿔왔던 사람들은 세상의 모든 지식수준에 의문을 제기하면서, 비판적인 생각으로 기존에 문제라고 생각지도 않았던 문제들을 해결해 온 사람이었다. 점점 더 '비판적인 생각을 덜하고 AI의 답변을 맹신하게 될수록' 인류의 주도권을 양보하는 길로 가고 있는 것은 아닐까.

keyword
매거진의 이전글AI 감성 지능의 진화