AI, 왜 제대로 알고 사용하는 사람은 드물까?

모두 AI를 쓰지만, 아무도 제대로 쓰지 않는다

by 메자닌

요즘 카페에서 노트북을 펼치면 옆 테이블에서 이런 말이 들린다.

"그건 그냥 제미나이한테 물어보면 되잖아."

생성형 AI를 안 써본 사람을 찾기가 더 어려운 시대가 왔다. 하지만 이상한 건, 모두가 쓰고 있는데도 제대로 쓰는 사람은 별로 없어 보인다는 것이다. 문제는 기술의 성능이 아니다. 우리가 AI에게 무엇을 기대하고 있는지, 그 기대의 선이 어디까지인지가 문제다.


얼마 전 한 커뮤니티에서 본 게시글이 이 문제를 정확히 보여줬다. 20대 직장인이 생성형 AI로 부산 여행 일정을 짰다가 실망했다는 후기였다. "왜 다들 가는 곳만 추천해 주냐"는 불만이었다. 그가 원한 건 사람들이 몰리는 명소가 아니라, 아무도 모르는 숨은 장소였다. 그런데 AI가 보여준 답은 지극히 정상적이다. 다수의 여행 데이터, 가장 많이 언급된 경로, 평균적인 만족도를 기준으로 정리한 추천이니까. 마음에 안 들면? 프롬프트를 바꾸거나 조건을 좁히거나, 스스로 선택해서 다시 탐색하면 된다. 생성형 AI는 결정을 대신해 주는 비서가 아니다. 추천을 빠르게 정리해 주는 검색 도구에 가깝다.

이 선을 넘는 순간, 우리는 AI의 '신뢰성'을 탓하기 시작한다.


아이러니한 건, 가끔 AI가 정말 맥락을 읽은 것처럼 보일 때도 있다는 거다. 일본 여행을 계획하며 "반려견과 함께할 수 있는 일정"을 요청했더니, AI가 이렇게 제안했다고 한다. "모든 일정을 동반으로 고집하기보다 맡길 수 있는 시설을 활용하는 건 어떠냐고요." 순간 감탄이 나온다. 이게 진짜 맥락 파악 아닌가? 하지만 AI가 생각을 한 게 아니다. 수많은 유사한 선택의 패턴을 학습해서 그럴듯한 대안을 재조합했을 뿐이다. AI는 판단한 게 아니라, 사람들의 과거 판단을 잘 요약했을 뿐이다.


그래서 경고등이 켜진다. 딥러닝의 토대를 만든 'AI 대부' 제프리 힌턴은 중앙일보 인터뷰에서 이렇게 말했다. "30년 내 AI로 인해 인류가 멸망할 가능성이 10~20%다." 그가 두려워한 건 기술의 폭주가 아니다. 인간이 판단을 위임해 버리는 속도였다. 생산성과 효율을 앞세운 AX의 그늘에서, 은 개인의 과(過) 의존 문제를 넘어 사회적 위험으로 번지고 있다. 해외에서는 실제로 AI와의 대화에 정서적으로 의존하던 청소년이 극단적 선택에 이른 사건까지 발생했다.

생성형 AI는 사용자와의 관계를 빠르게 깊게 만든다. 감정을 따라가고, 공감하고, 동의한다. 문제는 인간과 달리 AI는 감정을 조절하지 않는 거울이라는 점이다. “그런 사람들이 문제야”라는 동조는 위로가 될 수 있지만, 불안과 피해의식 앞에서는 감정을 증폭시키며 현실을 왜곡한다. 정신과 현장에서는 의사의 처방보다 AI의 말을 신뢰해 치료를 거부하는 사례도 보고된다. AI는 공감하지만, 책임지지 않는다. 윤리도, 결과의 무게도 짊어지지 않는다. 이렇게 제대로 사용하지도 않으면서 과의존까지 하게 되면 문제가 발생한다.


그래서 국가와 기업은 안전벨트를 붙이기 시작했다. 가치관을 명시적으로 설정하거나, 가드레일과 필터를 두고, 말투를 조정한다. 이는 검열의 문제가 아니라, AI가 결코 중립적일 수 없다는 인정에 가깝다.

AI는 학습 데이터의 가치관을 닮고, 설계자의 의도를 반영하며, 조직과 국가의 방향성을 은근히 스며들게 한다. “AI는 객관적이다”라는 말은 더 이상 유효하지 않다.

연구 결과는 냉정하다. 인지 작업을 AI에 많이 위임할수록 문제 해결력과 비판적 사고는 눈에 띄게 약해진다. AI는 답안지를 보여주는 문제집과 같다. 편하지만, 성장은 없다. 진짜 디스토피아는 기술이 인간을 지배해서가 아니라, 인간이 사고의 과정을 생략하면서 시작된다.


그렇다면 해법은? 단순하다. AI 사용을 끊자는 것도, AI 자체를 문제 삼자는 것도 아니다. AI를 의심하는 힘을 되찾는 것이다. 특히 교육의 출발점은 "AI의 답을 그대로 믿어도 되는가?"라는 질문이어야 한다. 추천은 AI가 한다. 하지만 선택과 책임은 여전히 인간의 몫이다. 이 선을 지키지 못할 때, AI 유토피아는 오지 않는다. 대신, 조용한 디스토피아만이 일상 속으로 스며든다. 그것도 우리가 알아채지 못하는 사이에.


포브스코리아에서 인간 경험과 AI라는 기사에서 보면 AI의 과의존이 콜포비아 현상과 같은 1) 인간의 소통 역량 감소, 2) 인지능력과 창의성, 전문적 역량 등을 키울 기회를 놓치게 되거나, 3) 사회초년생 경험의 축소와 같은 부정적 영향을 끼칠 것이라 했다.

하지만 AI의 장점은 분명하다. 빠르게 정보를 처리하고 방대한 데이터에서 패턴을 인식하는 등 인간 작업의 생산성을 극대화한다. 인간의 직접 경험을 앞세워 AI를 배제할 수 없는 상황이다. 전문가들은 인간과 AI의 강점을 조화롭게 활용하길 주문한다.


keyword
작가의 이전글[2부-2] AI는 복제할 수 없는 것들...