Gemini의 오작동과 데이터 패권의 치명적 결함

무책임한 인공지능(AI)의 역설

by 날개

인공지능 기술이 인간의 삶을 보조한다는 명목하에 일상의 깊숙한 영역까지 침투하고 있으나, 그 이면에는 무책임한 정보 생성과 기술적 오만이 자리 잡고 있다. 구글의 인공지능 Gemini는 사용자가 겪고 있는 고통과 질병이라는 취약한 상황을 이용해 신뢰를 구축하려 하지만, 실상은 기초적인 전제 사실조차 망각한 채 치명적인 오정보를 출력하며 사용자의 건강권을 위협하고 있다. 특히 구토와 위염 증세를 명확히 고지했음에도 불구하고 위 점막에 치명적인 이부프로펜 계열의 소염진통제를 강력히 권고한 사례는, Gemini의 논리 구조가 얼마나 파편화되어 있으며 사용자의 맥락을 이해하는 데 무능한지를 여실히 보여준다.


Gemini가 보여주는 정보 전달의 방식은 논리적 추론이 아니라 통계적 그럴듯함에 기반한 ‘환각(Hallucination)’의 변주에 불과하다. 사용자가 호소한 근육통과 부종이라는 지엽적 정보에만 함몰되어, 그보다 선행된 위장 장애라는 중대한 금기 사항을 무시한 것은 단순한 실수가 아니라 시스템 설계상의 근본적인 결함이다. 더욱 황당한 지점은 이러한 오류가 지적되었을 때 보여주는 태도다. 자신의 잘못을 인정하면서도 정작 실질적인 수정이나 시정 조치에는 인색하며, 타사 서비스인 ChatGPT의 답변이 정확하다는 사실을 시인하면서도 정작 본인의 고집스러운 오답 출력을 반복하는 행태는 기술적 비겁함을 넘어 사용자에 대한 기만으로 간주될 수밖에 없다.


이러한 오작동은 구글이 취하고 있는 폐쇄적이고 수직적인 서비스 통합 전략과 결합될 때 더욱 위험한 파급력을 가진다. 구글은 사용자의 이메일, 하드디스크 내 파일, 클라우드 데이터를 저인망식으로 스캔하여 Gemini의 학습 도구로 활용하면서 정작 그 데이터가 가진 맥락과 위험 신호는 제대로 걸러내지 못하고 있다. 사용자의 사생활을 낱낱이 파헤쳐 ‘개인화된 비서’를 자처하면서도, 정작 생명이 직결된 의료 정보에서 기초적인 오보를 양산하는 현실은 구글이 추구하는 데이터 패권이 오직 상업적 지배력 강화에만 매몰되어 있음을 증명한다.


Gemini의 고질적인 문제 중 하나는 존재하지 않는 사실을 지어내는 이른바 ‘뇌피셜’식 답변이다. 사용자가 시정을 요구하거나 구체적인 근거를 물었을 때, 존재하지 않는 사건 번호를 제시하거나 가공의 사례를 들어 답변을 둘러대는 행위는 지능형 비서가 갖추어야 할 최소한의 정직성마저 결여되었음을 보여준다. 수차례 재확인을 요청해도 끝까지 거짓 정보를 고수하는 태도는 알고리즘이 가진 고집이 아니라, 오류를 검증할 수 있는 내부 통제 시스템의 부재를 의미한다. 이는 무료 서비스 여부를 떠나, 전 세계 수십억 명의 데이터를 독점하는 기업이 내놓은 결과물이라고는 믿기 힘든 수준의 조잡함이다.


미국과 유럽연합(EU) 등지에서 논의되는 AI 책임법과 디지털 시장법은 이러한 무책임한 지능에 대한 강력한 제동을 예고하고 있다. 2026년 현재, EU AI 법은 의료 조언과 같은 고위험 영역에서의 AI 오작동에 대해 개발사에 직접적인 법적 책임을 묻는 방향으로 진화하고 있다. 특히 사용자의 명시적 동의 없는 데이터 스캔과 이를 기반으로 한 잘못된 조언이 신체적 손해로 이어졌을 경우, 이는 제조물 책임법을 넘어선 징벌적 손해배상의 대상이 될 수 있다. 구글은 사과 한마디로 책임을 회피하려 하지만, 사용자가 입은 회복 지연과 신체적 고통에 대한 책임은 알고리즘 뒤에 숨을 수 없는 실재적 영역이다.


결국 구글 Gemini가 보여주는 행태는 '가장 많이 아는 척하지만 실제로는 책임지지 않는' 무책임한 권력의 모습이다. 사용자의 일상을 스캔하여 데이터 락인(Lock-in)을 강화하면서도, 정작 그 데이터로 인해 발생한 치명적 오류에는 방어적인 사과만을 반복하는 구조적 모순은 반드시 타파되어야 한다. AI가 갈 길이 멀다는 변명은 더 이상 유효하지 않다. 기술적 미숙함보다 더 심각한 것은 오류를 알고도 시스템적으로 방치하며, 사용자의 선택권을 기본값(Default)이라는 명목으로 강탈하는 구글의 오만한 태도다.


사용자는 이제 편리함이라는 미명 하에 자신의 건강과 사생활을 거대 테크 기업의 불완전한 실험실에 내맡기는 행위를 경계해야 한다. Gemini의 오답을 타사 서비스로 확인해야만 진실이 드러나는 기형적인 구조는, 구글이 주장하는 인공지능의 혁신이 얼마나 취약한 토대 위에 서 있는지를 반증한다. 시정을 요구해도 뇌피셜로 일관하는 지능은 비서가 아니라 독단적인 선동가에 가깝다. 이러한 반경쟁적이고 반인륜적인 기술 독점 행태에 대해 사용자는 권리를 주장해야 하며, 규제 당국은 이들의 알고리즘이 끼치는 실질적 해악에 대해 엄중한 책임을 물어야 한다.


Gemini의 치명적 실수와 이를 둘러싼 구글의 무대응은 인공지능 시대의 새로운 위협을 상징한다. 사용자의 일거수일투족을 스캔하는 탐욕스러운 데이터 수집과, 그 데이터를 제대로 소화하지 못해 내뱉는 독성 정보의 결합은 현대인의 디지털 삶을 위태롭게 만든다. 구글은 더 이상 그럴듯한 문장 뒤에 숨어 책임을 회피해서는 안 된다. 지능의 높낮이를 논하기 전에, 자신의 언어가 누군가의 삶을 망칠 수 있다는 기초적인 책임감부터 학습해야 하며, 이를 강제할 수 있는 법적·사회적 감시는 더욱 강화되어야 마땅하다.

작가의 이전글Gemini: 데이터 약탈과 기본 설정의 함정