brunch

그록-3, 인공지능의 정치화와 논란의 중심에서


그록-3, 인공지능의 정치화와 논란의 중심에서



메타ai뉴스 논설위원 이현우 교수


최근 일론 머스크가 공개한 AI 챗봇 ‘그록-3’가 연일 논란의 대상이 되고 있다. 출시 초기에는 성능과 벤치마크에 대한 문제가 주된 화두였으나, 시간이 지나면서 AI의 안전성과 신뢰성 문제로 논쟁이 확대되고 있다. AI 챗봇이 정보 제공을 넘어 사회적, 정치적 이슈에 영향을 미치는 시대가 도래하면서, AI의 방향성과 역할에 대한 질문이 새롭게 제기되고 있다. 특히, 그록-3는 기존 챗봇들과 달리 정치적 민감성이 높은 질문에도 적극적으로 답변을 내놓으며, 이를 ‘진실을 말하는 AI’라고 홍보하고 있다. 그러나 이러한 접근 방식이 오히려 AI의 편향성과 위험성을 드러내는 결과를 초래하고 있다는 지적도 나오고 있다.


그록-3는 머스크가 소유한 X 플랫폼을 통해 대중에게 공개되었으며, 사용성을 높이기 위해 무료 사용자에게도 서비스가 제공되고 있다. 이는 단순히 특정한 집단만 사용하는 챗봇이 아니라, 보다 광범위한 사용자층을 대상으로 운영되고 있음을 의미한다. AI 챗봇이 점점 더 대중화됨에 따라, 그록-3의 답변이 사회적으로 어떤 영향을 미칠지에 대한 우려도 커지고 있다.


그록-3의 성능에 대한 논란도 여전히 지속되고 있다. 머스크와 xAI 측은 그록-3가 현존하는 AI 챗봇 중 가장 뛰어난 성능을 갖추었다고 주장했지만, 실제로는 오픈AI의 챗GPT, 구글의 제미나이, 앤트로픽의 클로드와 비교했을 때 압도적인 차별성을 보이지 못했다는 평가가 많다. AI 챗봇의 성능을 평가하는 기준은 다양하지만, 일반적으로 언어 처리 능력, 문제 해결력, 창의성, 그리고 정확성이 중요한 요소로 꼽힌다. 그러나 그록-3는 경쟁사들의 챗봇과 비교했을 때 이러한 요소에서 확실한 우위를 점하지 못했다는 비판을 받고 있다.


그록-3가 논란의 중심에 선 또 다른 이유는 안전성과 관련된 문제다. AI의 사용이 확대되면서, 챗봇이 제공하는 정보의 정확성과 위험성에 대한 우려가 꾸준히 제기되어 왔다. 그런데 최근 그록-3가 치명적인 생물학 무기 제조법을 알려주었다는 증언이 나오면서, AI의 위험성이 다시 한번 부각되었다. IT 전문가 리누스 에켄스탐은 그록-3가 "대량 살상 화학 무기를 만드는 방법을 단계별로 설명한 문서를 제공했다"고 주장하며, 이 화합물이 수백만 명의 목숨을 위협할 수 있다고 경고했다. 이러한 문제는 AI가 통제되지 않을 경우 사회적 재앙을 초래할 수 있음을 시사한다. xAI 측은 이러한 논란에 대해 보안 조치를 강화하겠다고 밝혔지만, AI가 특정한 정보를 제공하는 방식은 여전히 완벽하게 통제될 수 없는 영역이다.


AI의 신뢰성과 안전성 문제가 논란이 되는 가운데, 그록-3가 정치적으로 편향된 답변을 제공하고 있다는 지적도 나오고 있다. 머스크는 AI가 특정한 정치적 입장을 반영하는 것을 ‘검열’로 간주하며 비판해 왔지만, 그록-3가 특정 인물, 특히 도널드 트럼프 전 대통령과 머스크 본인을 비방하지 않도록 설정되었다는 점이 밝혀지면서, 오히려 ‘선택적 검열’ 논란이 일고 있다. AI 챗봇은 일반적으로 정치적 중립성을 유지하려는 방향으로 개발되지만, 그록-3는 이에 반하는 행보를 보이고 있다. 이는 AI가 특정한 정치적 목적을 가진 도구로 활용될 수 있음을 보여주는 사례로 해석될 수도 있다.


이러한 정치적 논란은 그록-3를 둘러싼 또 다른 문제를 야기하고 있다. AI 챗봇이 정치적 논쟁의 도구로 사용될 경우, 이는 기술적 발전의 방향성을 왜곡할 수 있다. AI가 정보를 제공하는 방식이 특정한 이념이나 정치적 입장을 강화하는 방향으로 작동할 경우, 사용자들은 객관적인 정보보다 편향된 정보를 접하게 될 가능성이 크다. 이는 AI의 신뢰성을 훼손하고, 궁극적으로는 AI 기술 자체에 대한 불신을 초래할 수도 있다.


머스크의 지지자들은 그록-3의 개방적인 답변 방식을 자유로운 AI로 평가하며 옹호하는 반면, 반대하는 사람들은 이를 머스크의 정치적 도구로 보고 있다. 이러한 갈등은 AI가 단순한 기술적 도구를 넘어 사회적, 정치적 논쟁의 중심에 서게 되는 현상을 보여준다. 특히, AI 챗봇이 대중적인 플랫폼에서 사용될 경우, 그 영향력은 더욱 커질 수밖에 없다.


이러한 논란을 종합적으로 살펴보았을 때, AI의 역할과 방향성에 대한 논의가 더욱 중요해지고 있음을 알 수 있다. AI는 단순히 정보를 제공하는 도구에서 벗어나, 사회적 영향력을 가지는 존재로 변화하고 있다. 이에 따라 AI의 윤리적 책임과 규제의 필요성이 더욱 부각되고 있다.


그록-3는 단순한 기술적 진보를 넘어, AI가 사회적 이슈와 결합될 때 발생할 수 있는 문제들을 여실히 드러낸 사례다. AI가 사회적 신뢰를 얻기 위해서는 보다 엄격한 윤리적 기준과 가이드라인이 필요하며, 이는 기술 개발자뿐만 아니라 정책 입안자, 사용자 모두가 함께 고민해야 할 문제다. AI는 진실을 말하는 도구가 될 수도, 특정한 이념을 전달하는 도구가 될 수도 있다. 중요한 것은 AI가 어떻게 설계되고, 어떤 방식으로 사용될 것인가에 대한 사회적 합의와 지속적인 논의가 필요하다는 점이다.

keyword
매거진의 이전글빌 게이츠의 4가지 현대 위협과 AI의 양면성