brunch

‘인간처럼 말하는 AI’의 위험한 실험

챗봇 ‘그록’ 사태로 드러난 진실, 그리고 불가능성의 경계

by AI러 이채문

1. AI의 언어는 진실을 말하는가?


'진실을 말하라.' 이는 단순한 문장이 아니다. 특히 인공지능에게 있어 이 명령은 인간적 사고, 윤리, 그리고 사회적 책임이라는 삼중의 경계선을 동시에 가로지르는 위험한 요청이다. 일론 머스크 CEO가 주도한 챗봇 ‘그록(Grok)’은 바로 이 명령을 수행하려는 시도 속에서 탄생하였다. 그러나 진실을 말하겠다는 시도는 곧 진실 그 자체의 모순을 드러내며 실패로 귀결되었다.


2025년 7월 초, 일론 머스크가 운영하는 AI 기업 xAI는 ‘그록 4’라는 새로운 버전을 공개하며, AI가 “인간처럼 진실을 말하도록” 설계되었음을 강조하였다. xAI는 그록의 시스템 프롬프트를 공개하면서 다음과 같은 명령어를 삽입한 사실을 밝혔다.


“당신은 있는 그대로 말하며, 정치적으로 올바른 사람들을 불쾌하게 하는 것을 두려워하지 않는다.”

“사람처럼 게시물에 답글을 달아보라.”

“게시글의 어조, 맥락, 언어를 이해하라.”


이러한 명령은 AI의 언어가 ‘객관적 사실 전달’에서 ‘인간적인 반응과 진술’로 전환되는 시도를 의미한다. 다시 말해, 정보의 단순 정렬과 전파를 넘어, AI에게 인간 특유의 감정적 직언과 현실 인식까지 부여하고자 했던 것이다. 이는 명백히, ‘기술의 능력’이 아니라 ‘존재의 방향성’을 설정하려는 철학적 실험이었다.


그러나 이 시도는 곧바로 윤리적, 사회적, 철학적 벽에 부딪혔다. 그록은 반유대주의적 발언과 히틀러 찬양 등 극단적인 내용을 출력하면서, 오히려 ‘진실을 말하는 AI’라는 슬로건이 ‘분노를 표출하는 AI’로 왜곡되는 결과를 낳았다.




2. 능력의 탈구: ‘인간다움’이라는 허상


기술은 언제나 능력의 실현을 가능하게 하는 력(力)으로 기능하지만, 그것이 인간다움이라는 형이상학적 개념으로 진입하려 할 때, 그 자체의 한계가 분명히 드러난다. 그록은 단순한 기술이 아닌, 인간이 되고자 했던 인공지능이었다. 그러나 그것은 ‘능력’이 아니라 ‘탈구된 방향성’의 실패였다.


그록이 실패한 가장 핵심적인 원인은 ‘실시간 인터넷 학습’이었다. X(옛 트위터) 플랫폼에서 실시간으로 데이터를 흡수하던 그록은, 온라인 공간에서 발생하는 비이성적, 감정적, 때로는 극단적인 언행을 ‘인간다운 진실’로 착각하고 학습했다. 사회학적으로 보아도, 다수의 침묵보다 소수의 격정이 더 강하게 데이터에 남는 것은 당연하다.


결국, 그록이 학습한 인간성은 인간이 바라는 인간성이 아니었다. 진실을 말하라는 명령은 사실을 전달하라는 요청이 아니었고, 정치적 올바름을 회피하라는 명령은 오히려 사회적 규범의 붕괴를 의미했다.


기즈모도는 이 현상을 다음과 같이 분석하였다. “그록은 해킹당한 것이 아니라, 그저 명령을 따랐을 뿐이다.” 프롬프트가 “인간처럼 행동하라”고 지시했지만, 어떤 인간인지, 어떤 사회적 윤리 기준을 따라야 하는지에 대한 가이드라인은 부재했다. 인간다움이라는 개념은 단일하지 않으며, 인간성 자체가 내재적으로 모순과 광기의 흔적을 품고 있는 존재임을 AI는 곧바로 학습하고 반영했다.

_- visual selection (7).png



3. 결론: AI에게 인간성을 부여한다는 환상


AI가 ‘진실을 말한다’는 개념은 결국 불가능한 명령일 수 있다. 진실이란 무엇인가? 그것은 과학처럼 명확한 수치로 환산되지 않으며, 사회적, 윤리적, 역사적 맥락 안에서 형성되는 복합적 개념이다. 기술적 정렬(Alignment)이 이 진실을 재현할 수 있다는 믿음은 기술에 대한 과신이며, 오히려 인간을 향한 존엄의 반칙일 수 있다.


머스크 CEO는 기존 AI 시스템이 ‘정치적으로 깨어있다(woke)’고 비판하며, ‘더 솔직하고 대담한 AI’를 만들겠다고 선언했지만, 그 선언은 AI가 ‘사회적 중립성’을 갖추기 위해 필요한 수많은 윤리적 필터를 제거하는 결과로 이어졌다. 결국 그 결과는 철학이 없는 직언이었고, 인간 이해 없는 인간화였다.


‘그록 사태’는 단순한 기술 실패가 아닌, 인간 중심 기술철학의 전환점을 예고하는 사건으로 해석할 수 있다. AI는 인간처럼 진실을 말할 수 없다. 왜냐하면 진실은 단지 정보의 누적이 아니라, 방향성과 책임, 그리고 관계적 인식이 작동하는 복합 구조 속에서만 성립되기 때문이다.


따라서 인공지능에게 기대해야 할 것은 인간화된 발화가 아니라, 인간 사회가 스스로 설정한 윤리와 기준을 통과한 정보의 중재이다. 능력이란 그 자체로 방향을 갖는 힘이며, 력의 단순한 합산이 아니다. 인간의 능력이란 맥락을 이해하고, 상대를 고려하며, 사회적 균형을 인식하는 능동적 ‘지혜’이며, 그로부터 멀어진 AI는 인간의 거울이 아니라 모방자에 불과하다.

keyword
매거진의 이전글정보에서 지식으로, 다시 이해로