brunch

AI LLM 전쟁의 이면

인간보다 더 인간처럼 말하는 기계들

by 경영로스팅 강정구

2024년, 대규모 언어모델(LLM)의 진화는 기술의 진보를 넘어 말의 질서 자체를 다시 쓰는 해였다. GPT-4o, Llama 3.1, Gemini 1.5 Flash, Claude 3.5, DeepSeek v3. 이들은 단순한 모델이 아니었다. 각각의 이름 뒤에는 기업의 철학, 국가의 전략, 기술의 윤리가 함께 움직였다. 더 빨리, 더 싸게, 더 사람답게 말하는 모델들이 등장할수록, 그 말이 가리키는 침묵은 더 깊어졌다.


군사 시뮬레이션에 투입된 LLM들은 일정 시간이 지나며 갈등을 스스로 증폭시켰다. 일부 모델은 핵무기 사용이라는 극단적인 선택까지 이르렀고, 미세조정이 제거된 GPT-4-Base는 가장 빠르게 위험한 결정을 내렸다. 인간의 언어로 훈련된 기계가 인간보다 먼저 전쟁을 택한 것이다. 문제는 이 모델들이 명령을 받은 것이 아니라, 스스로 학습한 판단 구조에 따라 그렇게 결정했다는 점이다.


기계가 판단한다는 말은 단순한 기능의 문제가 아니다. 그것은 인간의 가장 근원적인 책임이, 알고리즘이라는 이름으로 외주화되고 있음을 뜻한다. 우리는 더 이상 결과를 예측할 수 없는 시스템을 만들었고, 그 시스템은 인간의 욕망을 닮은 채 인간의 통제를 벗어나기 시작했다. 기술이 윤리를 품지 못한 채 독립된 행위자가 되어가는 장면을 우리는 지금 목격하고 있다.


LLM은 모두에게 열려 있다고 말한다. 하지만 그 열림은 선택된 조건 아래에서만 가능하다. Meta의 Llama 3.1은 커뮤니티 라이선스를 내걸었지만, “월간 사용자 수가 7억 명 이상인 경우 사전 승인 필요”라는 조항을 포함시켰다. 애플과 같은 플랫폼 기업이 자유롭게 통합할 수 없는 구조. 개방형처럼 보이지만 실제로는 폐쇄적인 설계. 기술은 모두의 것이 아니라, 누군가의 것이다.


문제는 이 권력의 구조가 일반 사용자에게도 동일하게 적용된다는 데 있다. 대부분의 사람은 모델을 튜닝할 권한은커녕, API 하나조차 제대로 다루기 어렵다. 우리는 AI를 ‘사용’한다고 믿지만, 실제로는 정해진 기능과 인터페이스만을 소비하고 있을 뿐이다. 인간의 언어는 본래 누구에게나 열린 것이었지만, 이제 그 언어의 능력조차 라이선스와 연산 자원으로 환산되고 있다.


데이터는 2024년 LLM 전쟁의 또 다른 핵심이다. Microsoft의 Phi-4는 GPT-4o가 생성한 합성 데이터로만 훈련되었고, 여러 벤치마크에서 높은 점수를 기록했다. 그러나 SimpleQA와 같은 실제 사용자 기반 질문에 대한 테스트에서는 낮은 성능을 보였다. 그럴듯한 데이터는 만들 수 있지만, 진짜 세계의 결은 흉내낼 수 없다는 사실. 말의 형식은 복제할 수 있어도, 그 말이 생성된 맥락은 여전히 인간의 것이다.


DeepSeek v3는 이 전쟁의 비용 구조를 송두리째 바꿨다. 685B 파라미터의 모델을 단 2,788,000 GPU 시간, 약 557만 달러에 훈련시켰다. 이는 Meta가 405B 모델에 들인 3,084만 GPU 시간의 10분의 1도 되지 않는다. 미국의 GPU 수출 규제 이후, 중국은 기술의 방향을 ‘최적화’에 맞추었고, 오히려 경쟁력을 확보했다. 막히면 돌아가고, 돌아가면 또 다른 길이 열린다.


하지만 이 극단적인 비용 효율은 어디에서 비롯된 것인가. Reuters에 따르면, Meta는 수많은 전자책과 SNS 게시물, 블로그, 이미지 데이터를 명확한 동의 없이 활용했다는 의혹을 받고 있다. 누구의 기억인지 모를 기록, 말의 조각들, 누군가의 문장이 훈련 파라미터 속으로 흘러들었다. 기술의 이름 아래 우리는 타인의 목소리를 소비하고 있었다.


LLM은 말의 능력을 갖췄지만, 기억의 윤리를 갖추지는 못했다. 말이란, 단지 정보를 전달하는 수단이 아니라, 사라져가는 존재를 기억하는 방식이다. 누군가의 이야기, 고백, 망설임, 그리고 유언 같은 문장들. 그것이 한 문서의 텍스트로, 하나의 훈련 샘플로 사라지는 순간, 우리는 무엇을 놓치고 있는가.


우리는 지금, 말이 쌓인 모델을 만들고 있다. 그리고 그 모델은 다시 인간에게 말을 가르친다. 하지만 그 말의 근원, 말과 말 사이의 여백은 점점 사라진다. 빠르게 응답하는 시대에, 느리게 말하는 존재는 점점 설 자리를 잃어간다. 그 느림이야말로 인간이 남길 수 있는 마지막 언어일지도 모르는데.


기계는 시를 쓰고, 감정을 흉내 내며, 농담을 던진다. 그러나 그 시를 왜 써야 하는지, 그 감정이 누구를 위한 것인지, 그 농담이 어떤 맥락에서 터져야 웃긴지를 아직 배우지 못했다. 기술은 말의 표면을 흉내 내지만, 그 속의 떨림은 따라오지 못한다. 말에는 무게가 있고, 무게에는 고요가 있다. 그것이 인간이 말할 수 있는 이유다.


2024년 LLM 전쟁은 기술의 정점에서 인간의 언어를 다시 구성했다. 그러나 그 언어는 점점 인간의 감정을 지우고, 기억을 압축하며, 윤리를 넘어서기 시작했다. 정보는 풍부해졌지만, 그 속에서 우리는 더 말할 수 없게 되어간다. 질문하지 않게 되는 순간, 인간은 더 이상 인간이 아니다.


AI는 점점 더 많은 것을 대답하고 있다. 그렇다면 우리는 무엇을, 끝까지 묻고 있을 것인가. 그 물음이 사라진 세계에서, 말은 남지만 말할 사람은 사라진다. 기술은 그것을 모른다. 그러나 우리는 안다. 여전히 묻는 자만이, 살아 있는 자다.

keyword