OpenAI의 선택과 Cancel ChatGPT 의미

견제가 시험받은 날

by kimdonglin

OpenAI의 선택

몇 시간의 간격

2026년 2월 27일 오전. 트럼프 대통령이 모든 연방기관에 Anthropic의 AI 제품 사용을 즉시 중단하라는 행정명령을 내렸다. 같은 날, 피트 헤그세스 국방장관은 Anthropic을 '국가안보 공급망 위험'으로 지정했다. 공식 명분은 국가안보 공급망의 신뢰성이었다. 하지만 맥락은 분명했다. 미국 시민에 대한 대규모 감시와 완전 자율 무기에 자사 AI를 쓸 수 없다고 버틴 회사에 대한 조치였다. 보복이라는 단어를 피하기 어렵다.


몇 시간 뒤, OpenAI가 국방부와 기밀 네트워크 계약을 체결했다고 발표했다.

나는 이 뉴스를 보면서 시간을 세 번 확인했다. 몇 시간이다. Anthropic이 쫓겨난 자리에 OpenAI가 앉기까지 걸린 시간. 이 속도는 하나를 시사한다. 준비되어 있었다는 것. 적어도 그렇게 읽힌다. 빈자리가 생기면 앉겠다는 계산이 이미 끝나 있었다는 뜻이다.


같은 날, 이상한 일이 벌어졌다. OpenAI 직원 60~70명이 Google 직원들과 함께 'We Will Not Be Divided'라는 제목의 공개 서한에 서명했다. Anthropic을 지지하고, 국방부의 무제한 접근 요구를 거부하라는 내용이었다. "그들은 공포로 각 회사를 분열시키려 한다". 자사 경영진이 국방부와 계약을 체결하는 바로 그날, 자사 직원들이 경쟁사 편에 선 것이다.


샘 올트먼은 내부 메모를 돌렸다. "AI는 대규모 감시나 자율 살상 무기에 사용되어서는 안 된다. 이것이 우리의 레드라인이다". Anthropic과 같은 레드라인이라고 했다. 같은 레드라인을 주장하면서, 그 레드라인을 지킨 회사가 쫓겨난 자리에 앉는다. 이것을 어떻게 읽어야 할까.


지난 글(자율무기와 감시 앞에서 기업은 어디까지 거부할 수 있나)에서 이렇게 썼다. "견제는 완벽할 필요가 없다. 존재하면 된다." 그 견제가 시험받은 날이었다.


https://brunch.co.kr/@230kimi/53



'인류를 위한 AI'에서 여기까지

OpenAI라는 이름을 처음 본 게 2015년이다. 'Open'이라는 단어가 선명했다. 개방. 투명. 독점에 대한 견제. 일론 머스크와 샘 올트먼이 비영리 연구소로 설립했고, 초기 10억 달러의 기부금을 약정받았다. "인류 전체에 이익이 되는 AI를 만들겠다"는 설립 취지문이 있었다. Google과 Facebook의 AI 독점을 견제하겠다는 것이 명시적 목표였다.


4년 뒤인 2019년, 비영리에서 '제한된 영리(capped-profit)' 법인으로 전환했다. 수익에 100배 상한을 두겠다는 조건이었다. AI 개발에는 막대한 자본이 필요하고, 비영리 구조로는 한계가 있다는 이유였다. 설득력이 있었다. 하지만 'Open'이라는 이름에 처음으로 균열이 갔다.


2023년 11월 17일, 이사회가 올트먼을 해임했다. 사유는 "회사의 사명에 대한 솔직하지 못한 태도". 직원 95%가 반발했고, 5일 만에 복귀했다. 이 소동이 끝난 뒤 남은 것은 올트먼의 권력 강화와 안전파의 약화였다. 이사회에서 올트먼을 견제하던 목소리가 사라졌다.


2024년 1월 10일. 이용약관에서 '군사 및 전쟁(military and warfare)' 금지 조항이 삭제됐다. 발표도 없었다. 설명도 없었다. 사전 고지도 없었다. The Intercept가 1월 12일에 발견하고 보도했다. 조용히. 이것이 이 회사가 원칙을 바꾸는 방식이었다.


새 정책은 이렇게 적혀 있었다. "우리의 정책은 사람을 해치거나, 무기를 개발하거나, 통신을 감시하는 데 도구를 사용하는 것을 허용하지 않는다. 다만, 우리의 사명에 부합하는 국가 안보 사용 사례가 있다." '다만' 뒤에 붙은 단서가 모든 것을 바꿨다.


12월에는 방산 기업 Anduril과 대드론 방어 시스템 개발에 착수했다. 2025년에는 국방부와의 협력 범위를 확대했다. 그리고 2026년 2월 27일, Anthropic이 쫓겨난 지 수 시간 만에 기밀 네트워크 계약을 발표했다.

비영리에서 영리로. 개방에서 폐쇄로. 군사 금지에서 군사 계약으로. 10년이 걸리지 않았다. 내가 이 궤적을 추적하면서 느낀 것은, 각각의 전환이 그 자체로는 합리적 설명이 가능하다는 점이다. 자본이 필요하다. 현실적 접근이다. 국가 안보에 기여할 수 있다. 문제는 그 합리적 설명들이 모두 같은 방향을 가리킨다는 것이다. 아직 이름은 그대로다. 'Open'AI.



떠나간 사람들

원칙이 사라지는 과정은 문서 수정으로 시작되지 않는다. 사람이 떠나는 것으로 시작된다.

2024년 5월 14일. 공동 창업자이자 최고 과학자인 일리야 수츠케버가 퇴사했다. 2023년 이사회 소동에서 올트먼 해임에 찬성한 인물이다. 안전에 대한 방향성 차이가 있었다. 그는 떠난 뒤 Safe Superintelligence Inc.(SSI)라는 회사를 설립했다. 이름에서 방향이 읽힌다. 'Safe'가 앞에 온다.


같은 날, 초지능 정렬팀 공동 리더 얀 레이케가 사임을 발표했다. X(트위터)에 두 단어를 올렸다. "I resigned." 3일 뒤 이유를 밝혔다. "안전 문화와 프로세스가 빛나는 제품에 밀려났다." 그는 Anthropic으로 갔다. 자신이 떠난 바로 그 이유 — 안전이 뒷전으로 밀리는 것 — 를 해결하겠다고 주장하는 회사로.

같은 달, 정책 연구원 그레첸 크루거가 사임했다. 4월에는 대니얼 코코타일로가 떠났는데, 그는 비방금지 계약에 서명하지 않기 위해 자신의 지분을 포기했다. 그리고 이 과정에서 안전팀의 규모가 약 30명에서 16명으로 줄었다는 사실을 공개했다. 8월에는 공동 창업자 존 슐먼이 Anthropic으로 이직했다.


블룸버그는 이렇게 보도했다. "핵심 안전 연구자 이탈 후, OpenAI는 초지능 정렬팀을 해체했다". 사람이 떠나자 팀이 사라졌다. 팀이 사라지니 그 팀이 하던 일 — 초지능의 정렬, 즉 AI가 인간의 의도에 부합하는지 확인하는 연구 — 도 흩어졌다. 2026년 2월에는 미션 정렬팀마저 해체됐다. 설립 16개월 만이었다.


그리고 2월 27일. 이 회사의 직원 60~70명이 경쟁사를 지지하는 공개 서한에 이름을 올렸다. 'We Will Not Be Divided.' 2018년에 Google 직원 3,100명이 Maven 철수를 요구한 것과 겹치는 장면이다. 다만 차이가 있다. Google 직원들은 자사의 군사 참여를 막으려 했다. OpenAI 직원들은 경쟁사의 입장을 지지했다. 자기 회사의 결정이 아니라, 자기 회사가 대체한 회사의 원칙에 동의한 것이다.


떠난 사람들의 목록을 보면 지도가 그려진다. 수츠케버는 SSI로, 레이케와 슐먼은 Anthropic으로 갔다. OpenAI에서 안전을 주장하던 사람들이 향한 곳이 Anthropic이라는 사실. 그리고 Anthropic은 OpenAI의 안전 불만에서 태어난 회사다. 2021년, 다리오 아모데이 남매가 OpenAI의 안전 경시에 반발하며 핵심 인력 십여 명과 함께 독립했다. OpenAI의 안전파가 만든 회사에, OpenAI의 안전파가 다시 합류하고 있다. 원점 회귀다. 다만 원점이 OpenAI 바깥에 있다.



Cancel ChatGPT

대중이 움직인 건 직원들보다 빨랐다.

사실 운동은 국방부 계약 전에 시작됐다. 2026년 1월, OpenAI 공동 창업자 그렉 브록먼 부부가 MAGA Inc. 슈퍼PAC에 2,500만 달러를 기부한 사실이 알려졌다. 미 이민관세집행국(ICE)이 GPT-4를 이민자 이력서 심사에 사용한다는 보도도 나왔다. quitgpt.org라는 사이트가 만들어졌고, MIT Technology Review가 2월 10일 이를 보도했다. 17,000명 이상이 구독 해지를 인증했고, 소셜 미디어에서 70만 명 이상이 지지를 표명했다.


그리고 2월 27일, 국방부 계약이 결정타가 됐다. Reddit에서 "Cancel and Delete ChatGPT!!!"라는 포스트가 30,000 upvotes를 받았다. "당신은 이제 전쟁 기계를 훈련시키고 있다"는 댓글 아래, 구독 해지 스크린샷이 줄을 이었다. 인스타그램의 한 포스트는 3,600만 조회를 기록했고, 배우 마크 러팔로의 공유 포스트에 130만 좋아요가 달렸다.


그 반사이익이 Claude로 갔다. Anthropic의 Claude 앱은 1월까지만 해도 앱스토어 100위 밖이었다. 2월 25일 6위, 26일 4위. 28일 저녁, 1위에 올랐다. ChatGPT를 제치고. 일일 가입자 수는 사상 최고 기록을 매일 갱신했고, 무료 사용자는 1월 대비 60% 이상 증가했으며, 유료 구독자는 2배 넘게 뛰었다.

국가도 견제하지 않았다. 기업 중 하나(Anthropic)가 견제했지만 쫓겨났다. 그러자 소비자가 움직였다. 앱을 삭제하고, 경쟁사를 설치하고, 스크린샷을 올렸다. 견제의 주체가 한 단계 더 내려간 것이다. 국가 → 기업 → 소비자.


질문은 이것이다. 이게 오래가는가?



시장은 도덕적 심판관인가

솔직하게 시작하자. 소비자 보이콧이 기업을 바꾼 역사는 많지 않다.

2018년 #DeleteFacebook. 케임브리지 애널리티카 스캔들 이후 해시태그가 터졌다. 단기 주가는 하락했다. 하지만 장기적으로 사용자 수에 큰 타격이 없었다. 대안이 없었기 때문이다. 2017년 #DeleteUber. 일주일 만에 20만 명이 계정을 삭제했다. 하지만 전체 사용자의 0.5%였다. 다만 이 경우에는 Lyft라는 대안이 있었고, Lyft 다운로드가 78% 급증했다. 2021년 WhatsApp 프라이버시 논란. Signal 다운로드가 1주일 만에 43배 증가했다. 4개월간 6,460만 건. 대안이 존재하고, 전환 비용이 낮을 때 보이콧은 작동한다.


Cancel ChatGPT 운동은 이 패턴에서 흥미로운 위치에 있다. 대안이 존재한다 — Claude, Gemini, 오픈소스 모델들. 전환 비용이 낮다 — 앱 하나 설치하면 된다. 보이콧이 작동할 수 있는 조건이 갖춰져 있다.

하지만 OpenAI의 규모를 보면 이야기가 달라진다. 2024년 중반 기준, ChatGPT Plus 개인 구독이 전체 ARR의 55.9%를 차지한다. 소비자가 매출의 절반 이상이라는 뜻이다. 이건 보이콧이 직접 타격을 줄 수 있다는 의미이기도 하다. 하지만 2025년 전체 ARR은 130억 달러를 넘었고, 2026년 2월 현재 소비자 유료 구독자만 5,000만 명이다. 기업 가치는 8,400억 달러. 수만 명의 이탈이 이 규모의 재무제표를 흔들 수 있을까. 단기적으로는 어렵다.


그렇다면 보이콧의 의미는 다른 곳에 있다. 노스웨스턴 대학의 연구는 이렇게 말한다. 보이콧의 직접적 매출 효과는 제한적이지만, 미디어의 주목을 끌면 기업 평판에 심각한 손상을 입히고 정책 변화를 압박하는 데 효과적이라고. 여론이 브랜드를 훼손하고, 브랜드 훼손이 인재 채용과 파트너십에 영향을 미치는 간접 경로. 이쪽이 더 현실적인 타격이다.


그리고 솔직한 질문 하나. 나도 이 글을 쓰면서 생각했다. Cancel ChatGPT에 동의하는 사람 중 몇 명이 실제로 삭제했을까. 시민으로서는 비판하지만, 노동자로서는 계속 쓰는 사람이 얼마나 될까. 나 자신도 여기서 자유롭지 않다.


그래도 이것은 짚을 수 있다. 올트먼이 내부 메모에서 "우리도 같은 레드라인을 가지고 있다"고 쓴 것. 이것이 의미하는 바를 생각해보자. Anthropic이 내건 원칙 — 대규모 감시 금지, 자율 무기 금지 — 을 OpenAI도 공유한다고 공개적으로 밝힌 것이다. 만약 이 원칙이 중요하지 않다면 굳이 언급할 이유가 없다. 올트먼이 이 메모를 쓴 것 자체가, Anthropic의 레드라인이 업계 표준이 되어가고 있다는 증거다. 쫓겨난 회사의 원칙이, 쫓겨나지 않은 회사의 공식 입장에 영향을 미치고 있다. Cancel ChatGPT의 의미는 구독 해지 수가 아니라, 이 상황을 만들었다는 데 있다.



이름의 유통기한

Open. 개방. 이 단어로 시작한 회사의 이력서를 다시 읽어보자.

2015년, 'Open'은 AI 연구의 개방을 의미했다. Google과 Facebook의 독점에 대한 견제. 2019년, 영리 법인으로 전환하면서 'Open'은 이미 이름 이상의 의미를 잃기 시작했다. 2024년 1월, 군사 금지 조항을 조용히 삭제하면서 'Open'은 더 이상 투명성을 의미하지 않았다. 2026년 2월, Anthropic이 쫓겨난 자리에 앉으면서 'Open'은 — 잘 모르겠다. 뭘 의미하는 거지?


원칙에는 유통기한이 있다. 이것은 OpenAI만의 문제가 아니다. 전작에서 쓴 것처럼, Google은 2018년에 직원 3,100명의 청원으로 AI 윤리 원칙을 만들었다가 7년 만에 핵심 조항을 삭제했다. OpenAI는 설립 취지에 '인류를 위한 AI'를 적었다가 10년이 채 되기 전에 국방부와 계약했다.


수츠케버가 떠났다. 레이케가 떠났다. 코코타일로가 지분을 포기하고 떠났다. 초지능 정렬팀이 해체됐다. 미션 정렬팀이 해체됐다. 그리고 남은 직원 중 60~70명이 경쟁사를 지지하는 서한에 서명했다. 각각의 이름 뒤에 같은 단어가 따라온다. 안전.


Cancel ChatGPT는 새로운 형태의 견제다. 소비자가 앱 삭제와 다운로드라는 가장 원시적인 방법으로 기업의 선택에 반응한 것이다. 이 운동이 지속될지는 조건에 달려 있다. 대안이 계속 경쟁력을 유지하는가. 감정이 습관으로 전환되는가. 떠난 사용자가 돌아올 이유가 없는가. #DeleteFacebook은 대안이 없어서 실패했다. Signal 전환은 대안이 있어서 일부 정착했다. Cancel ChatGPT에는 Claude와 Gemini가 있다. 조건은 이전보다 낫다. 결과는 아직 모른다.


다만 하나는 확인됐다. 올트먼이 "우리도 같은 레드라인을 가지고 있다"고 말해야 하는 세상이 됐다는 것. Anthropic이 그은 선이, 그 선을 거부하고 빈자리에 앉은 회사조차 공개적으로 인정해야 하는 기준이 됐다는 것. 쫓겨난 쪽의 원칙이, 앉은 쪽의 언어를 바꿨다.


견제가 시험받았을 때, 완전히 실패하지는 않았다. 다만 형태가 바뀌었다. 기업의 내부 원칙에서, 소비자의 외부 행동으로. 문서에 적힌 조항에서, 앱스토어 순위로.

이 형태가 충분한지는 아직 모른다. 하지만 'Open'이라는 이름이 원래 무엇을 의미했는지를 기억하는 사람이 있다면, 그 기억 자체가 하나의 견제다.

매거진의 이전글능력의 민주화 책임의 공백: AI가 연 잠기지 않은 문