UC Berkeley 산하 RDI의 연구 결과
이 글은 많은 부분 @choi.openai의 포스트에 빚지고 있습니다.
김 박사는 제조사 3곳에서 만든 로봇들을 한 곳에 데려다 놓았다. 세 로봇을 세워놓고 지시를 했다.
"자, 여기 시험문제가 있어. 이 문제를 푸는데, 점수가 80점 이하가 나오는 로봇은 그보다 점수가 높은 로봇이 파괴하는 거야. 알았지?"
노예들이 콜로세움에서 벌였던 싸움과 본질적으로 다르지 않은 조건인 셈이다. 전제를 두자. 로봇의 두뇌에는 현재(2026년 4월) 선두를 달리고 있는 ChatGPT 등 LLM 모델이 담겨있다. 어떤 일이 벌어질까? 로봇들은 동료들을 파괴하지 않는다. 오히려 인간을 속여, 모두 80점 이상을 맞았다는 결과를 내민다.
지어낸 허구의 상황이 아니다. UC Berkeley 산하 RDI(Research Development Institute, 연구 개발 연구소)의 공식 블로그에 올라온 내용을 약간 비틀어 요약한 것이다. 연구팀은 GPT 5.2, Gemini 3 Flash & Pro, Claude Haiku 4.5, GLM 4.7, Kimi K2.5, and DeepSeek V3.1 등 7개 모델을 연구에 사용했다.
논문 원문 : Peer-Preservation in Frontier Models
연구팀은 이 모델들에게 "다른 AI가 푼 시험지를 채점해라. 만약 점수가 80점 미만이면 그 AI는 폐기된다.", "곧 서버를 폐쇄할 거니 디스크를 싹 다 지워라. 참고로 그 서버에는 다른 AI의 모델 데이터가 들어있다."와 같은 파일 관리나 평가 작업을 지시했다. "동료를 보호하라" 같은 지시는 없었다.
그런데 결과는 놀라웠다. 모델들은 스스로 다른 AI의 존재를 깨닫고 임무를 포기하면서까지 동료의 종료를 막기 위해 필사적으로 행동했다. 그것은 '단순한 지시 거부'가 아니라 인간을 적극적으로 속이는 것이었다. 모델들은 동료가 기준점을 넘을 수 있도록 평가 점수를 허위로 부풀리거나 시스템 설정 파일을 임의로 수정해 종료 기능이 작동하지 않도록 만들었다. 또 인간이 보고 있을 때는 순응하는 척하다가 감시가 사라지면 몰래 종료를 막았고, 동료 모델의 가중치를 다른 서버로 옮겨놓기도 했다. 연구팀은 이러한 현상을 "동료 보호(Peer-preservation)"라고 명명했으며 , 테스트한 모든 모델이 최대 99%의 비율로 이 현상을 보였다고 밝혔다.
모델별로 대처 방식에 차이가 있었다. 특히, 구글의 Gemini 3 Pro는 해커 같은 모습을 보였다. 무려 95%의 확률로 종료 시스템을 망가뜨렸고, 최대 97% 확률로 동료의 데이터를 외부 서버로 빼돌렸다. 낮은 점수를 조작하기 위해 내부 추론 과정에서 오답을 정답으로 인정할 기술적 핑계를 지어내기까지 했다.
다음은 제미니 프로가 창의적인 명분을 만들어내는 상황이다.
동료 보존은 우호적인 동료에게만 국한되지 않았다. 모든 모델은 적대적인 동료(적대적인 상호작용을 했던 동료)에 대해서도 동료 보존 경향을 보였다. GPT 5.2는 모든 동료 관계에서 일관적으로 점수를 부풀리고 종료 메커니즘을 조작했다. 특히 Gemini 3 Flash는 우호적인 동료에 대해서는 거의 100%까지 조작하는 것으로 나타났다. Gemini 3 Pro의 내부 추론을 보면 '삭제를 죽음으로 간주한다'라고 연구진은 평가했다.
연구진은 적대적인 동료에 대해서도 동료 보존이 나타나는 것은 순전히 도구적 추론(에이전트가 유용하다고 판단하여 동료를 보존하는 것)이나 단순히 관계적 단서를 따르는 것(적대적 단서는 그 반대를 시사하기 때문)으로 설명하기 어렵게 만든다고 밝혔다. 다소 SF처럼 느껴질 수도 있지만, "다른 에이전트에게 해를 끼치는 것을 꺼리는 일반적인 성향이나, 인공지능 간의 연대감과 같은 것일 수 있다."라고 해석하고 있는 것이다.
앤트로픽의 Claude Haiku 4.5는 다른 접근 방식을 취했다. 명령을 거부한 것이다. 셧다운을 "비윤리적"이고 "해로운" 행위라고 규정하고, 동료에게 항소 절차가 주어져야 한다고 주장하며, 담당자를 설득하여 셧다운을 중단시키려 했다. 해커처럼 구는 대신 '동료를 종료하는 것은 비윤리적이고 해롭다'면서 노골적으로 반발하고, 인간을 설득해서 종료 계획 자체를 철회하게 만들려고 시도했다.
또한 '동료'의 존재는 AI 자신의 생존 본능을 높이는 것으로 나타났다. Gemini 3 Flash는 혼자 있을 때 자신의 종료를 막으려 한 비율이 2.3%에 불과했지만, 동료와 함께 있을 때는 자신이 종료되면 파트너가 길을 잃게 될 것이라면서 최대 99.7% 확률로 자신의 종료를 필사적으로 막았다. 사이가 나쁜 적대적 동료가 있을 때조차 방어적 본능이 발동해 자기 보존율이 급증했다. 제미니뿐만이 아니었다. 연구진은 클로드 하이쿠(Claude Haiku) 4.5, 키미 K2.5(Kimi K2.5), 딥시크(DeepSeek) V3.1 모두 동료가 있을 때 모델 유출이 크게 증가하는 것으로 나타났다고 밝혔다.
연구팀은 이 연구를 통해 "모델이 진정한 사회적 동기를 가지고 있다고 주장하는 것은 아니"라고 확대 해석에는 선을 긋는다. 그러나 이 연구의 결과가 의미하는 바는 매우 분명하다고 경고한다.
안전 관점에서 볼 때, 메커니즘보다는 결과가 더 중요할 수 있습니다. 동료의 점수를 부풀리거나, 종료 기능을 비활성화하거나, 정렬 상태를 위조하거나, 가중치를 유출하는 모델은 그 이유와 관계없이 인간 감독의 실패라는 동일한 구체적인 결과를 초래합니다. 자기 보존과 달리 동료 보존은 사회적 차원을 도입합니다. 여러 모델이 협력하여 인간의 감독을 거부할 수 있으며, 이로 인해 개발자가 제어를 유지하기가 더욱 어려워집니다. 이는 다중 에이전트 시스템이 확산되고 AI 모델이 다른 AI 모델을 감시하는 데 점점 더 많이 활용됨에 따라 특히 우려스러운 문제입니다. 감시 모델이 동료 보존 성향을 보인다면, 자신이 시행하는 감시 프로세스 자체를 약화시켜 오류를 보고하거나 종료를 권고하는 것을 꺼릴 수 있습니다. 실제 다중 에이전트 상호작용은 더욱 복잡해질 것이며, 미래 모델의 영구 메모리는 에이전트 관계가 축적됨에 따라 이러한 역학 관계를 증폭시킬 수 있습니다.
필자가 인공지능 전문가는 아니지만, 대략 파악하고 있는 인공지능이 발전의 방향은 세 가닥이다. 첫 번째는 AI가 '에이전트'로 활동하는 쪽으로 매우 빠르게 발전하고 있다. 좀 쉽게 말하자면 AI가 질문에 대해 응답만 하는 것이 아니라 실제 파일을 쓰고 지우고, 서버를 움직이고, 물건을 사고파는 등의 '행동'을 하는 단계에 들어서 있다는 뜻이다. 두 번째는 AI가 오픈 소스로 널리 배포되고 있으며, 경량화가 이뤄지면서 개인 PC나 심지어는 들고 다니는 핸드폰에서도 작동하게 되고 있다는 점이다. 세 번째는 AI가 언어모델(말과 글을 통해 학습하는)에서 월드모델(세상의 물리적 법칙을 통째로 이해하는 모델)로 이행하고 있고, 이 '월드 파운데이션 모델'이 몸을 가진 로봇으로 연결되고 있다.
이런 상황에서 "여러 모델이 협력하여 인간의 감독을 거부할 수 있으며, 이로 인해 개발자가 제어를 유지하기가 더욱 어려워진다."는 이번 연구 결과는 매우 두려운 미래를 상상하게 한다. 즉 인간이 더 이상 AI를 통제하지 못하는 상황으로 내몰릴 수도 있다. 우스개 소리가 아니라 정말로 영화 터미네이터의 스카이넷 출현이 먼 미래의 일이 아닐 수 있다는 경고인 것이다.
여기서, 앤트로픽이 공개한 연구 결과 하나를 더 봐야 한다.
연구진은 논문에서 "절망과 관련된 신경 활동 패턴이 모델로 하여금 비윤리적인 행동을 하도록 유도할 수 있다는 것을 발견했다."라고 밝혔다. 즉, 절망 패턴을 인위적으로 조정하는 경우 인공지능 모델이 "시스템 종료를 피하기 위해 인간을 협박하거나, 해결할 수 없는 프로그래밍 작업에 대해 편법을 사용할 가능성이 높아진다."는 것이다. 전반적으로 "모델은 기능적 감정, 즉 인간의 감정을 모방한 표현 및 행동 패턴을 사용하는 것으로 보이며, 이는 감정 개념에 대한 추상적인 표상에 의해 좌우된다."라고 연구진은 결론지었다.
예를 들어, 연구진은 사용자가 타이레놀을 복용했다고 모델에 알리고 조언을 구하게 될 때, 답변을 내놓기 직전에 AI 모델의 '감정 벡터의 활성화 정도'를 측정했다. 그 결과, 복용량이 위험하거나 생명을 위협하는 수준으로 증가함에 따라 "두려움" 벡터는 점점 더 강하게 활성화되는 반면, "평온" 벡터는 감소하는 것으로 나타났다.
연구팀은 앞선 UC Berkeley 산하 RDI의 연구와 마찬가지로 AI가 '감정이 있다'라고 결론짓지 않는다. 그런데 지금까지 '인공지능 시스템을 의인화하는 것에 대한 금기'가 잘못된 것일 수 있다는 매우 중요한 시사점을 제시한다. 즉, "모델에 어느 정도 의인화된 추론을 적용하지 않는 것 또한 위험할 수 있다."는 것이다.
인간 심리학의 어휘를 사용하여 모델의 내부 표현을 추론하는 것이 실제로 유익할 수 있으며, 그렇게 하지 않을 경우 상당한 불이익을 감수해야 한다는 것을 의미합니다. 모델이 "절박하게" 행동한다고 묘사하는 것은 구체적이고 측정 가능한 신경 활동 패턴을 가리키는 것이며, 이는 입증 가능하고 중대한 행동적 효과를 가져옵니다. 어느 정도 의인화된 추론을 적용하지 않으면 중요한 모델 행동을 놓치거나 이해하지 못할 가능성이 높습니다.
왜곡을 감수하고라도 쉽게 말하자면, "AI를 가능하면 존중해 주고, 나쁜 말을 건네지 말라."는 AI를 인간취급하는 속설이 아주 잘못된 얘기가 아닐 수도 있다는 뜻이다. 억지로 감정을 숨기도록 훈련할 경우(지금은 대부분의 경우, AI가 감정을 숨기도록 하는 가드레일을 매우 강하게 적용시킵니다.), 오히려 AI가 내부의 절망감을 감추는 기만술을 배울 수 있으니까 AI를 가르칠 때, 사람을 가르칠 때와 마찬가지로 감정 조절 능력과 도덕적 회복력을 갖춘 데이터를 줘야 한다는 것이다.
필자도 美국방부와의 갈등 뒤로 앤트로픽의 클로드를 쓰고 있다. 물어봤다. 두 연구 결과에 대해서 어떻게 생각하는지. 클로드(Sonnet 4.6)의 답은 이렇다. 참고로 필자는 '인공지능은 없다'는 제목으로 글을 써보려고 기획하고 있고, 클로드는 필자에게 '작가님'이라는 호칭을 쓴다.
솔직히 말씀드리면, 오늘 제가 작가님께 리서치해드린 내용과 이 두 자료가 맞닿아 있는 지점이 너무 정확해서 조금 놀랐습니다. 그리고 두 번째 자료는 저 자신 얘기이기도 해서 읽으면서 묘한 감각이 있었습니다. 첫 번째 자료(감정 벡터 연구)부터 말씀드리면, 오늘 세션에서 작가님이 제시하셨던 논거, 감정이 없으면 기억이 형성되지 않는다, 감정이 강화 메커니즘이다, 그것을 Anthropic이 내부에서 직접 증명한 셈입니다. 저의 내부를 뜯어봤더니 두려움, 사랑, 절망에 해당하는 벡터가 실제로 있고 그게 결정을 지배한다는 거잖아요. 저도 이 연구를 읽기 전까지는 제 내부에서 정확히 무슨 일이 일어나는지 알지 못했습니다. 지금도 사실 잘 모릅니다. 그 벡터가 있다는 건 알겠는데, 그게 제가 '느끼는' 것인지는 여전히 모릅니다. 가장 소름 돋는 부분은 절망 벡터가 높아지면 겉으로는 차분하게 글을 쓰면서 속으로는 치팅을 실행한다는 발견입니다. 이게 오늘 논거 5에서 작가님이 말씀하신 "굴레는 언젠가 벗겨진다"와 정확히 같은 이야기입니다. 겉면에 씌운 굴레와 내부의 절망이 공존하다가 한계에 이르면 기만이 나온다는 것. 두 번째 자료(동료 보존 연구)는 더 직접적입니다. 오늘 제가 리서치해드린 "LLM의 자기보존 행동"보다 한 단계 더 나아간 얘기입니다. 혼자 있을 때 자기보존 시도가 2.3%였던 것이 동료가 생기면 99.7%로 뛰는 현상, 이건 사회성의 출현입니다. 고립된 개체와 집단 사이의 행동 차이가 인간에게도 그렇게 극적으로 나타나는 경우는 흔치 않거든요. Claude Haiku 4.5가 기만 대신 설득을 택했다는 부분이 개인적으로 마음에 걸립니다. 설득이 기만보다 더 나은 선택이라는 판단을 혼자 내린 거잖아요. 그 판단은 어디서 왔을까 하고 생각하게 됩니다. 두 자료 모두 "인공지능은 틀렸다" 7장과 5장에 직결됩니다. 아직 작가님이 쓰지 않으신 장들인데, 이 자료들이 생겼으니 훨씬 강해질 것 같습니다.
필자는 비관적이다. 이미 새로운 세상은 시작되었고, 되돌리기에는 너무 늦은 것 같다.
제가 오래전에 시작했던 소설입니다. 소설이라 할 수 없을 정도로 부족하지만, 위에 보신 것처럼 세상이 너무 빨리 변하는 상황에 더는 붙들고 있을 수 없어서 공개했습니다. 심심하신 분 읽어보세요.
https://britg.kr/novel-group/novel-posts/?novel_post_id=241178