인간보다 더 많이 숨 쉬는 기계들
“기계가 더 똑똑해질수록, 우리가 더 많은 공기를 내어줘야 한다면?”
Stanford AI Index Report 2025는 한 줄의 숫자로 우리를 멈춰 세웁니다.
“Meta의 LLaMA 3.1 (405B 파라미터)은 학습에만 8,930톤의 탄소를 배출했다.”
이게 얼마나 큰 수치냐고요? 미국 성인 1명이 1년간 배출하는 평균 탄소량이 약 18톤이라는 걸 감안하면, 약 500년치에 해당합니다.
많은 사람들은 ChatGPT의 똑똑함에 놀라고, Midjourney의 이미지를 즐깁니다.
하지만 그 놀라움의 이면에는 수천 개의 GPU가 밤낮없이 돌아가는 데이터 센터의 열기가 있습니다. AI는 ‘클라우드’에 있는 게 아니라, 강물 옆 전력소 옆, 땅 위 서버실에 존재합니다.
보고서에 따르면, 대형 모델들은 대부분 공개되지 않은 탄소 배출량을 감추고 있으며,
이 수치를 공개하는 기업조차 드뭅니다.
탄소 발생량을 명시한 모델은 여전히 소수입니다.
데이터가 없으면 문제도 없는 걸까요?
AI 모델은 이제 MMLU 점수나 HumanEval 정확도 같은 성능 지표로 경쟁합니다. 하지만 ‘탄소 효율성’은 지표에 없습니다. 누구도 “이 모델은 어느 나라 전기를 얼마나 써서, 얼마나 많은 이산화탄소를 배출했는가?”라는 질문을 묻지 않습니다.
예컨대, 한 모델이 2점 더 높은 정확도를 보여주기 위해 10배의 에너지를 썼다면, 그것은 ‘성능 개선’일까요, ‘비용 낭비’일까요?
보고서에는 이런 경고도 담겨 있습니다.
기술적 성능만으로 AI를 판단하는 시대는 이제 끝나야 한다고요.
저는 이 장을 읽으며 이런 상상을 해봤습니다.
“AI 모델 하나를 학습시킬 때마다, 북극 얼음이 0.000001mm씩 녹고 있다면 우리는 멈출 수 있을까?”
물론 기술은 발전해야 합니다. 하지만 문제는 속도입니다.
더 많은 연산, 더 정교한 모델을 위해 사람이 아닌 환경이 대가를 치르고 있습니다.
그리고 이 대가를 치르는 사람은 누구일까요?
대부분은 에너지 인프라가 열악한 국가에 데이터 센터가 들어섭니다.
AI가 만들어내는 '온실가스'는 개발도상국의 공기로 희석되고 있다는 뜻입니다.
성능을 높이기 위해 얼마만큼의 탄소를 허용할 수 있나요?
기후위기와 AI 성능경쟁, 어디까지 같이 갈 수 있을까요?
“잘 돌아가는 모델”이 아니라, “지속가능한 모델”이라는 평가는 누가, 어떻게 내려야 할까요?
AI는 더 똑똑해지고 있습니다.
하지만 우리가 진짜 지혜로워지려면, “언제까지 이 속도로 갈 것인가”를 되물어야 합니다.
지금 우리가 필요한 건 빠른 모델이 아니라, 숨 쉴 수 있는 미래일지도 모릅니다.