brunch

You can make anything
by writing

C.S.Lewis

AI의 비약적 발전과 사회적 신뢰의 필요성

AI의 비약적 발전과 사회적 신뢰의 필요성


세계태권도평화연맹

글로벌교육본부장 이현우 교수


최근 AI 기술의 발전 속도는 가히 혁명적이다. 비영리 연구 기관인 에포크 AI의 보고서에 따르면, 현재의 추세가 지속된다면 2030년에는 AI 모델의 규모가 지금의 1만 배로 확장될 수 있다고 한다. 이러한 예측은 우리 사회가 앞으로 마주하게 될 기회와 도전에 대해 깊은 성찰을 요구한다.


우선, AI 확장의 가장 큰 제약 요소로 전력이 지목되었다. 메타의 최신 모델인 '라마 3'는 엔비디아 칩 1만6,000개를 사용해 27메가와트의 전력을 소비하며 학습되었다. 이는 미국 2만3,000가구의 연간 전력 소비량에 해당한다. 전력 효율이 향상되더라도, 2030년 프론티어 모델을 훈련하려면 현재보다 200배 많은 6기가와트의 전력이 필요할 것으로 예상된다. 이는 현재 전체 데이터센터에서 소비하는 전력의 30%에 달하는 수치다.


이러한 전력 수요를 충족하기 위해서는 여러 데이터센터에 학습을 분산하는 방법이 고려되고 있다. 그러나 이 방법도 빠른 속도의 고대역폭 파이버 연결이 필요하며, 전력 공급 역시 여전히 큰 과제로 남아 있다. 전력 공급의 한계는 AI 칩의 증가 속도를 따라가지 못할 수 있으며, 이는 AI 모델의 확장에 병목 현상을 일으킬 수 있다.


데이터의 고갈 역시 중요한 이슈로 떠오르고 있다. 현재 성장률로는 5년 안에 양질의 텍스트 데이터가 바닥날 것으로 예측되며, 저작권 소송 등 법적 문제도 데이터 수급에 불확실성을 더하고 있다. 합성 데이터와 멀티모달 데이터의 활용이 대안으로 제시되고 있지만, 이 역시 생성 비용과 품질의 문제가 남아 있다.


그럼에도 불구하고, 에포크 AI는 이러한 제약 조건들이 2030년까지 AI 모델의 확장을 완전히 막지는 못할 것으로 보고 있다. 실제로 AI 모델은 GPT-4보다 최대 1만 배 이상의 컴퓨팅 파워를 활용하여 학습될 수 있을 것으로 예상된다. 이는 우리가 지금까지 경험하지 못한 수준의 AI 능력을 의미하며, 사회 전반에 걸쳐 큰 변화를 가져올 수 있다.


하지만 여기에서 우리가 간과해서는 안 되는 중요한 요소가 있다. 바로 이러한 발전이 가능하려면 투자가 수익을 훨씬 앞서는 현재의 분위기가 지속될 만한 사회적 신뢰가 필요하다는 점이다. 막대한 전력 소비와 데이터 활용, 그리고 인프라 구축에 필요한 자본은 단순히 경제적 논리만으로는 충족될 수 없다. 투자자들과 사회 구성원들이 장기적인 비전을 공유하고, 단기적인 수익보다는 미래의 가능성에 무게를 두어야만 이러한 혁신이 현실화될 수 있다.


또한, AI 기술의 발전은 윤리적, 사회적 문제와도 직결된다. 데이터 프라이버시, 알고리즘의 편향성, 노동 시장의 변화 등 해결해야 할 과제들이 산적해 있다. 이러한 문제들을 투명하고 책임감 있게 다루지 않는다면, 사회적 신뢰는 물론이고 기술 발전 자체도 큰 걸림돌에 부딪힐 수 있다.


결국, AI의 비약적인 발전은 기술적인 가능성뿐만 아니라 사회 전체의 협력과 신뢰에 달려 있다. 우리는 지금 이 순간부터 이러한 변화에 대비하고, 미래를 향한 투자를 지속할 수 있는 환경을 조성해야 한다. 이것이야말로 AI 시대를 선도하는 길이며, 우리 모두가 함께 만들어가야 할 새로운 패러다임이다.




참고문헌


• Epoch AI. (2023). Scaling Laws and Computational Limits in AI. Retrieved from https://epochai.org/scaling-laws


• Meta AI. (2023). LLaMA 3: Advancements in Large Language Models. Meta Research Blog. Retrieved from https://ai.facebook.com/blog/llama-3


• NVIDIA Corporation. (2023). High-Performance Computing with GPUs. Retrieved from https://www.nvidia.com/en-us/data-center/hpc-solutions


• OpenAI. (2023). GPT-4 Technical Report. Retrieved from https://openai.com/research/gpt-4


• Google AI. (2023). Gemini Ultra: Pushing the Boundaries of AI Training. Google AI Blog. Retrieved from https://ai.googleblog.com/2023/05/gemini-ultra.html


• Thompson, N. C., Greenewald, K., Lee, K., & Manso, G. F. (2020). The Computational Limits of Deep Learning. arXiv preprint arXiv:2007.05558.


• Sharir, O., Peleg, B., & Shoham, Y. (2020). The Cost of Training NLP Models: A Concise Overview. arXiv preprint arXiv:2004.08900.


• National Renewable Energy Laboratory. (2022). Data Center Power Consumption Trends. Retrieved from https://www.nrel.gov/docs/fy22osti/78990.pdf


• Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and Policy Considerations for Deep Learning in NLP. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (pp. 3645–3650).


• Hao, K. (2019). Training a Single AI Model Can Emit as Much Carbon as Five Cars in Their Lifetimes. MIT Technology Review. Retrieved from https://www.technologyreview.com/2019/06/06/239031/training-a-single-ai-model-can-emit-as-much-carbon-as-five-cars-in-their-lifetimes

브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari