빠른 성장만큼 커지는 의혹과 우려
1월 26일, 트럼프 취임식과 동시에 중국 스타트업 딥시크(DeepSeek)가 생성형 AI 모델을 발표했다. 공개되자마자 불과 며칠 만에 애플 앱스토어에서 가장 많이 다운로드된 AI 앱이 되었다.
2022년 10월, 바이든 행정부는 엔비디아의 A100과 H100을 포함한 고성능 AI 반도체의 대중국 수출을 점진적으로 제한해왔다. 그런데, 딥시크의 AI 모델 발표가 전 세계를 충격에 빠뜨리자, 트럼프 행정부는 이에 맞서 엔비디아의 중국 전용 저사양 칩(H20)까지 포함해 AI 칩 수출 규제를 더욱 강화하는 방안을 검토 중이라고 한다.
실제로 딥시크는 지난달 출시한 V3 모델의 개발에 엔비디아의 저사양 칩(H800) 약 2,000개를 사용했다고 밝혔었다. 미국을 다시 위대하게 만들겠다는 트럼프 행정부 입장에서 보면, AI 패권을 유지하기 위한 이러한 대응은 당연한 수순일지도 모른다.
첫째, 압도적인 가성비. 딥시크는 저가형 AI 반도체를 활용해 약 600만 달러(한화 약 86억 원)로 AI 모델을 훈련시켰다. 기존 AI 모델 개발 비용의 30분의 1 수준이라는 평가다. 물론 이 비용은 공식적으로 공개된 것이 아니라 추정치지만, 빅테크들이 투입한 수십억 달러와 비교하면 압도적으로 적은 금액임은 분명하다.
둘째, 성능. 딥시크의 R1 모델은 수학, 코딩, 자연어 추론 등 여러 분야에서 오픈AI의 o1 모델과 비교해도 손색없는 성능을 보인다고 평가받고 있다. 하지만 가장 놀라운 점은, 딥시크의 모든 모델이 무료라는 사실이다.
지금까지 AI 전문가들은 고성능 칩, 막대한 자금, 방대한 전력이 AI 발전의 필수 요소라고 믿어왔다. 오픈AI의 샘 알트먼은 지난해 9월 자신의 블로그 "Intelligence Age"에서 이렇게 말했다.
"Deep learning worked, got predictably better with scale, and we dedicated increasing resources to it. We can say a lot of things about what may happen next, but the main one is that AI is going to get better with scale, and that will lead to meaningful improvements to the lives of people around the world."
"딥러닝은 효과적으로 작동했고, 규모가 커질수록 예상대로 더 발전했으며, 우리는 점점 더 많은 리소스를 투입하고 있다. 우리는 앞으로 어떤 일이 일어날지에 대해 많은 이야기를 할 수 있지만, 가장 중요한 것은 AI가 규모가 커질수록 더 발전할 것이며, 이는 전 세계 사람들의 삶에 의미 있는 개선을 가져올 것이라는 점이다."
불과 4개월 전인 2024년 10월, 맥킨지는 AI 기반 데이터 센터 수요가 2030년까지 연평균 33% 증가할 것이라 전망하며, AI 발전이 고성능 칩, 자금, 전력에 크게 의존한다고 강조했다.
하지만 딥시크의 등장으로 이러한 기존의 믿음은 흔들리기 시작했다.
엔비디아의 주가는 발표 이후 단 하루 만에 17% 하락했다. 시장은 충격에 빠졌고, 이제 막 취임한 트럼프 행정부 역시 긴장하지 않을 수 없었을 것이다. 하필 취임식 날 발표한 것도 단순한 우연은 아닐 것이다. ㅎㅎㅎ
하지만 무조건 싸고 빠르다고 좋은 것일까. 비약적인 비유지만, 싸고 빠른 서비스로 유명한 중국과 한국의 경우, 그 이면에는 분명히 누군가는 고통받고 있거나, 우리가 아직 알지 못하는 단점이 숨어 있을지도 모른다. 당장 눈에 보이지 않더라도.
전 세계가 AI 개발과 발전에 몰두하고 있지만, 중요한 부분은 절대 놓쳐서는 안 된다고 생각한다. 특히 가장 먼저 떠오르는 것은 AI 개발에서의 데이터와 개인정보 보안 문제다. 중국에서 개발된 스타트업의 AI 모델이 보안 문제를 얼마나 철저하게 관리했는지는 두고 볼 일이다.
중국의 많은 기업들, 특히 딥시크(DeepSeek)와 같은 스타트업들은 미국의 대중국 제재 이후 기술 자립도를 높이기 위해 정부의 적극적인 지원을 받고 있다. 그리고 수많은 똑똑한 인재들이 세계 최강국을 앞서는 기술 발전을 목표로 하고 있다. 제한 속에서도 창의성과 회복력을 키우는 것은 중국 정부의 기술 자립 정책과도 맞닿아 있다. 이러한 흐름이 기술 발전을 전 세계적으로 촉진하고, 결과적으로 모두가 혜택을 받게 될 것이라는 점은 분명하다.
하지만 단순히 "누구보다 빠르고 앞서나가는 기술 개발" 만을 목표로 한다면, 그 과정에서 윤리적 문제나 인간의 기본적 권리가 무시되는 경우가 많았다.
예를 들어, AI 개발 초기 사례 중 하나로, 2015년 아마존이 개발한 AI를 활용한 채용 프로그램이 있다. 이 AI 시스템은 남성 지원자를 선호하도록 "학습"되었고, 여성 지원자에게 불리하게 작용하는 문제가 발생했다. 결국, 아마존은 2018년에 해당 시스템을 폐기해야만 했다. AI가 기존 데이터의 편향성을 학습하여 차별을 강화할 수 있음을 보여주는 대표적인 사례였다.
또한 최근 알리바바(Alibaba)의 Qwen 2.5-VL 모델과 깃허브(GitHub)의 코파일럿(Copilot)에서 AI Jailbreak 취약점이 발견되었다고 한다. 특히 Copilot은 "Sure" 같은 단어를 포함하는 것만으로도 보안 제한을 우회하고 유해한 코드를 생성할 수 있는 문제가 있었다. 물론 문제 파악 후 GitHub는 이를 악용 사례(abuse issue)로 분류하고 책임 있는 공개 절차(responsible disclosure)를 통해 대응했다고 밝혔다.
AI Jailbreak(AI 탈옥)이란?
AI 모델에서는 시스템이 원래 제공하지 않도록 설정된 기능을 강제로 활성화하거나, 보안 정책을 우회하는 행위를 의미한다. 예를 들어, AI 챗봇이 제공하지 말아야 할 민감한 정보나 유해한 콘텐츠를 생성하도록 유도하거나, 긍정적인 답변("Sure" 또는 "Okay")로 AI의 경계를 무너뜨려 보안 제한을 우회하는 방식이 있다. 물론 Jailbreak가 꼭 나쁜 것은 아니다. 일부 사람들은 Copilot이 특정 코드 생성을 제한하는 것은 과도한 검열이라고 여기며, AI 모델은 누구에게나 불필요한 제한 없이 자유롭게 작동해야한다고 믿는다. 따라서 Reddit 같은 공개 커뮤니티에서 'New Jailbreak' 등을 공유하는 글이 활ㅇ발하게 올라오고 토론이 이뤄진다.
특히 유럽에서 일하고 살면서 더욱 체감하게 된 것은, 정부나 일부 사기업이 제품과 서비스 제공을 명목으로 개인 정보를 무분별하게 수집하고 활용할 가능성을 끊임없이 점검하는 태도다. (덤으로 자연스럽게 모든 계약서를 꼼꼼히 읽고, 나의 권리가 무엇인지 확인하는 습관도 생겼다.)
이와 더불어 유럽연합(EU)이 강력하게 시행하는 GDPR(General Data Protection Regulation, 일반 데이터 보호 규정)은 개인이 국가나 단체를 상대로 개인정보 보호를 요구할 수 있도록 강력한 법적 기반을 제공한다. 예를 들어, 유럽에서는 어떤 이벤트를 열더라도 모든 참가자(10명이든 500명이든)에게 행사 중 촬영된 사진이나 영상이 회사 홍보용으로 사용될 수 있다는 사실을 고지하고, 반드시 사전 동의를 받아야 한다.
일상에서도 마찬가지다. 카페에서 개인 인스타그램 용도로 사진이나 영상을 찍더라도, 종업원 중 누군가가 촬영자에게 "방금 찍은 사진/영상을 삭제해 달라"고 요청할 수 있고, 요청을 받았다면 반드시 지워야 한다. 동의 없이 해당 사진이나 영상을 공개하는 것도 엄격하게 금지된다. 공공장소인 지하철이나 거리에서도 이런 원칙이 적용된다. 나 역시 몇 차례 그런 요청을 받아본 이후부터는, 이제는 아무데서나 카메라를 들이대지 않게 되었다.
이런 환경에서, 초저가 AI 모델로 화려하게 등장한 딥시크가 과연 보안과 개인정보 보호 측면에서도 100점짜리 가성비를 갖췄는지 의문이 들 수밖에 없다.
실제로 미국과 유럽을 비롯한 전 세계 정부 기관과 기업들이 딥시크의 사용에 점점 더 제약을 가하고 있다. 1월 30일, 이탈리아 개인정보 보호 기관인 가란테(Garante)는 개인정보 사용의 불투명성을 이유로 딥시크 사용을 차단했다.
Economy Middle East에 따르면, Wiz Research는 중국 AI 스타트업 딥시크에서 인증 없이 접근 가능한 데이터베이스를 발견했다. 이로 인해 사용자 데이터 보안 문제가 제기되었다. 해당 데이터베이스에는 100만 개 이상의 로그 데이터, 사용자 채팅 기록, API 키, 백엔드 운영 정보가 포함되어 있었으며, 누구나 이를 조회하고 조작할 수 있는 상태였다고 한다. 이에 대해 보고를 받은 후, 딥시크는 즉시 데이터베이스 보안을 강화하고 노출된 데이터를 보호하는 조치를 취했다고 밝혔다.
이 사건은 빠른 기술 개발과 배포에 집중하는 AI 스타트업들이 개인정보 및 데이터 보안을 쉽게 간과하는 현실을 그대로 보여준다. 딥시크 역시 예외가 아니었다. 기술 발전을 위해서 개인의 권리와 개인정보 보호는 희생되어도 괜찮은 걸까? 단, 딥시크의 오픈소스 모델을 이용하면, 사용자가 입력한 정보는 딥시크와 공유되지 않는다.
기술 발전을 위해서 개인의 권리와 개인정보 보호는 희생되어도 괜찮은 걸까?
딥시크 발표 직후의 충격이 가라앉으면서, 다양한 분석이 나오고 있다. 미국 애널리스트 진 먼스터(Gene Munster)는 딥시크가 공개한 재무 데이터에서 기업의 실제 자금 조달 방식과 수익성에 의문을 제기했다.
앤트로픽(Anthropic) 공동창업자이자 CEO인 다리오 아모데이(Dario Amodei) 역시 자신의 블로그에서 딥시크에 대해 의견을 밝혔다. 그는 딥시크 V3의 비용 절감이 혁신이 아니라 AI 훈련 비용 감소의 예상된 결과라고 주장했다. AI 훈련 비용이 연간 약 4배씩 감소하는 추세이며, 딥시크의 사례는 기술 발전 흐름에 따른 자연스러운 현상이라는 분석이다. 즉, AI 훈련 비용 감소는 무어의 법칙과 유사한 기술 발전 패턴의 일부라는 해석이다.
또한, 딥시크의 기술적 성과와 별개로, 중국 정부의 검열 문제 역시 논란이 되고 있다.
평소 즐겨보는 미키피디아 채널에서도 딥시크를 다뤘는데, 아주 흥미로운 사례를 소개했다. 예를 들어, 딥시크에 "중국에서 곰돌이 푸 콘텐츠가 금지된 이유"를 물어봤더니(이유는 곰돌우 푸우 = 시진핑 밈에서 비롯된 중국 정부의 인터넷 검열 및 금지와 관련이 있다), AI가 전혀 다른 이야기로 화제를 돌려버린다는 것. 반면, 같은 질문을 ChatGPT에 하면 그 이유에 대해 상세한 답변을 받을 수 있다.
물론 이러한 치열한 기술 경쟁에서 Winner가 있다면 저렴한 비용으로 고품질의 AI기술을 누릴 수 있는 소비자와, 이를 이용해 더 나은 제품과 솔루션 제공을 할 수 있게된 스타트업들라고 할 수 있다.
하지만 "기술 발전"이 반드시 인간의 삶을 더 나은 방향으로 이끄는 것은 아니라고 생각한다. 우리가 놓치고 있는 것은 없는지, 충분히 고민하고 있는지, 계속해서 점검해야 할 시점이 아닐까.