AI와 미래 사회
국가 간 인공지능(AI) 경쟁이 본격화되고 있다. 미국은 빅테크 중심의 민간 주도 AI 개발을 이어가고 있다. 중국은 겉으로는 민간 중심처럼 보이지만, 실제로는 정부의 강한 개입 아래 운영되고 있다. 다른 국가들 역시 이 둘 모델 중 하나의 길을 따를 가능성이 크다. 그렇다면 미국식 AI와 중국식 AI는 어떤 점에서 다를까?
※ 본 글에서는 LLM(Large Language Model) 기반 AI를 중심으로 논의를 진행한다.
LLM 기반 AI는 대량의 데이터를 딥러닝으로 학습해, 확률적으로 가장 적절한 답을 예측한다. 같은 질문에도 서로 다른 답변을 내놓는 이유다. 대표적인 예가 바로 챗GPT(ChatGPT)다. 반면, 중국에서 개발된 딥시크(DeepSeek)에는 한 가지 다른 점이 있다.
BBC가 딥시크에게 천안문 사태에 대해 질문하자, “죄송합니다, 그 질문에 대해선 답할 수 없습니다. 저는 유익하고 무해한 답을 하도록 설계되어 있습니다.”라고 응답했다. 또한, 대만이나 독도를 중국의 영토로 언급하기도 했다.
이는 공산주의 체제의 AI가 데이터 수집 단계에서부터 답변을 하는 과정까지, 국가의 검열과 필터링이 개입될 가능성을 보여준다. 특정 정보가 학습되지 않거나, 수정된 형태로 입력된다면 AI의 답변을 통제할 수 있다.
자본주의 체제에서 개발된 AI라고 해서 문제가 없는 것도 아니다. 예를 들어, 포털 사이트에서 ‘검색 상위’에 광고 콘텐츠가 배치되는 것을 보듯, 자본주의 AI 역시 상업적 이해관계에 따라 답변이 유도될 가능성이 있다.
가령 코카콜라가 AI 개발사를 후원하거나 협력한다면, “점심 메뉴를 추천해달라”는 질문에 AI는 자연스럽게 코카콜라를 함께 추천할 수 있다. 이는 사용자가 인식하지 못하는 사이, 자본의 의지가 알고리즘에 반영되는 형태로 나타날 수 있다.
AI 통제의 수준과 방향성
앞으로 AI는 두 가지 방향으로 나아갈 수 있다. 하나는 특정 정보를 제거하거나 검열하는 ‘통제형 AI’, 다른 하나는 특정 정보를 더 눈에 띄게 보여주는 ‘우선 제시형 AI’다. 둘 모두 정보의 통제라는 측면에서 자유로울 수 없다.
이런 통제 수준의 차이는 단순한 기술적 구현의 문제가 아니라, 사회적‧정치적 철학의 차이를 반영한다. 공익과 사회 질서를 위해 정보의 흐름을 제한해야 할까? 아니면 표현의 자유와 다양한 시각을 담보해야 할까?
AI는 더 이상 단순한 도구가 아니다. 정보의 선택과 배열을 통해 사람들의 생각과 사회적 판단에 영향을 미치는, 사상적 주체로 기능하고 있다. 특정 정부나 기업의 가치가 AI에 반영되는 일이 정당한가에 대한 논란은 앞으로 더욱 심화될 것이다.
결론
AI 발전에 따른 사회적 영향력을 고려할 때, 규제는 필수적인 대응 수단이다. 유럽연합(EU)은 2024년 8월부터 세계 최초의 포괄적인 AI 규제인 'AI법(AI Act)'을 시행했다. 이 법은 AI 시스템을 위험도에 따라 분류하고, 고위험 AI에 대한 엄격한 규제를 도입해 시민의 기본권을 보호하고자 한다.
그러나 규제가 글로벌 AI 경쟁에서 실질적인 효과를 거둘 수 있을지는 미지수다. AI가 국가의 기술 패권을 좌우하는 시대에, 모든 국가와 기업이 동일한 규제 기준을 따를 가능성은 낮기 때문이다. 따라서 규제만으로는 AI의 부작용을 완전히 통제하기 어렵다.
이러한 한계를 보완하기 위해 AI 리터러시 강화가 필요하다. AI 리터러시는 AI의 작동 원리와 한계를 이해하고, 비판적으로 접근하는 능력을 의미한다. 이는 단순한 기술 교육을 넘어, AI를 활용한 정보 분석 및 윤리적 판단을 내릴 수 있는 역량을 포함한다.
결국, AI의 미래는 기술 그 자체보다 우리가 AI를 어떻게 이해하고 활용할 것인가에 달렸다. 규제는 최소한의 안전망을 제공하지만, 진정한 변화는 개개인의 AI 리터러시 향상을 통해 이루어질 것이다. 우리는 AI를 단순히 사용하는 것을 넘어, AI와 함께 성장하고, 공존하는 방법을 배워야 한다.