국제 기준은 선언에 불과하고, 기술은 권력이다
우리는 오늘도 ‘윤리적 AI’라는 문구를 광고처럼 마주한다. OECD, UNESCO, 유럽연합은 앞다투어 “인간 중심”, “책임성”, “투명성” 같은 선언문을 발표했고, 국제적 윤리 가이드라인은 이미 몇 개 존재한다. 대표적인 것이 2019년 OECD의 AI 원칙과 2024년 유럽연합의 AI Act다.
하지만 한 가지 물어보자. 이 원칙들은 실제로 ‘윤리’를 지킬 수 있는 힘을 가지고 있는가? 아니, 더 근본적으로 묻자면, 이 원칙들은 누구의 윤리를 대표하고 있는가?
정치철학자 마이클 샌델은 『정의란 무엇인가』에서 “정의는 공정한 절차만으로 성립되지 않는다”고 말한다. 어떤 제도가 정의롭기 위해선 그 제도가 구체적으로 누구에게, 어떤 결과를 가져오는가까지 살펴야 한다. 선언이 아무리 아름다워도, 그 선언이 누구의 손에 쥐어졌는지를 살펴야 한다는 것이다. 그런데 지금의 AI 윤리 기준은 어떤가? 유럽연합의 AI 규제는 철저히 EU 국익 중심이다. OECD 가이드라인은 강제력이 없고, 기술 강국만이 주도한다. UN의 윤리 권고안은 선언적 의미 외에 아무런 실효성이 없다. 이는 모두 “정의로운 구조”로 위장된 정치적 주권 선언에 가깝다. 기술이 더 이상 국경을 넘는 시대에, AI 윤리는 국가 권력의 이해관계 안에서 움직이는 도구가 되고 있다.
우리는 가끔 “AI가 편향되지 않게 학습되어야 한다”는 말을 믿는다. 하지만 그 ‘편향되지 않음’이라는 것도 누군가의 가치판단에 따라 정의된다. 예컨대, 페미니즘은 ‘다양성’의 이름으로 환영되지만, 남성 일반의 구조적 경험은 쉽게 무시된다. 특정 정치적 이념은 검열되지 않지만, 다른 입장은 혐오로 낙인찍히기도 한다. 기술 강국의 입장은 윤리로 인정받지만, 소규모 국가의 요구는 ‘비현실적’으로 묵살된다. 이처럼 윤리도 권력이다. 우리가 질문하지 않으면, 그 윤리는 ‘윤리의 이름을 쓴 기술적 세뇌’가 된다. 즉, 윤리를 따르는 척하면서도 그 프레임 안에 생각을 가둬버리는 것이다.
그렇다면 우리는 어떤 태도를 가져야 할까? 윤리를 기술적으로 “정의”하려 하기보다, 윤리를 지속적으로 “묻는 행위”로 여겨야 한다. 어떤 윤리가 누구를 위해 설계되었는가? 이 기준은 현실에서 누구를 배제하고 있는가? 나의 ‘정의감’조차 타인의 서사로부터 기획된 것은 아닌가?
이 질문을 던질 수 있는 능력, 바로 그게 AI 시대의 윤리 저항성, 즉 ‘상태 이상 저항’ 능력이다.
마지막으로 묻고 싶다. 이 복잡한 논의를 감당할 수 있는 비판 능력과 사고 체계를, 한국의 교육은 과연 학생들에게 길러주고 있는가? 암기 중심, 정답 중심, 말 잘 듣는 ‘순한 인재’를 만드는 교육 안에서 우리는 기술적 선진국은 될 수 있을지언정, 윤리적으로 깨어 있는 사회는 되지 못할 것이다.
AI 윤리는 단지 기술 문제가 아니다.우리가 무엇을 묻고, 무엇을 침묵하는가의 문제다. 윤리의 이름으로 누군가의 목소리를 지우는 순간, 그 윤리는 정의가 아니라, 지배다. 그리고 그 질문을 던지는 당신의 의심에서, 진짜 윤리는 시작된다.
#20250718