중독 설계 및 표적 광고에 대한 유럽연합 DSA와 AIA를 중심으로
1. 서론
현대 사회에서 인공지능(AI)과 알고리즘은 인간의 삶과 사회 구조 전반에 걸쳐 전례 없는 영향력을 행사하고 있다. 기술적으로 볼 때 AI, 특히 기계학습(machine learning)과 딥러닝(deep learning) 기반의 시스템은 복잡하고 적응적인 알고리즘의 집합체이므로, AI는 알고리즘의 한 부분 집합으로 간주될 수 있다. 그러나 이러한 기술적 포함 관계에도 불구하고, 이들을 규제하는 법철학적 접근과 실체적 규제 설계는 명확한 분기점을 가진다. 본 연구는 이처럼 미묘한 공통점과 차이점을 가지는 AI 규제와 알고리즘 규제의 관계를 법철학적 관점에서 규명하고, 유럽연합(EU)의 두 핵심 법안인 디지털서비스법(Digital Services Act, DSA)과 인공지능법(AI Act, AIA)의 비교 분석을 통해 그 실체적 규제 내용과 지향점을 명확히 밝히고자 한다. 나아가 중독 설계(addictive design)와 표적 광고(targeted advertising)를 핵심 사례로 하여 두 규제가 실제로 어떻게 작동하는지를 심층적으로 분석하고, 이를 바탕으로 대한민국의 규제 설계 전반에 주는 시사점을 도출한다.
2. AI 규제와 알고리즘 규제의 철학적 분기점: 규제 대상과 지향점의 차이
기술적 차원에서 AI는 알고리즘의 부분집합이지만, 규제 철학적 관점에서는 두 규제의 출발점과 지향하는 보호 법익이 근본적으로 다르다. AI 규제는 주로 인간의 ‘결정의 자동화'(automation of decision)가 야기하는 위험에 초점을 맞춘다. 그 철학은 이른바 ‘위험 기반 접근'(risk-based regulation)을 취하며, 특히 인간의 존엄성, 자율성, 기본권에 중대한 영향을 미치는 고위험 영역(의료, 채용, 신용 평가, 사법 등)에서 인간의 판단을 대체하거나 강하게 개입하는 AI 시스템 자체를 주된 규제 대상으로 삼는다. 이는 본질적으로 칸트적 인간 존엄의 가치를 방어하고, 기술의 오작동이나 편향으로 인한 사회적 해악(harm)을 사전에 예방하며, 설명가능성(explainability)과 책임 귀속(accountability)을 통해 기술에 대한 인간의 통제력을 확보하는 데 목표를 둔다. 즉, AI 규제에 있어 핵심적인 질문은 “이 시스템이 인간의 삶에 중대한 영향을 미치는 결정을 내리는가?”이다.
반면, 알고리즘 규제는 주로 ‘선택 환경의 조작'(manipulation of choice architecture)이 야기하는 권력 비대칭성과 행동 왜곡에 초점을 맞춘다. 알고리즘 규제의 주된 대상은 추천, 랭킹, 노출, 표적 광고와 같이 온라인 플랫폼이 사용자에게 정보를 제공하거나 행동을 유도하는 데 사용하는 알고리즘 및 시스템 전반이다. 이는 AI 기술의 사용 여부를 불문하고, 플랫폼 권력의 시장 지배력 통제, 정보 비대칭성 완화, 그리고 조작(manipulation) 및 중독(addiction) 방지를 핵심 목표로 삼는다. 이러한 접근은 푸코(M. Foucault)적 권력 분석의 시각과 행동경제학적 통찰에 기반하며, 거대 플랫폼이 설계한 시스템이 사용자의 합리적 선택을 어떻게 왜곡하는지, 공론장과 시장 경쟁 질서를 어떻게 교란하는지를 주된 문제로 삼는다. 즉, 알고리즘 규제의 핵심 질문은 “이 알고리즘이 사용자의 선택과 행동을 어떻게 왜곡하고 유도하는가?”이다.
결론적으로, 두 규제는 기술적으로는 교집합을 가지나, AI 규제가 ‘판단의 주체성’을 문제 삼아 위험 예방 및 책임 윤리에 초점을 두는 반면, 알고리즘 규제는 ‘선택의 환경’을 문제 삼아 공정성, 투명성 및 시장 권력 통제에 초점을 맞춘다고 할 수 있다. 즉, AI는 판단을 대신하고, 알고리즘은 선택을 길들이는 행위자라는 철학적 분기가 규제 설계의 근간을 이룬다.
3. 실체적 규제 설계의 분화: 유럽연합 DSA와 AIA의 비교 분석
유럽연합의 디지털서비스법(DSA)과 인공지능법(AIA)은 AI 규제와 알고리즘 규제가 실체적으로 어떻게 분화되어 설계되었는지를 가장 명확하게 보여준다. 두 법안은 그 규제 대상, 핵심 의무 및 법적 구속력 측면에서 현격한 차이를 보인다.
디지털서비스법(DSA)은 광범위한 온라인 플랫폼의 ‘행위와 영향’을 중심으로 규제한다. DSA의 핵심 규제 대상은 온라인 플랫폼 전반이며, 특히 초대형 온라인 플랫폼 및 검색 엔진(Very Large Online Platforms and Search Engines, VLOPs/VLOSEs)에게 가장 강력한 의무를 부과한다. DSA는 AI인지 아닌지와 무관하게 플랫폼 서비스가 사회적 담론, 민주적 절차, 소비자 보호에 미치는 ‘체계적 위험'(systemic risk)을 문제 삼는다. 핵심 의무는 다음과 같다. 첫째, 추천 시스템의 투명성 의무이다(DSA, 제27조). VLOPs/VLOSEs는 사용자에게 프로파일링에 기반하지 않은 추천 시스템을 선택할 수 있는 대안을 제공해야 하며, 추천 알고리즘의 작동 방식과 매개변수를 설명해야 한다. 둘째, 표적 광고에 대한 투명성 및 금지 의무이다(DSA, 제26조). 특히 아동에 대한 표적 광고 및 민감 정보(종교, 정치적 견해 등)에 기반한 표적 광고를 금지하며, 사용자에게 표적 광고 사용 여부에 대한 명확한 정보를 제공해야 한다. 셋째, 체계적 위험 평가 및 완화 의무이다(DSA, 제34조). VLOPs/VLOSEs는 중독 설계, 유해 콘텐츠 확산 등 시스템이 야기하는 사회적 위험을 정기적으로 평가하고 이를 완화하기 위한 조치를 이행해야 한다. DSA는 “플랫폼 권력의 사회적 영향”에 대한 투명성과 책임을 핵심으로 한다.
인공지능법(AIA)은 ‘기술 그 자체의 위험성’을 중심으로 규제한다. AIA의 규제 대상은 AI로 정의되는 시스템 자체이며, 특히 AI를 위험 수준에 따라 허용 불가 위험(unacceptable risk), 고위험(high risk), 제한적 위험(limited risk), 최소/무 위험(minimal/no Risk)으로 분류하여 차등 규제를 적용한다. AIA의 핵심 의무는 다음과 같다. 첫째, 허용 불가 AI 시스템의 금지이다(AIA, 제5조). 이는 인간의 행동을 왜곡하는 잠재의식적 조작 기술(subliminal techniques)을 이용하거나, 개인의 취약성을 악용하여 피해를 유발하는 AI 시스템 등 명백한 기본권 침해 및 위험을 야기하는 AI 시스템의 시장 출시 및 사용을 원칙적으로 금지한다. 둘째, 고위험 AI 시스템에 대한 엄격한 요구사항이다(AIA, 제8조-15조). 고위험 AI는 품질경영 시스템, 데이터 거버넌스, 기술 문서화, 로그 기록, 투명성, 인간의 감독 및 정확성, 견고성, 사이버 보안 등에 대한 엄격한 요구사항을 충족해야 하며, 시장 출시 전 적합성 평가를 받아야 한다. 셋째, 제한적 위험 AI에 대한 투명성 의무이다(AIA, 제52조). 챗봇이나 딥페이크와 같이 인간과 상호작용하는 AI는 사용자가 AI와 상호작용하고 있음을 고지해야 한다. AIA는 “기술이 인간을 대체·지배하는 구조”에 대한 인간 중심적 통제를 핵심으로 한다.
두 법안을 대비시키면, DSA는 AI 사용 여부와 무관하게 플랫폼의 구조적 행동을 규제하여 시장과 공론장의 공정성을 확보하려는 반면, AIA는 AI 기술 자체의 위험도를 평가하여 인간의 존엄과 기본권을 직접적으로 보호하는 데 중점을 둔다.
4. 중독 설계 및 표적 광고를 통한 규제 실체 작동 비교
중독 설계(addictive design)와 표적 광고(targeted advertising)는 두 규제철학이 만나는 핵심 교차점인 동시에, 규제 실체가 어떻게 다른 언어로 문제를 포섭하는지를 보여주는 중요한 사례이다.
중독 설계의 경우, DSA는 이를 VLOPs/VLOSEs가 야기하는 ‘체계적 위험’의 한 형태로 포섭한다(DSA, 제34조). 플랫폼의 시스템이 청소년의 정신 건강이나 신체 발달에 미치는 부정적 영향을 중독 설계의 핵심 문제로 보고, 플랫폼이 이러한 위험을 주기적으로 평가하고 완화 조치를 이행하도록 요구한다. 여기서 문제의 본질은 ‘플랫폼의 설계가 사용자의 관심(attention)을 어떻게 포획하고 조작하는가’이며, AI 기술이 사용되었는지 여부보다는 행동 결과(behavioral outcome)에 초점을 둔다. 즉, DSA는 중독 설계를 시장 권력의 남용 및 소비자 선택의 왜곡이라는 측면에서 다룬다.
반면, AIA는 중독 설계의 극단적인 형태, 즉 인간의 잠재의식적 조작 기술을 사용하거나 특정 취약 집단(예컨대, 아동, 장애인 등)의 심리적 취약성을 악용하여 피해를 유발하는 AI 시스템을 ‘허용 불가 AI’로 분류하여 원천 금지한다(AIA, 제5조). AIA의 시선은 ‘누가 판단하고 통제하는가’에 있으며, AI가 개인의 취약성을 학습해 개입 없이 조작적 결정을 내리는 등 인간의 자율성 및 기본권을 구조적으로 침해하는가를 핵심 관심사로 삼는다. AIA는 중독 설계를 칸트적 인간 존엄의 침해 및 자동화된 지배 구조라는 측면에서 다룬다.
표적 광고(targeted advertising)의 경우, DSA는 이를 투명성 및 금지 의무의 대상으로 규정한다(DSA, 제26조). DSA는 표적 광고 자체를 금지하지는 않으나, 프로파일링에 기반한 추천 시스템에 대한 대안 제공 의무를 부과하며, 특히 미성년자에 대한 표적 광고 및 인종, 성적 지향, 정치적 견해 등 민감 정보에 기반한 표적 광고는 원천적으로 금지한다. DSA는 표적 광고를 정보 비대칭성을 활용한 조작 및 공정성 침해라는 시장 및 공론장 규제의 관점에서 접근한다.
AIA는 표적 광고를 별도로 금지하지는 않으나, 표적 광고를 위해 사용되는 AI 시스템 자체가 고위험 영역(예컨대, 고용, 신용평가 등)에서 편향된 결과를 초래하거나 허용 불가 AI에 해당하지 않도록 기술적 안전성 및 투명성 의무를 부과한다. 즉, AIA는 표적 광고를 위해 사용되는 AI 시스템의 편향성(bias), 견고성(robustness), 정확성(accuracy)을 문제 삼아 기술 자체의 안전을 확보하려는 데 초점을 둔다.
5. 우리나라 규제설계에 주는 시사점
이러한 DSA와 AIA의 규제 설계 분화는 우리나라의 규제 설계에 중요한 시사점을 제공한다. 대한민국은 2024년 12월 국회를 통과하여 2026년 1월 시행을 앞둔 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법」(AI 기본법)을 통해 AI 규제의 기본적인 틀을 마련하였다. AI 기본법은 유럽의 AIA와 유사하게 고영향 인공지능에 대한 신뢰 확보 의무 및 영향 평가 등을 규정하며 ‘결정의 자동화’ 위험에 대한 방어 체계를 구축한다(AI 기본법, 제22조, 제23조). 그러나 우리나라는 온라인 플랫폼의 알고리즘 권력 남용 및 구조적 영향력을 DSA처럼 포괄적으로 규제하는 온라인 플랫폼 관련 산업규제는 아직 최종 입법에 이르지 못했으며, 관련 논의가 별도로 진행 중이다.
따라서 유럽의 사례에서 우리는 두 규제가 기술적 중첩에도 불구하고 규제 철학적 출발점을 명확히 분리해야 한다는 교훈을 얻을 수 있다. 즉, 단순히 AI 기술의 위험을 다루는 AIA 유사 규제(기술 및 위험 중심) 외에도, 거대 플랫폼이 알고리즘을 통해 시장과 공론장에 미치는 구조적, 체계적 위험을 다루는 DSA 유사 규제(행위 및 영향 중심)가 병행되어야 한다는 점이다. 특히 중독 설계 및 표적 광고와 같이 인간의 행동 유도 및 선택 환경 왜곡과 관련된 문제는 단순히 AI 기술의 문제가 아니라 알고리즘 권력의 사회적 통제 문제이므로, 소비자보호법, 경쟁법, 온라인 플랫폼 규제의 영역에서 차원에서 독립적으로 규율될 필요가 있다. 즉 규제설계 시에는 ‘결정의 자동화’ 위험과 ‘선택 환경의 조작’ 위험을 구분하여, AI 규제는 인간 중심의 헌법적 방어에, 알고리즘 규제는 시장 및 공론장의 공정성 확보라는 명확한 목표를 설정하고 논의를 전개하여야 한다.
6. 결론
AI 규제와 알고리즘 규제는 기술적 중첩에도 불구하고 규제 철학적 지향점과 실체적 규제 설계에서는 명확히 분화된다. 유럽연합의 DSA는 알고리즘의 사회적 영향력을 통제하여 시장과 공론장의 공정성을 지키는 ‘알고리즘 권력의 사회적 통제’를 지향하며, AIA는 AI 기술 자체의 위험으로부터 인간의 존엄과 자율성을 방어하는 ‘자동화 판단에 대한 인간 중심 헌법적 방어’를 지향한다. 중독 설계와 표적 광고 사례에서 드러나듯이, 같은 현상이라도 DSA는 이를 시장·공론장의 왜곡 문제로, AIA는 자율성 침해 및 인간-기계 권력관계의 문제로 상이하게 포섭하여 규제한다. 우리나라는 이러한 유럽연합의 선례를 참고하여, 이미 통과된 AI 기본법을 통해 AI 기술 그 자체의 안전과 책임 귀속 문제를 다루는 규제 체계를 보완하고, 이와 별도로 거대 플랫폼의 알고리즘 권력 오용으로 인한 사회적 위험을 통제하는 DSA적 성격의 플랫폼 규제를 명확히 분리하여 상호 보완적으로 설계해야 한다. 두 규제는 ‘AI는 판단을 대신하고, 알고리즘은 선택을 길들인다’는 철학적 분기점을 인정하고 각각의 보호 법익에 최적화된 규제 모델을 구축할 때 비로소 디지털 전환 시대의 윤리적이고 안전한 사회를 건설할 수 있을 것이다.