디지털 카르텔의 책임 귀속 체계와 한국 공정거래법의 대응 과제
디지털 카르텔 논의의 종착지는 결국 인간의 구체적 지시가 소거된 것처럼 보이는 자동화된 결과에 대해 법적 책임을 어떻게 배분할 것인가의 문제로 귀결된다. 특히 인공지능(AI)과 기계학습이 고도화되면서 알고리즘은 개발자조차 예측하지 못한 방식으로 담합적 균형을 찾아내기도 하는데, 이러한 ‘자율적 알고리즘'(autonomous algorithms) 상황에서 기업이 내세우는 ‘블랙 박스(black box) 항변’은 현대 경쟁법이 마주한 가장 거대한 장벽이다. 그러나 최근 미국과 유럽의 사법적 판단은 알고리즘의 자율성이 법적 책임의 진공 상태를 의미하지 않는다는 점을 분명히 하고 있다. 유럽 사법재판소는 VM Remonts(C-542/14) 사건에서 외부 대행업체나 알고리즘에 의해 발생한 반경쟁적 행위에 대해, 기업이 이를 인지했거나 합리적으로 예측할 수 있었음에도 방지하지 않았다면 그 책임을 피할 수 없다고 판시했다. 이는 알고리즘을 시장에 투입하여 경제적 이익을 향유하는 주체에게 ‘결과에 대한 책임’뿐만 아니라 시스템 전반에 대한 ‘관리·감독 책임’을 엄중히 물어야 한다는 대원칙의 확인이다.
이러한 글로벌 법리적 흐름은 한국 공정거래법 체계 내에서도 2021년을 기점으로 명문화된 지침을 통해 수용되었다. 우리나라의 공정거래법 제40조(부당한 공동행위의 금지) 제1항 제9호는 "그 밖의 방법으로 직접 또는 간접적으로 다른 사업자의 사업활동을 제한함으로써 실질적으로 경쟁을 제한하는 행위"를 금지하고 있으며, 이를 구체화하기 위해 「사업자 간 정보교환이 개입된 부당한 공동행위 심사지침」(2021. 12. 30. 시행)이 제정되었다. 이 지침은 알고리즘 담합의 핵심인 '정보교환'이 어떻게 '부당한 공동행위'의 구성요건인 '합의'를 도출하는지를 법리적으로 정립한 최초의 포괄적 가이드라인이다. 지침에 따르면, 사업자들이 외형상 평행적인 행위를 하고 있으며 그들 사이에 알고리즘에 입력될 가격, 생산량 등 민감한 정보가 교환되었다면, 이는 직접적인 의사 연락이 없더라도 공정거래법상 '합의'가 존재하는 것으로 추정할 수 있는 강력한 근거가 된다.
이와 같은 법령에 따라, 알고리즘 담합의 책임 주체는 크게 두 가지 범주로 구분된다. 첫째는 알고리즘을 가격 책정의 도구로 활용한 ‘이용 사업자’이다. 공정거래법 제40조는 합의의 형식을 불문하므로, 경쟁 관계에 있는 사업자들이 동일한 알고리즘을 채택하고 그 알고리즘이 경쟁사들의 비공개 데이터를 학습한다는 것을 인지한 채 자신의 데이터를 제공했다면, 이는 이미 '정보교환을 통한 경쟁 제한'이라는 실행 행위에 가담한 것으로 간주된다. 심사지침은 특히 "정보교환 그 자체를 합의의 한 형태"로 규정할 수 있는 길을 열어두었으며, 알고리즘을 통한 데이터 송수신 기록이 발견되는 것만으로도 이용 사업자의 담합 책임은 매우 무겁게 지워진다. 사업자가 알고리즘의 구체적인 로직을 몰랐다는 주장은, 알고리즘에 민감 정보를 '입력'하고 그 시스템에서 도출된 '결과를 수용한 행위'라는 객관적 사실 앞에 무력해진다.
둘째는 알고리즘을 제공하고 담합의 인프라를 형성한 ‘플랫폼 및 솔루션 사업자’이다. 비록 이들이 직접적인 경쟁 관계에 있지 않더라도, 알고리즘의 설계를 통해 경쟁사 간의 가격을 조율하거나 특정 가격을 준수하도록 유도했다면 이는 공정거래법상 공동행위의 ‘교사·방조’ 또는 ‘중개’ 행위에 해당할 수 있다. 이는 미국 RealPage 사건에서 소프트웨어 제공자가 '허브(Hub)'로서 기소되고 소각하 청구가 기각된 법리적 배경과 정확히 일치한다. 우리나라 심사지침 역시 제3자가 정보교환을 매개하거나 촉진하는 경우를 상정하고 있으며, 플랫폼 사업자가 알고리즘을 통해 입점업체들 사이의 가격 동조화를 유도했다면 이를 담합의 중추적 가해자로 파악할 수 있는 근거를 제공한다.
여기서 도출되는 핵심적인 법리적 시사점은 ‘설계적 책임'(liability by design)의 부상이다. 이는 기업이 알고리즘을 도입하거나 운영할 때, 해당 시스템이 경쟁법을 준수하도록 설계되고 학습되었는지를 검증할 선제적 주의 의무를 진다는 개념이다. 한국 공정거래법상의 ‘합리적 근거 없는 정보교환’ 금지 원칙은, 알고리즘의 목표 함수가 단순히 이윤 극대화로 설정되어 결과적으로 담합적 균형을 찾아내게 방치한 행위 자체를 법적 과실로 평가할 수 있는 근거를 제공한다. 즉, 기업은 이제 "알고리즘이 스스로 한 일"이라는 변명 뒤에 숨을 수 없으며, 자신이 고용한 디지털 대리인이 시장의 공정성을 훼손하지 않도록 기술적·조직적 가드레일을 구축해야 한다. 이는 2021년 제정된 지침이 추구하는 '데이터 투명성에 기반한 경쟁 보호'의 본질적 가치이다.
결국 우리나라 경쟁법 체계는 알고리즘 담합을 규제하기 위해 ‘합의’의 외연을 넓히는 동시에, 데이터의 흐름 자체를 합의의 독립적 증거로 채택하는 방향으로 진화하고 있다. 심사지침이 비공개 정보의 교환을 담합의 핵심 요소로 지목하고 있는 것은, 최신 미국 연방법원의 판결 기조와도 맥을 같이한다. 이는 사법당국이 이제 기업의 내부 이메일이나 회의록 같은 전통적 증거를 넘어, 알고리즘의 입력값(input)과 출력값(output) 사이의 상관관계를 분석하는 ‘알고리즘 포렌식’과 '데이터 거버넌스 조사'에 집행 역량을 집중해야 함을 의미한다.
결국, 본질적으로 기술적 진보가 경쟁법의 사각지대가 될 수 없다. 미국 셔먼법의 ‘허브 앤 스포크’ 논리, 유럽 TFEU의 ‘조율된 관행’ 법리, 그리고 우리나라 관련 법령도 모두 하나의 지점을 향하고 있다. 그것은 알고리즘이라는 ‘보이지 않는 손’에 의해 시장의 역동성이 질식당하는 것을 방관하지 않겠다는 사법적 의지다. 기술은 경쟁의 효율성을 돕는 도구여야 하며, 결코 경쟁 그 자체를 대체하거나 파괴하는 지배의 수단이 되어서는 안 된다. 향후 집행 당국은 2021년 확립된 이 지침을 더욱 정교하게 운용하여 알고리즘의 불투명성을 걷어내고, 설계 단계부터 인간의 책임이 명확히 투영되는 공정한 디지털 생태계를 조성해야 할 것이다. 알고리즘 카르텔에 대한 엄정한 법 집행은 기술 권력의 독주를 막고 시장 경제의 근간을 수호하는 디지털 시대 경쟁법의 최우선 사명이다.