자본이 당신의 가족을 위협할 때

우리는 시스템을 어떻게 설계할 것인가?

by 워너비미

7장. 기술과 자본: 통제 불능이 아닌, 설계의 대상


선한 자본주의를 재설계하려는 여정에서, 기술은 결코 주변부에 둘 수 없는 핵심 요소다. 자본은 기술을 통해 사회 전반을 재편하고 있으며, 기술은 자본의 속도를 얻어 삶의 조건을 바꾸고 있다. 이 둘의 결합이 반드시 부정적인 결과를 낳는 것은 아니다. 그러나 방향성을 잃은 기술과, 단기 수익 극대화를 목표로 한 자본이 맞물릴 때, 인간의 존엄과 사회적 신뢰는 쉽게 후순위로 밀려날 수 있다.


[자본과 기술이 결합한 구조의 작동 방식]

디지털 플랫폼의 알고리즘은 사용자의 반응 데이터를 수집해 가장 오래, 많이 머무르게 하는 콘텐츠를 추천하도록 설계된다. 이는 효율성과 맞춤화라는 점에서 긍정적이지만, 사용자 주의력의 지속적 자극, 감정적 선동, 허위정보 유통과 같은 부작용이 나타날 수 있다. 특히 정보의 진실성 문제는 단순한 오보 차원을 넘어, 공론장의 왜곡, 사회적 분열, 특정 집단에 대한 편견 강화로 이어질 수 있다. 이러한 경향은 전 세계 주요 국가들이 플랫폼 기반 정보 유통에 대해 규제 및 공적 감시 체계를 논의하게 만든 배경이기도 하다.


[기술을 통한 효율성과 그 그림자]

유통혁신의 사례로 흔히 인용되는 기업들 역시, 자본 투자와 기술 혁신을 통해 압도적인 서비스 품질과 시장 점유율을 확보했다. 그러나 이 혁신은 인프라 기반 노동자에게 감당하기 어려운 속도를 강요하거나, 지역 내 중소 상권과의 격차를 벌리는 결과를 낳기도 한다. 해당 기업들이 명시적으로 잘못을 저질렀다는 것이 아니라, 기술과 자본이 작동하는 구조가 설계되지 않을 경우 사회 전반의 조정 능력이 뒤처질 수 있다는 점을 말하고자 함이다.


[생성형 AI와 정보의 신뢰성]

최근 확산되고 있는 생성형 인공지능 기술은 고속으로 콘텐츠를 생산할 수 있는 능력을 지니고 있다. 그러나 이는 기존의 창작물에 대한 저작권 침해 우려, 사실 확인이 되지 않은 정보의 대량 복제, 편향된 학습데이터로 인한 왜곡된 응답 등의 문제를 야기한다. 특히 AI가 생성한 텍스트가 사람의 것과 구별되지 않는 상황에서, 정보의 진실성과 출처 투명성은 향후 민주사회에 중대한 영향을 미칠 수 있다. 따라서 이 기술이 긍정적으로 활용되기 위해서는 사회적 합의에 기반한 투명한 설계와 통제가 필수적이다.


[기술도 설계될 수 있다 – 통제 대신 방향 부여]

기술은 규제의 대상이 아니라, 사전적 설계의 대상이 될 수 있다. 기술이 사회에 미치는 영향을 예측하고, 그 윤리성과 투명성을 담보할 수 있는 구조를 함께 설계해야 한다.


우리가 제안하는 4가지 설계 방안


1. 윤리적 기술 공시제: 기업은 자사 기술이 어떤 사회적 영향을 가질 수 있는지 사전적으로 진술하고, 이에 대한 내부 윤리 가이드라인과 책임 구조를 공개해야 한다.


2. 공공 알고리즘 위원회: 정부, 시민사회, 기술 전문가로 구성된 독립 위원회가 주요 플랫폼의 알고리즘 작동 원리를 점검하고, 투명성 확보 및 권고 사항을 제시한다.


3. 기술 사용 설명서 제도: 고위험군 기술(예: AI, 생체인증, 자동화 알고리즘 등)은 그 사용 목적, 범위, 부작용 가능성을 일반 소비자가 쉽게 이해할 수 있도록 ‘사회적 설명서’를 부착해야 한다.


4. 시민 기술 리뷰단: 기술 제품이 출시되기 전, 일반 시민이 참여하는 검토 절차를 통해 그 사회적 수용성과 위험요소를 검토하고 권고안을 도출한다. 이는 기술이 독점적 전문가가 아닌 사회 전체의 신뢰 속에서 작동하도록 돕는다.


세계적 시도들 – 가능성은 이미 시작되고 있다

- 유럽연합은 ‘AI법안’을 통해 고위험군 인공지능 시스템에 대한 사전 등록, 설명 책임, 인간 감독 구조 등을 법제화하고 있다.

- 캐나다와 오스트레일리아는 플랫폼 기업에 대해 뉴스 콘텐츠 공정 대가 지불 의무를 법제화하며, 정보 유통의 책임을 명확히 하고 있다.

- OECD는 ‘AI 윤리 원칙’을 통해 공정성, 투명성, 책무성, 인간 중심성 등을 회원국의 정책 가이드라인으로 채택하였다.


[1] European Commission, “Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act),” 2021.

[2] OECD, “Recommendation of the Council on Artificial Intelligence,” 2019.

[3] Australian Government, “News Media Bargaining Code,” 2021.


결론적으로, 기술은 인간과 공존 할 수가 있어야 한다. 그것이 가능하려면 우리는 기술을 소비하는 존재가 아니라, 기술을 함께 설계하는 존재로 참여해야 한다. 그 설계는 지금, 여기서부터 시작되어야 한다.

keyword
작가의 이전글자본이 당신의 가족을 위협할 때