산업을 막지 않되 피해자를 남기지 않는 균형의 조건
AI가 일상을 덮었다. 채용, 금융, 교육, 의료, 광고까지 알고리즘이 먼저 판단한다. 조직의 AI 활용도는 2024년 78%까지 올라 '안 쓰는 곳이 예외'가 됐다. 기술이 보편재가 되면서 새로운 문제가 생겼다. 문제는 속도가 아니라 신뢰다.
OECD AI 사고 모니터에 따르면 2010년대 후반부터 AI 관련 사고 보고 건수는 지속 증가했고, 2023~2024년 특히 가파르게 상승했다. 한국도 예외가 아니다. 한국인터넷진흥원(KISA)이 발표한 '2024년 하반기 사이버 위협 동향 보고서'에 따르면 침해사고 신고는 2023년 1,277건에서 2024년 1,887건으로 약 48% 증가했다.
사회 반응은 격렬하다. 딥페이크는 가장 빠른 불신 생산기계가 됐다. 여성가족부가 2025년 4월 발표한 '2024 디지털 성범죄 피해자 지원 보고서'에 따르면, 딥페이크 등 합성·편집 피해는 1,384건으로 2023년 423건 대비 무려 227% 급증했다. 피해자의 96.6%가 여성이며, 10대와 20대가 92.6%를 차지했다.
경찰청은 2024년 11월~2025년 10월 사이버 성범죄 단속에서 3,557명을 검거했고, 전체 사건의 35.2%가 딥페이크 관련이었다. 검거자 중 47.6%가 10대였다. 중앙선거관리위원회는 선거 국면에서 법 위반 딥페이크 129건을 적발했다. Deloitte가 보고한 사례 중에는 딥페이크 화상회의에 속아 2,500만 달러(약 350억 원)가 송금된 금융 사기도 있다.
시민들은 "기술은 편리한데, 삶은 더 불안해졌다"고 느낀다. 그래서 라벨링, 처벌 강화, 플랫폼 책임을 요구한다. 반면 스타트업과 산업계는 과도한 비용과 모호한 기준을 우려한다. 이 긴장의 한가운데에 철학이 서 있다.
여기서 철학의 자리는 '감상'이 아니라 '설계'다. 첫째, 무엇을 최적화할지 정한다. 정확도만 올리면 편향과 차별이 남는다. 둘째, 책임의 경로를 만든다. 누가 왜 그런 결정을 내렸는지 설명 가능해야 한다. 셋째, 진실의 기준을 업데이트한다. 생성형 콘텐츠가 늘수록 출처·검증·표시가 공공 인프라가 된다.
EU AI Act는 2024년 8월 발효 후 2025년 2월부터 금지 관행과 AI 리터러시 의무를 적용하기 시작했다. 2025년 8월부터는 범용 AI 모델 규제가, 2026년 8월에는 고위험 AI 시스템 규제가 본격 시행된다. 투명성, 저작권 준수, 위험평가가 핵심이다.
한국도 2025년 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)'을 공포하고 2026년 1월 22읿부터 시행했다. 고영향 AI와 생성형 AI에 대한 표시 의무, 위험평가, 안전성 확보 의무를 명시했다. 계도 기간이 1년 이상 예정돼 있어 실제 과태료는 2027년 이후 부과될 전망이다.
대책은 세 갈래가 돼야 한다.
정부는 신속 구제와 가해 추적을 강화해야 한다. AI 안전연구소 설립, 표시·로그·감사 기준 표준화, 학교·직장 AI 리터러시 교육 의무화가 필요하다.
기업은 도입 전 영향평가를 실시해야 한다. 레드팀 테스트와 외부 감사를 상시화하고, 데이터·모델 변경 이력을 관리해 '책임 회로'를 만들어야 한다.
플랫폼은 합성물 유통 규칙을 갖춰야 한다. 메타데이터 삽입, 비가시성 워터마크, 생성 로그 보관 등 기술적 조치가 요구된다.
시민도 원본 확인을 습관화해야 한다. 출처 없는 확신 공유를 멈추고, 비판적 리터러시를 키워야 한다.
AI 시대의 철학은 "무엇을 할 수 있는가"보다 "무엇을 해야 하는가"를 사회적 합의로 바꾸는 기술이다. 효율성과 최적화는 AI가 담당하고, 방향성과 의미는 철학이 묻는다. 둘은 대립이 아니라 상호보완적 관계다.
2026년은 한국 AI 규제 원년이 될 전망이다. 기술의 속도에 맞춰 규범도, 교육도, 시민 의식도 함께 진화해야 한다. AI가 보편재가 된 시대, 철학은 선택이 아니라 필수 안전장치다.