brunch
매거진 AI 로스팅

그럴듯한 허구의 시대

앤트로픽, ‘Claude 환각’ 인용 오류로 법원에 사과

by 경영로스팅 강정구

2025년 4월, 미국 캘리포니아 연방법원에서 열린 한 저작권 소송에서 AI 기업 앤트로픽(Anthropic)의 변호사가 법원에 공식 사과했습니다. 자사 챗봇 Claude가 생성한 잘못된 인용을 법적 문서에 포함시킨 사실이 드러났기 때문입니다. 인공지능이 만들어낸 ‘그럴듯한 문장’이 실제 재판에서 증거로 쓰인 사건이었습니다.

문제의 보고서는 앤트로픽 소속 데이터 과학자 올리비아 첸이 작성했습니다. 그는 Claude를 활용해 전문가 증언 자료를 만들었고, 그 안에는 실제 존재하는 논문처럼 보이는 인용이 포함되어 있었습니다. 그러나 제목과 저자명은 모두 Claude가 만들어낸 허구였습니다. 수작업 검토를 거쳤지만 이 오류는 걸러지지 않았습니다.

원고 측인 Universal Music Group, Concord, ABKCO 등은 이 허위 인용을 강하게 문제 삼았습니다. 이에 연방 판사 수잔 반 킬런은 앤트로픽 측에 공식 해명을 요구했고, 변호인은 법정에서 “의도하지 않은 실수였으며, 책임을 통감한다”라고 밝혔습니다.

앤트로픽은 이번 사건을 계기로 AI 산출물에 대한 검토 절차를 강화하겠다고 발표했습니다. 하지만 이 발표는 책임 회피가 아닌 사후 수습으로 받아들여졌습니다. 이미 ‘AI가 만들어낸 환각’을 사람이 검증 없이 법원에 제출한 결과가 발생했기 때문입니다.

미국에서는 이미 여러 주에서 유사한 사건이 벌어지고 있습니다. 캘리포니아, 콜로라도 등지에서는 변호사들이 AI가 생성한 가짜 판례를 그대로 제출해 징계를 받는 사례가 늘고 있습니다. AI의 문장이 점점 더 많이 쓰이고 있지만, 그 안의 진실성은 점점 덜 검토되고 있습니다.

여기서 중요한 건 기술의 성능이 아닙니다. Claude나 GPT는 누군가를 속이려는 의도로 문장을 만들지 않습니다. 그러나 그 문장이 너무 정돈되어 있으면, 사람은 쉽게 진실이라고 믿게 됩니다. 결국 문제는 기술보다, 그 결과물을 확인하고 판단하지 않은 인간에게 있습니다.

특히 법률, 의료, 저널리즘처럼 사실 확인이 생명인 영역에서 AI가 생성한 정보는 더욱 철저히 검증돼야 합니다. 이번 사건은 ‘신뢰감 있게 들리는 문장’이 진실을 보장하지 않는다는 점을 강하게 상기시켜 줍니다.

앤트로픽은 Claude를 ‘책임감 있는 AI’로 소개해왔습니다. 하지만 기술이 아무리 정교해도, 인간이 검토하지 않으면 신뢰는 쉽게 무너집니다. 이 사건은 기술의 결함보다, 인간의 감시 기능이 부재했음을 보여줍니다.

미국 법원은 명확히 입장을 밝혔습니다. AI가 생성한 문서일지라도, 법적 책임은 그것을 제출한 인간에게 있습니다. 이는 단순한 기술 사용의 문제가 아니라, 기술을 어떻게 책임질 것인가에 대한 윤리적 기준의 문제입니다.

AI는 앞으로도 계속해서 ‘그럴듯한 문장’을 만들어낼 것입니다. 우리는 그 문장을 ‘진짜처럼 보이기 때문에’ 믿게 될 것입니다. 그렇기에 더 중요한 건 진위를 판단하는 마지막 책임을 인간이 어떻게 감당할 것인가입니다. AI 시대의 윤리는 기술의 성능이 아니라, 검증과 책임의 구조 설계에 달려 있습니다.

우리는 점점 더 많은 결정을 AI가 만든 문장을 기반으로 내리고 있습니다. 이때 진짜 질문은 ‘이 문장이 맞는가?’가 아니라, ‘나는 왜 이 문장을 그대로 믿고 있는가?’입니다. 우리가 놓치기 쉬운 건 사실의 부재가 아니라, 의심의 부재일지 모릅니다. AI 시대의 리터러시는 정보를 읽는 능력이 아니라, 진실을 묻는 합리적 의심에서 시작되어야 합니다.

keyword
매거진의 이전글기계는 의식을 가질 수 있을까?