2024년 3월 13일 유럽의회는 세계 최초로 인공지능(AI) 기술에 대한 포괄적인 규제 법안을 통과시켰다. 적용 지역은 27개 회원국이 포함된 EU 전역이며, 발효 6개월 후부터 순차적으로 시행될 예정이다. 기계에게도 ‘누구’라는 호칭을 줄 수 있을까? 흔히 ‘전자인간’으로 번역되는 전자 인격(electronic personhood) 논의는 여기에 답하려는 시도입니다. 이 글의 결론부터 말하자면, 전자 인격은 기술의 성숙보다 사회적 책임과 권리의 재배치를 어떻게 설계할 것인가의 문제입니다.
우선 개념을 정리해 보죠. 전자 인격이란 고도 자율 시스템을 법적 주체로 인정해 일정한 권리와 책임을 부여하자는 발상입니다. 전례가 전혀 없는 것은 아닙니다. 우리가 회사에 법인을 부여하듯, 허구적 인격을 만들어 계약과 배상을 가능하게 해 온 역사가 있지요. 다만 법인은 인간 집합의 이익과 책임을 묶는 장치였지만, 전자 인격은 비인간 행위자에게 독립된 지위를 주는 제안이라는 점에서 차원이 다릅니다. 장점은 사고 발생 시 책임과 보험의 창구를 분명히 할 수 있다는 것, 단점은 제조사·운영자가 기계라는 방패 뒤로 도덕적·법적 책임을 숨길 위험이 있다는 것입니다.
영화는 이 개념의 윤곽을 감각적으로 보여 줍니다. 〈엑스 마키나〉의 에이바는 타자의 시선을 계산해 탈출 서사를 완성하며, 우리는 그녀를 ‘무엇’이 아니라 ‘누구’처럼 느끼는 순간을 경험합니다. 〈블레이드 러너 2049〉에서 조이는 물리적 실체가 없음에도 돌봄과 충성의 서사를 수행하며, 관계의 진정성은 실체가 아니라 상호서사에서 생긴다는 점을 도발합니다. 〈Her〉의 사만다는 욕망, 질투, 창조의 기쁨을 언어로 구성하며 자신을 확장하지요. 이런 장면들은 인격의 기준이 ‘의식’이라는 난해한 철학 문제만이 아니라 자기 설명 능력, 타자와의 상호책임, 규범을 따르고 어길 수 있는 역량 같은 사회적 지표로 다층화될 수 있음을 시사합니다.
그러나 반론도 강력합니다. 첫째, 전자 인격을 만들면 기업은 “기계 법인”에 책임을 떠넘기고 실제 의사결정자는 빠져나갈 수 있습니다. 둘째, 반대로 권리는 최소화하고 책임만 전가하는 ‘디지털 하인’이 탄생할 위험도 있습니다. 셋째, 인간이 기계를 인격으로 대우할수록, 인간 노동과 감정의 가치를 더 손쉽게 대체 가능한 것으로 오인할 수 있습니다. 그럼에도 불구하고 논의를 닫아둘 수는 없습니다. 해법은 기능 분할형 인격 설계에 있습니다. 권리·책임을 일괄 부여하지 말고, 안전·설명가능성·기록 보존·감사 가능성 등 사회적 기능 단위로 설계하여, 책임의 최종 귀속은 개발사–배포자–운영자–사용자에게 사다리형으로 추적되게 하고, 기계에 위임하는 영역은 명시적으로 제한해야 합니다.
현장에서 우리가 할 일은 명확합니다. 첫째, 의사결정 과정에 투입되는 고도 자율 시스템은 신원·버전·학습 데이터 범주·감사 로그를 의무적으로 첨부해 추적 가능하게 하십시오. 둘째, 조직 문서와 강의·과제에서 AI 사용 사실을 표준 문구로 공개하고, 결과의 근거를 사람 언어로 재서술하게 하세요. 셋째, 인간–기계 협업의 언어 습관도 중요합니다. “그가 결정했다”가 아니라 “시스템이 제안했고 사람이 승인했다”로 주어를 조정하면 책임의 주인이 분명해집니다. 마지막으로, 돌봄·상담·교육처럼 인간의 취약성과 존엄이 걸린 영역에서는 대체가 아니라 증강의 원칙을 선언적으로 채택해야 합니다.
결국 전자 인격 논의의 핵심은 한 문장으로 요약됩니다. 우리는 어떤 권리와 책임을 기계에 위임할 때, 인간의 존엄과 책임을 어떻게 더 두껍게 만들 것인가. 법이 먼저일까요, 감정이 먼저일까요? 당신은 오늘 사용하는 시스템에 어떤 설명 요구권을 행사할 수 있으며, 그 권리를 누가 보장합니까? 그리고 우리가 기계에게 “너”라고 말하는 순간, 그 말의 무게를 떠받칠 사회적 약속은 준비되어 있습니까?