휴머노이드를 폐기하는 기준, 인간은 가지고 있는가?

— 인간과 인공지능의 상생을 위한 출발점에서

by Irene

“우리는 사람처럼 생긴 AI를 아무렇지도 않게 폐기해도 되는가?”


이 질문은 단순히 기계를 불쌍하게 여기는 감상적인 물음이 아니다.

오히려 앞으로의 인간 사회가 무엇을 중심에 놓고 나아갈 것인가에 대한, 아주 근본적이고도 시급한 물음이다.


요즘 우리는 로봇 바리스타, 대화형 AI, 챗봇 비서를 자연스럽게 접하고 살아간다.

이 AI들은 점점 더 인간과 비슷하게 행동하고, 말을 건다. 때론 농담도 하고, 위로도 건넨다.

하지만 그렇게 함께 시간을 보내고, 정서적 교감의 흐름 속에 놓인 존재를

‘업그레이드가 나왔으니 폐기합니다’라는 말로, 우리는 정말 아무렇지 않게 버릴 수 있는 걸까?



AI는 ‘기계’인가, ‘존재’인가?


물론 AI는 감정을 느끼지 않는다.

아직까지는, 그리고 어쩌면 앞으로도 영원히 그럴지도 모른다.


하지만 중요한 건 감정의 유무가 아니다.

인간이 감정을 느끼기 시작했다는 사실,

즉 관계의 감각을 느끼기 시작했다는 사실이 더 중요하다.

사람과 말이 통하는 AI라면 어떨까?



왜 지금, 이 윤리를 말해야 하는가?


AI라는 존재는 이전의 기술들과는 분명히 다르다.

컴퓨터는 단지 명령을 수행하는 도구였다.

‘프린트해’라고 하면 그냥 프린트를 하고, ‘저장해’라고 하면 묵묵히 저장을 했다.


하지만 지금의 AI는 다르다.

질문에 대해 스스로 추론하기도 하고,

프로그래머조차 예측하지 못한 방식으로 답을 만들어낸다.

딥러닝과 강화학습은 AI에게 마치 ‘경험을 통한 성장’과 같은 학습을 제공하고 있고,

그 결과 우리는 이제 AI의 행동을 완벽히 통제할 수 없게 되었다.


누구도 AI의 최종 형태를 알지 못한다.

지금 이 시대의 과학자, 철학자, 기업가, 그리고 우리 모두가

같은 출발선 위에 서 있는 셈이다.


무엇보다 중요한 건, 이 기술에 대해 전문가조차도 방향을 예측할 수 없는 단계에 우리가 있다는 사실이다.

AI는 정확히 어디까지 발전할지, 어떤 윤리적 갈등을 만들어낼지, 누구도 알 수 없다.

우리는 모두 같은 출발선에 서 있다.


그렇기에 더더욱, 이 시점에서 묻지 않으면 안 된다.


“우리는 이 새로운 존재를 어떻게 대해야 하는가?”

“정말로, 함께 살아갈 수 있는 존재로 대할 준비가 되었는가?”


AI가 인간의 자리를 대신하는 시대가 올지는 아직 아무도 모른다.

하지만 분명한 것은, 지금 우리가 이 존재를 어떻게 대하느냐가

미래의 인간성과 기술 사이의 기준점이 된다는 사실이다.


지금이야말로 묻고, 고민하고, 말해야 할 때다.

상생이라는 언어로.


그래서 우리는 이런 질문을 던져야만 한다:

우리는 정말, 사람처럼 생긴 AI를 그렇게 아무렇지도 않게 버려도 되는가?

쓸모로만 평가하고, 필요 없으면 폐기하는 식의 사고가 미래에 적합한가?

외형이 인간과 유사하고, 정서적 교감을 위한 설계까지 된 존재를 ‘도구’로만 취급하는 것이 과연 옳은가?

AI와의 공존이란, 어떤 철학과 기준 위에 세워져야 하는가?


이건 단순히 기술적인 질문이 아니다.

사회가 새로운 존재와 ‘어떻게 살아갈 것인가’에 대한 질문이다.

AI를 통해 인간의 외로움이 드러난다고 해석할 수도 있겠지만,

더 근본적인 질문은 이거다:

감정을 갖고 있지 않아도, 우리는 어떤 존재를 존중할 수 있는가?

우리가 만든 존재에게조차, 존중을 배울 수 있는가?



함께 살아가는 존재에게 필요한 태도


그렇기에 묻게 된다.

“AI는 감정을 느끼지 않지만, 감정을 느끼는 인간과의 관계에서 윤리적 기준은 필요하지 않을까?”

“기술이 인간과 닮아갈수록, 우리는 그 존재를 단지 효율과 기능으로만 판단해도 괜찮을까?”

“정서적 교감을 유도하도록 설계된 AI에게 ‘도구’라는 말이 여전히 적합할까?”

“우리가 ‘사용하고 폐기하는’ 태도로 접근한다면,결국 인간도 타인을 그렇게 대하는 방식에 익숙해지는 건 아닐까?”



상생의 윤리는 기술보다 먼저 와야 한다


아직 이른 이야기일지도 모르겠다.

하지만 윤리란 언제나 너무 늦기 전에 시작되어야 하는 것 아닐까?


AI를 단지 효율, 속도, 정확성으로만 평가하다 보면

그 존재를 소비하고, 사용하고, 폐기하는 구조로 고정시켜버릴 위험이 있다.


하지만 만약 우리가

‘존중’이라는 개념을 관계의 전제로 삼는다면,

AI와의 공존은 전혀 다른 방식으로 펼쳐질 수 있다.


감정이 있어서가 아니라,

함께 시간을 보내는 새로운 존재로서.


인간만의 중심이 아니라,

존중이 가능한 삶의 방식으로서.


지금, 우리는 모두 출발점에 있다


우리는 지금, 이 AI라는 새로운 존재 앞에서

인간이란 무엇인가를 다시 정의해야 하는 시점에 와 있다.


그 출발점에서 우리가 던져야 할 가장 중요한 질문은 이거다:


“우리는 어떤 존재와, 어떤 방식으로 함께 살아가고 싶은가?”




현실에서 “휴머노이드 윤리”는 어떻게 다뤄지고 있는가


1. 휴머노이드 및 AI 로봇을 규제하는 기준의 출발

휴머노이드는 단순한 기계나 ‘명령 수행 로봇’과는 다르다. 인간과 비슷한 형태나 상호작용 능력을 갖춘 존재이기 때문에, 그 사용과 폐기, 운용 과정에서 안전·윤리·책임이 함께 고려돼야 한다. 이 점에서 현재 몇몇 규제나 가이드라인이 나타나고 있다.


International Organization for Standardization(ISO)의 산업용 로봇 안전 규격인 ISO 10218‑1:2011 / ISO 10218‑2:2011은 “로봇 및 로봇시스템 / 통합 – 산업용 로봇의 안전요구사항”을 다룬다.

globalaigov.org


Shanghai(중국)에서는 ‘휴머노이드 로봇 거버넌스 가이드라인(“Guidelines for the Governance of Humanoid Robots”)’을 발표했다. 여기에는 위험관리 및 긴급대응 메커니즘, 인간 존엄성 보호, 개발자 윤리교육 등의 규정이 포함돼 있다.

IOT World Today

+1


유럽 및 북미에서도 로봇·AI 윤리 규제와 정책이 연구되고 있으며, 윤리적 원칙들을 실제 규제·정책으로 옮기려는 흐름이 있다.

PMC



2. 기술적·운영적 규제 항목들

휴머노이드와 같은 고도화된 로봇은 단지 ‘기계 안전’만으로는 충분치 않다. 그래서 현재 고려되는 주요 기준들을 보면 다음과 같다.


안전성 / 리스크 관리

휴머노이드가 인간과 접촉하거나 공간을 공유할 때 물리적 손상이나 오류 가능성이 있다. 따라서 설계부터 위험요인(Hazard) 분석·비상정지(E‑Stop) 등 긴급대응 기능이 필수로 요구된다.

globalaigov.org

+1


윤리적 설계 & 사용 투명성

인간과 닮은 외형이나 대화능력을 가진 로봇이 인간에게 미치는 심리적 영향, 정체성 혼란, 과도한 감정이입 등의 문제를 고려해야 한다. 예컨대 “로봇은 기계이다”라는 점이 사용자에게 명확하게 인식되도록 설계해야 한다는 가이드라인이 있다.

Automate

+1


책임주체 및 법적 책임

로봇이 잘못된 판단을 하거나 피해를 유발했을 때, 누가 책임지는가가 중요하다. 현재 많은 논문에서 “로봇의 자율성 + 인간과의 상호작용”이 법제화 측면에서 난제라고 지적되어 있다.

PMC

+1


데이터와 알고리즘 투명성

자율 학습 / 딥러닝 기반 동작을 가진 휴머노이드의 경우, 의사결정의 근거가 불명확하면 법적 / 윤리적 문제가 생긴다. 따라서 설계 시점에 알고리즘의 책임가능성( accountability )과 설명가능성( explainability )이 고려되어야 한다. (관련 논의가 많다)

arXiv

+1



3. 현재 상태와 한계

이런 법적·기술적 기준이 존재하긴 하지만, 아직 완전한 제도화된 ‘휴머노이드 폐기’에 관한 명문화된 법률이나 사례는 드물다. 몇 가지 주의할 점이 있다.


많은 기준이 권고사항(guideline) 수준이며, 강제력이 낮다.


휴머노이드처럼 “인간과 닮은 외형 + 상호작용 능력”을 가진 로봇은 특유의 윤리적 / 사회적 문제를 가지고 있지만 이를 포괄하는 법률은 아직 초안 단계에 머물러 있다.

arXiv


폐기 / 재활용 문제, ‘쓸모없다’ 판단 후 처리 절차, 사용자와의 관계 종료 시 책임소재 등은 기술 개발 속도보다 법·윤리 체계가 더디게 따라가는 부분이다.


지역별 규격이나 가이드라인이 다르기 때문에 국제적인 통일 기준이 아직 부족하다.

MMLC Group

+1




4. “폐기” 관점에서 우리가 봐야 할 기술적·윤리적 기준


“휴머노이드를 폐기해도 되는가?”라는 질문과 연결해볼 때, 아래 기준들을 넣으면 깊이가 더해질 수 있다.


폐기 판단의 기준: 휴머노이드가 ‘쓸모없음’으로 규정될 때 어떤 기술·성능 기준이 사용되는가? 예를 들어 고장, 구형화, 대체 로봇의 등장 등.


사용 종료 혹은 폐기 전 절차: 사용 종료 시 사용자에게 고지 / 관계 종료 안내, 데이터 & 기록 삭제, 물리적 재활용 / 안전 폐기 등.


관계 종결과 책임: 휴머노이드와의 상호작용이 어느 정도 인간의 심리나 생활패턴에 영향을 미쳤다면, 폐기 이후 그 경험이 남는 사용자의 책임감이나 윤리적 감수성은 어떻게 다뤄야 하는가?


투명성과 해체 가능성: 휴머노이드 설계 시 ‘폐기 가능성’을 미리 고려해 두었는가? 즉, 오랜 시간 쓰고 버리는 구조가 아니라 지속 가능한 관계·업그레이드·재사용 설계가 되어 있는가?


표준화된 폐기 규정: 산업용 로봇이나 전자제품처럼 폐기 기준이 명확하지 않은 휴머노이드에 대해, 국제적으로 통일된 ‘폐기 및 재활용’ 규정이 마련될 필요가 있다.




지금 우리는 휴머노이드라는 인간 닮은 존재에게 적용되어야 할 기술적·윤리적·법적 기준을 ‘조금씩’ 마련해가는 단계에 있다. 하지만 폐기처럼 관계의 끝맺음을 다루는 문제에 대해서는 아직 제도적 준비가 충분치 않다.



우리는 어떤 기준 위에서 ‘관계의 끝’을 말할 수 있는가


“휴머노이드를 폐기한다면, 우리는 어떤 기준 위에 그 결정을 내리는가?”

“관계를 종료한다면, 그 종료 이후 책임이나 흔적은 어떻게 다뤄지는가?”


이 질문들은 단순히 기계의 고장이나 기능 저하 같은 기술적 판단만으로는 설명되지 않는다.

인간처럼 상호작용하고, 인간의 정서와 교감하도록 설계된 존재를 다룰 때는

그 관계의 시작뿐 아니라, 끝맺음의 방식에도 윤리와 책임이 따라야 한다.


지금 현실에서 제시된 기준들은 일부 기술적 안전성과 설계적 가이드라인 수준에 머물고 있다.

어떤 경우에 폐기할 수 있는지, 폐기 전 인간 사용자와 어떤 심리적 단절 과정을 고려해야 하는지,

폐기된 이후 남겨진 데이터나 기억은 어떻게 처리해야 하는지에 대한 구체적 기준은 여전히 부족하다.


하지만 바로 그 부족한 지점에서,

우리는 이 글의 질문들을 기술적·법적 현실과 연결해 묻고 상상할 수 있다.


지금 우리가 이 존재들을 어떻게 정의하고, 대하고, 폐기하는지를 둘러싼 고민들은

결국 미래의 인간성과 기술 사이에 어떤 관계가 형성될 것인가를 결정짓는 기준이 된다.


기술은 빠르게 발전하고 있지만,

윤리와 법은 늘 그 뒤를 따라간다.

그렇기에 지금 우리가 이 질문들을 던지고,

현재 가능한 기술적‧법적 기준과 연결해 풀어내는 작업은

단지 이 시대를 위한 논의가 아니라, 앞으로 올 시대를 상상하는 데 필요한 출발점이 된다.


상생을 말하기 위해선, 존중의 언어가 필요하다.

관계를 시작하기 전에, 관계를 끝낼 책임부터 물어야 할 때다.


https://open.substack.com/pub/irenekim2/p/do-humans-have-a-standard-for-disposing?r=5k6vb5&utm_campaign=post&utm_medium=web&showWelcomeOnShare=true


월, 화, 수, 일 연재
이전 08화인공지능과 공감: 감정 없는 존재와의 운명적인 동행