brunch

You can make anything
by writing

C.S.Lewis

by 김창익 Sep 08. 2024

터미네이터를 살인죄로 처벌할 수 있을까?

[구조적 사고, 논술] 살인죄의 판단 기준은 무엇인가?


다음은 대법원 살인죄 최종 판결문의 일부이다.


"살인죄에 있어서의 범의(고의)는 반드시 살해의 목적이나 계획적인 살해의 의도가 있어야 하는 것은 아니고 살해에 대한 인식이 있으면 족한 것이고 그 인식도 확정적인 것은 물론이고 미필적인 것도 이에 포함되는 것인바 피고인이 피해자의 욕설에 크게 격분하여 흉기인 과도를 들고 피해자에게 달려가서 막바로 피해자의 목(경부)을 위 흉기로 치명상을 입도록 힘껏 내리 찔러 그 자리에서 바로 사망하게 하였다면 위 피고인에게 살해의 의식이 없었다 할 수는 없다."


문제.


AI(인공지능)가 사람을 죽인경우 살인죄로 처벌할 수 있는가?


위 대법원 판결문을 참고해 AI의 살인에 대한 살인죄 적용 가능성 여부를 논하라.


1 해체


AI(인공지능)가/

사람을/

죽인/

경우/

살인죄로/

처벌할 수/

있는가?/


2. 개념, 범주


AI: 인공지능. 사람을 죽인 물리적인 행위가 가능했던 것으로 보아 여기서는 AI를 탑재한 로봇이라고 보인다.

AI로봇은 사람처럼 생각을 하고, 언어를 사용하며, 도구를 쓰는 물체다.  

사람: 생각을 하고, 언어를 사용하며, 도구를 쓰고, 사회를 이루어 사는 동물.

죽인: 생명을 없애거나 끊어지게 한.

살인죄: 고의를 갖고 사람을 죽인 죄

처벌: 형벌에 처함.

있는가: 가능한가.


여기서는 AI로봇과 사람간의 개념의 분류가 중요하다. AI로봇과 사람간에는 여러 공통점이 있으나 AI로봇이 사람보다 더 작은 개념이라고 할 수는 없다. 즉 AI로봇과 사람은 개념상 분류된다.  AI로봇은 사람의 범주에 들지 않으며, 사람은 AI의 범주에 들지 않는다.


살인죄는 인간이 정의한 추상적 단어로 법률에 의한 정의, 사전적 정의가 있다. 그 것이 곧 개념의 정의다. 법률적 용어의 정의의 경우 그 전제조건에 집중하면 논술의 실마리를 찾기 쉬운 경우가 많다. 즉 살인죄는 고의로 살인을 한경우 성립하는 다. 고의란 행위의 결과를 알면서도 특정한 의도를 가진 심리상태를 말한다. 즉 내 행위의 결과로 상대방이 죽을 것을 알면서도 특정한 의도를 갖고 그 행위를 했다면 살인죄에 해당할 수 있다.


3. 요약


AI가 고의로 사람을 죽였다면 살인죄로 처벌할 수 있다.


4. 확인, 예시


위 내용은 논리적으로 완벽해 보인다. 고의성 여부가 살인죄의 중요한 판단기준이기 때문이다. 하지만 현행법상 죄를 적용해 처벌을 하려면 그 대상이 법률 행위 주체로서 자격이 있어야 한다. 논리적인 사고가 가능한지를 묻는 질문이기 때문에 성립요건과 적용 여부를 연결해 주장하는 정도로 충분하지만 좀더 까다롭게 따져보는 것을 연습하는 차원에서 다음 사항까지 고려해야 한다.


우리나라 현행법상 법률 행위의 주체는 '인(사람)'이며 인의 범주에 드는 건 자연인과 법인이다. 위에서 설명한대로 AI로봇과 사람은 개념상 분류된다. 즉 AI로봇은 사람의 범주에 들지 않는다. 법률상 행위의 주체인 사람의 범주에도 둘지 않는다. 따라서 현행법상 우리나라에서는 AI로봇의 법적 권리와 의무 등을 따질 수 없다


저런 질문을 한 것은 현재 적용 여부를 따지기 보다는 AI로봇과 함께 공존해야할 미래에 생길 수 있는 여러가지 가능성에 대비해야 한다는 취지다. 영화 터미네이터에서처럼 AI로봇이 인간을 대량살상할 경우 그 것을 막을 기술적인 방법도 중요하지만 사회제도 안에서 그 문제를 어떻게 인식하고, 처리하는가도 중요한 문제다.


AI 관련 기술이 우리보다 앞선 미국이나 사회시스템에서 표준을 만드는데 앞장서고 있는 유럽연합(EU)의 경우 AI 기술 발달로 일어날 수 있는 여러가지 사건들을 어떻게 준비하고 있는 지 알아보면 좋다.


EU의 경우 2017년 AI가 사람을 죽인 경우라도 고의성이 인정되면 AI 자체를 처벌할 수 있는 법안을 통과시켰다. 기술적으로는 AI의 살인행위와 엔지니어가 그 AI에 입력한 알고리즘간에 상관관게를 입증할 수 없을 때 AI 자체를 처벌할 수 있다는 것이다.  EU의 경우 AI로봇의 행위도 법률적 판단의 대상이 되도록 법률적 권리와 의무의 주체로 AI로봇에 전자인간이란 자격을 줬다. 즉 법률 행위의 주체로서의 사람에 AI로봇을 포함시킨 것이다. 전자인간이란 새로운 종개념(직은개념)을 만들어 인간이란 범주에 포함시킨 것이다. 이 것이 개념과 범주를 활용한 좋은 예다.

5. 수정


살인죄 적용의 중요한 기준은 고의성이 있었느냐다. 따라서 원론적으로는 AI가 고의를 갖고 사람을 죽였다면 살인죄 적용이 가능하다고 할 수 있다. 하지만 AI로봇은 현행법상 법률적 권리나 의무의 주체가 될 수 없다. 다시말해 현행법 내에서는 현실적인 처벌은 불가능하다. 

6. 반복


살인죄 적용의 중요한 기준은 고의성이 있었느냐다. 따라서 원론적으로는 AI가 고의를 갖고 사람을 죽였다면 살인죄 적용이 가능하다고 할 수 있다. 하지만 AI로봇은 현행법상 법률적 권리나 의무의 주체가 될 수 없다. 다시말해 현행법 내에서는 현실적인 처벌은 불가능하다. 

7. 정리


살인죄 적용의 중요한 기준은 고의성이 있었느냐다. 따라서 원론적으로는 AI가 고의를 갖고 사람을 죽였다면 살인죄 적용이 가능하다고 할 수 있다. 하지만 AI로봇은 현행법상 법률적 권리나 의무의 주체가 될 수 없다. 다시말해 현행법 내에서는 현실적인 처벌은 불가능하다.  


유럽연합(EU)의 경우엔 전자인간이란 개념을 만들어 AI도 법률적 판단의 대상이 되는 인간의 범주에 포함시켰다. AI도 처벌을 할 수 있다는 의미다. AI 기술이 빠르게 발전하면서 AI로 인한 여러가지 사회문제가 발생할 수 있다는 점을 감안할 때 AI를 법률적으로 어떻게 다뤄야 할지에 대해서도 깊은 논의가 이뤄져야할 때다.


우리나라 현행법상 법률 행위의 주체는 '인(사람)'이며 인의 범주에 드는 건 자연인과 법인이다. 위에서 설명한대로 AI로봇과 사람은 개념상 분류된다. 즉 AI로봇은 사람의 범주에 들지 않는다. 법률상 행위의 주체인 사람의 범주에도 둘지 않는다. 따라서 현행법상 우리나라에서는 AI로봇의 법적 권리와 의무 등을 따질 수 없다


현재 적용 가능 여부를 따지기 보다는 AI로봇과 함께 공존해야할 미래에 생길 수 있는 여러가지 가능성에 대비해야 한다. 영화 터미네이터에서처럼 AI로봇이 인간을 대량살상할 경우 그 것을 막을 기술적인 방법도 중요하지만 사회제도 안에서 그 문제를 어떻게 인식하고, 처리하는가도 중요한 문제다.


고의성 여부만을 놓고 볼때 AI 기술은 고의성을 가질 수 있는 단계에 이미 와 있다. 빅데이터로 학습을 하는 딥러닝 단게에서 스스로 판단하는 휴멀레벨 단계에 이르렀다는 것이다. 챗GPT로 세상을 놀라게 한 오픈AI의 경우 모든 면에서 인간의 능력을 뛰어넘는 범용인공지능(AGI)를 이미 개발해 놓은 것으로 알려졌다.


최근 오픈AI의 경영권 다툼도 AGI 개발 속도를 둘러싼 것이다. 인간의 안전을 위해 개발 속도를 조절해야 한다는 이사회와 치열한 경쟁에서 살아남기 위해서는 일단 개발 속도를 높여야 한다는 샘 울트먼 대표이사(CEO)간에 마찰이 생긴 것이다.


오픈AI의 대주주인 마이크로소프트(MS)가 샘 울트먼  CEO의 손을 들어주면서 분쟁은 샘 울트먼의 승리로 막을 내렸다. 이후 이사회는 개발 속도를 중시하는 인사들로 채워지고 사내 안전팀도 해체됐다.


AI와 같은 신기술이 발전할 수록 사회제도가 기술을 따라가지 못하는 아노미의 상태가 되기 쉽다. 이는 주주이익을 최우선시하는 기업이 인류의 안전을 소홀히 할 수 있다는 사실을 여실히 보여준다. 기업 밖의 공익기관이나 국가가 AI의 위협에 대비해야 필요가 있다.

8. 감상

유럽이 새로운 기술에 맞춰 사회시스템을 만드는 데 있어서는 우리를 훨씬 앞서는 것 같다. 그 이유가 뭘까?

9. 비슷한 질문

- 개가 사람을 죽인 경우 살인죄로 처벌할 수 있는가?

- 사람이 사람을 죽인 경우 살인죄로 처벌할 수 있는가?

10. 읽어볼만한 책



이전 01화 논술의 기초
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari