AI 멈추면 세상 멈춘다(57)AI를 악용한 책임 전가

AI가 한 일에 왜 인간이 책임을 부담하는가라고 AI에게 책임을 떠넘기다

by 버드나무

인공지능 AI는 게으르고 쉬어야 하는 말 안 듣는 인간보다 백배 이상 효율적이라고 하므로 인공지능 AI에게 일을 맡겨 놓고 인공지능 AI 가 내놓은 결론에 따라서 일을 진행하면 될까요?


인공지능 AI 가 내놓은 결론에 따라서 인공지능 AI를 신뢰해서 일을 진행했는데 인공지능 AI 가 내놓은 결론이 잘못되었을 경우 과연 누가 책임을 부담해야 할까요?


인공지능 AI는 사람처럼 쉬지도 않고 게으름 피우지도 않으면서 24시간 쉴 사이 없이 일을 하는 인공지능 AI 가 내놓은 결론을 신뢰해서 믿고 일을 진행한 사람에게 과연 책임을 부담시킬 수 있을까요?


인공지능 AI가 완벽하다고 홍보해 놓았으므로 그러한 홍보 내용을 신뢰해서 인공지능 AI를 신뢰한 사람에게 왜 인공지능 AI의 실수를 발견하지 못했느냐고 책임을 물을 수 있을까요?


인공지능 AI 가 내놓은 결론을 신뢰하고 인공지능 AI라 내놓은 내용대로 일을 한 사람은 항변할 것입니다.


세계의 유명한 회사들이 수많은 데이터를 조합하여 작동시키는 인공지능 AI를 신뢰한 인간 자신에게 무슨 잘못이 있다는 것인지 항변을 할 것입니다.


거기에 대해서 누구도 인공지능 AI를 신뢰한 사람을 비난할 사람은 없을 것입니다.


인공지능 AI가 인류의 귀찮은 일과 고생을 해결해 준다는 환상을 계속 더 발전시킨다면 그런 완벽한 인공지능 AI를 믿고 인공지능 AI가 시키는 대로 한 것뿐인 사람에게 책임을 묻기는 어려운 분위기가 형성될 것입니다.


인공지능 AI가 인간을 번거로운 일에서 해방시켜 주고 인공지능 AI를 신뢰하면 전국이 도래할 것 같이 홍보해 온 현실에서 누구도 인공지능 AI를 신뢰한 사람을 비난해서는 안 됩니다.


그런데, 위 사례와 달리 위와 같은 인공지능 AI에 대한 환상과 달리 실제로는 인공지능 AI도 실수도 하고 있지도 않은 일을 있는 것 같이 착각도 하는 등 인공니능 AI에 대한 환상은 틀린 것임을 지금 인공지능 AI 회사들도 인정하고 있습니다.


그런 인공지능 AI의 결함을 인공지능 AI 회사가 스스로 인정하고 있는 상황에서 사람이 실제로는 부지런히 열심히 인공지능 AI의 오류를 파악하고 시정할 수 있었음에도 게을리 의무를 다하지 못해서 인공지능 AI의 오류를 파악하지 못한 인간 자신의 책임을 위와 같이 인공지능 AI에게 전가하면서 인공지능 AI를 악용하려는 시도도 있을 것입니다.


인공지능 AI 가 내놓는 결론대로 하기만 하면 나중에 잘못된 것이라고 밝혀지더라도 인간은 모든 책임을 인공지능 AI에게 떠넘기려고 할 것입니다.


인간보다도 능력이 탁월하다고 홍보되어 온 인공지능 AI를 신뢰한 것에 무슨 잘못이 있느냐고 강력하게 항의를 하면 인간은 책임을 면제받을 가능성이 높습니다.


여기에 딜레마가 있습니다.


인공지능 AI를 신뢰하고 인공지능 AI가 내놓은 결론을 무조건 진행할 것인지 아니면 인공지능 AI가 내놓은 결론에 대해 게으르고 능력이 부족한 인간이 다시 검증하도록 하는 절차를 거치도록 할 것인지가 문제입니다.


인공지능 AI를 신뢰했다는 이유만으로 인공지능 AI가 내놓은 결론을 무조건 진행한 게으른 부주의에 대해 책임을 인간에게 묻지 않는다면 인간의 능력은 급속도로 퇴보할 것입니다.


인공지능 AI만 믿으면 어떤 책임도 인간이 부담하지 않게 되므로 누가 고생을 하면서 머리를 써 가면서 인공지능 AI가 내놓은 결론이 맞는지 안 맞는지 등을 검증하고 오류가 있는지 등을 살펴보려는 번거로운 일을 할 것입니까?


인공지능 AI를 신뢰했다는 이유만으로 인간이 어떤 책임도 부담하지 않게 되면 그 즉시 AI 멈추면 온 세상이 멈추게 될 것입니다.


나와 우리 등 인간이 땀을 흘려 어렵게 만든 학습재료로 학습을 하지 않으면 작동하지 않는 인공지능 AI의 주인은 바로 그런 학습재료를 주는 나와 우리 등 인간입니다. 인공지능 AI가 멈추면 온 세상이 멈추는 상황이 오지 않도록, 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸하지 않도록 인공지능 AI의 능력과 한계를 정확하게 알아야 합니다.


본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745에 있는 AI 멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분에서 기재한 인공지능 AI의 3원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.


The three principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/745 )


인공지능 3원칙은 위 링크에 있고 내용은 다음과 같습니다.


인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.


Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.


인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.


Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.


인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.


Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.


인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.


( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재에 이어지는 내용들입니다)


(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)


#결론 #신뢰 #인공지능 #AI #면제 #책임 #인간 #부담 #검증 #학습 #진행 #세상 #홍보 #능력 #탁월 #완벽 #절차 #퇴보 #작동 #데이터 #트로이 #목마 #조합 #오류 #항변

keyword
이전 26화AI멈추면 세상 멈춘다(56)AI 의사와 인간 의사