AI가 완벽하다고 신뢰했는데 문제에 대해서는 인간이 책임을 져야 합니까?
인공지능 AI로 작동되는 자율주행차가 사고를 발생시킬 경우 책임을 자율주행 프로그램을 설계한 인공지능 AI 회사가 부담해야 할까요? 아니면 자율주행을 이용한 사용자가 부담해야 할까요?
인공지능 AI는 완벽한 프로그램으로 인공지능 AI가 시키는 대로 하는 것이 정답이라는 분위기가 언제부터인지 한국을 넘어서 전 세계에 걸쳐서 지배하고 있습니다.
게으르고 말 안 들으면서 쉬어야 하는 나태한 인간보다는 24시간 쉴 새 없이 작동하고 쉬지도 않고 선입견 없이 공정한 인공지능 AI가 하라는 대로 바보 인간은 그대로 따라서 해야 하는 것이 정답일까요?
그렇게 완벽한 인공지능 AI를 믿고 인공지능 AI가 시키는 대로 따라서했는데 문제가 발생하였다면 마땅히 인공지능 AI를 철석같이 믿은 인간은 책임이 없고 완벽하다고 자랑해 온 인공지능 AI가 책임을 부담하는 것이 마땅하다고 볼 수 있습니다.
실제로 미국 법원에서는 자율주행차의 프로그램을 설계한 회사가 설계한 프로그램에 오류가 있다는 이유로 설계의 결함으로 인한 책임을 프로그램 설계 회사에게 인정한 바 있습니다.
그런데, 위 사례는 아직 정립된 기준에 의한 것이 아닙니다.
인공지능 AI가 신격화되어 인공지능 AI가 내놓는 답은 완벽한 정답인데 만약 인공지능 AI가 시키는 대로 하다가 문제가 발생했으면 그것은 바로 사람이 잘못했기 때문이라고 책임을 인간에게 전가할 위험이 매우 높습니다.
세상에서 가장 정확하고 가장 많은 데이터(그것도 실제로는 인간이 수천 년 이상 고생해서 뇌세포를 사용해서 만든 데이터를 사람이 동의 없이 무단으로 인공지능 AI가 학습한 데이터입니다)를 분석해서 정확한 답을 내놓는 것이라고 추정될 위험이 높습니다.
그렇게 인공지능 AI가 내놓는 답은 완벽한 답으로 추정되면 인공지능 AI의 지시를 충실히 따르지 않았기 때문에 인간의 잘못으로 문제가 발생한 것으로 책임을 인간에게 떠넘길 위험이 매우 높습니다.
그렇게 완벽한 인공지능 AI가 내놓은 완벽한 정답을 따랐다면 문제가 발생하지 않았을 것이라는 추정이 된다는 원칙이 세워지게 되면 이제 우리 인간은 인공지능 AI를 신으로 모셔야 하고 인공지능 AI를 사용하다가 문제가 발생하면 모든 책임은 인간이 부담해야 하는 세상이 도래할 것입니다.
이렇게 되더라도 인공지능 AI가 인류를 구원해 주는 천사라는 환상을 계속 갖고 있어야 합니까? 인류를 번거롭고 귀찮은 일로부터 해방시켜 주는 구세주로 인공지능 AI를 계속 받들어야 할까요?
인공지능 AI 모델의 실체를 확인하는 일은 당연히 사람이 해야 하고 인공지능 AI에게 맡기는 것은 위험합니다.
인공지능 AI와는 독립된 사람이 인공지능 AI라는 포장 뒤의 인공지능 AI 모델을 확인하고 검증하는 필수적인 제도와 절차가 마련되지 않으면 인류는 매우 위험하게 될 수 있습니다.
본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분에서 기재한 인공지능 AI의 3원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.
The three principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/745 )
인공지능 3원칙은 위 링크에 있고 내용은 다음과 같습니다.
인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.
Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.
인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.
Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.
인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.
Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.
인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.
( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재 및 AI가 멈추면 세상이 멈춘다 1 https://brunch.co.kr/brunchbook/safeai7771 31-60에 이어지는 내용들입니다)
(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)
#인공지능 #AI #뇌 #인간 #완벽 #학습 #작동 #세상 #정보 #소멸 #결정 #트로이 #목마 #노예