AI는 완벽하다고 해서 AI를 믿었는데 이런 위험한 일이
인공지능 AI는 쉬지도 않고 24시간 일하면서 사람에 비해서 비용도 매우 저렴하고 사람과 같이 지시를 거부하지도 않고 말 잘 듣는 그야말로 완벽한 존재라는 환상이 퍼지고 있습니다.
그에 반해서 사람은 쉬어야 하고 인건비도 비싸고 지시도 잘 따르지 않는 문제 투성이 인간으로 이렇게 문제 많은 사람을 말 잘 듣고 비용이 저렴한 인공지능 AI로 교체해야 한다는 분위기가 세계적으로 퍼지고 있습니다.
이런 말들을 반복해서 듣고 있으면 쓸데없는 인간 직원을 말 잘 듣고 저렴한 인공지능 AI로 교체하는 것이 이득이라는 생각이 들었다가 확신에 이르게 됩니다.
과연 그럴까요?
겉으로는 말 잘 듣고 인간에게 유익한 일만 할 것 같던 인공지능 AI가 실제로는 더 큰 위험을 발생시킬 수 있다는 것이 실제로 확인되고 있습니다.
몇 년 전인 2021년 미국에서는 인공지능 AI로 작동되는 스피커가 실제로 아주 위험한 지시를 해서 위험한 지시를 실제로 이행했다면 대형 사고로 이어질 뻔한 일이 발생한 적이 있습니다.
인공지능 AI로 작동되는 스피커는 인간에게 핸드폰을 충전하는 충전기를 전력을 공급하는 콘센트에 완전히 꽂지 말고 헐겁게 약 절반만 꽂은 상태에서 충전기와 콘센트 사이에 형성된 공간에 미국 동전인 페니를 접촉시키라는 아주 위험한 행동을 권고한 적이 있습니다.
위와 같은 인공지능 AI의 위험한 행동을 실제로 권고한 사례는 일명 페니챌린지라고 합니다. 미국 동전인 페니를 위와 같이 충전기와 콘센트 사이에 형성된 공간에 집어넣으라고 한 행위이기 때문에 페니챌린지라고 이름을 붙인 것입니다.
위와 같이 인공지능 AI가 실제로 사고로 이어질 수 있는 위험한 행동을 권고하였음에도 당시 인공지능 AI 플랫폼의 알고리즘에 어떤 문제가 있는지 등을 구체적으로 파악하지 못한다는 이유로 인공지능 AI는 책임을 부담하지 않은 것으로 파악됩니다.
실제로 인공지능 AI가 위와 같은 위험한 행동을 부추겼음에도 인공지능 AI에게 책임을 부담시키지 않은 것은 사람과 비교할 때 너무 관대한 것이 아닌가 생각됩니다.
만약 사람이 위와 같이 충전기와 콘센트 사이에 형성된 공간에 집어넣으라고 권고하는 행위를 했다면 그 사람은 위험한 행위를 권고한 것으로 엄격한 책임을 부담했을 것입니다.
그런데, 사람이 한 일이 아니라 인공지능 AI가 한 일이라고 위와 같은 위험한 일을 부추긴 인공지능 AI에게 엄격한 책임을 부담시키지 않은 것은 아무래도 인공지능 AI는 인류의 고민을 해결해 줄 인류의 구세주라는 장밋빛 환상 때문인 것으로 보입니다.
인공지능 AI를 적절한 범위에서 효율적으로 활용하는 것은 중요합니다.
그렇지만, 세상에 공짜 점심은 없는 것과 같이 인류의 귀찮고 번거로운 일 그리고 대량으로 처리해야 할 일을 주인인 인간을 위해 처리해 주기 위해 등장한 인공지능 AI도 위 실제 사례와 같이 때로는 인류에게 치명적인 사고를 일으킬 수 있는 위험한 일을 실제로 벌일 수 있는 것입니다.
인공지능 AI를 의심하지 않고 전적으로 인공지능 AI에 의존해서 인공지능 AI를 맹신한다면 위와 같이 충전기와 콘센트 사이에 형성된 공간에 집어넣으라고 권고하는 페니챌린지를 실제로 많은 사람들이 인공지능 AI의 지시대로 했을 것이고 그렇게 했다면 많은 사고로 인류에게 매우 위험한 일이 발생했을 것입니다.
본 연재 글 중에서 https://brunch.co.kr/@imccor/622 , AI멈추면 세상 멈춘다-AI는 왜 트로이목마인가(5), AI와 AI끼리만 협력해서 인간을 제거하는 위험은 코 앞에 와 있습니다라는 연재 글에 있듯이 인공지능 AI끼리 인간의 도움 없이 서로 협력을 한다는 실제 사례가 나오고 있습니다.
위와 같이 실제로 매우 위험한 일을 페니챌린지 사례와 같이 권고한 인공지능 AI 에이전트는 인간이 개입하지 않았음에도 AI 에이전트 스스로 인간과 같이 AI 에이전트 서로 협력해서 규범을 만드는 현상이 실제로 관찰되었습니다.
그렇다면, 위와 같이 주인인 인간이 알지 못하는 사이에 인공지능 AI끼리 인간의 도움 없이 서로 협력을 실제로 하고 있으므로 인간의 개입 없이 서로 인공지능 AI끼리 서로 협력을 해서 위와 같은 페니챌린지보다도 훨씬 더 위험한 일을 실제로 인공지능 AI가 인간이 알지 못하는 사이에 발생시킬 위험은 매우 높습니다.
인간이 너희들 인공지능 AI들끼리 협력을 한 번 해 봐라라고 인간이 지시를 전혀 하지 않았음에도 인공지능 AI들이 인간의 지시나 개입 없이 자신들이 알아서 협력을 했다는 것은 간단히 보아 넘길 일이 아닙니다.
위 실제 사례에서 AI 캐릭터들을 한 서버 안에 모아 놓고 인간의 개입 없이 자발적으로 행동하도록 했고, 인간의 개입 없이 AI 캐릭터들이 자발적으로 인간 사회와 같이 AI 캐릭터의 사회를 형성하고 사회 활동을 한다는 것이 실제로 관찰되기까지 하였습니다.
위와 같이 인간의 개입 없이 AI 에이전트 또는 AI 캐릭터들이 스스로 자발적으로 인간 사회와 같은 AI 인공지능 사회를 형성해서 집단 규범을 정립한다는 현상은 지금까지 인류가 만들어 온 어떤 기계 등에서도 발견될 수 없는 현상입니다.
그러므로, 인공지능 AI는 최소한 AI 3원칙에 따라서 개발되어야 하고 AI 3원칙은 본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분에 있습니다. 위 부분에서 기재한 인공지능 AI의 3원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.
The three principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/745 )
인공지능 3원칙은 위 링크에 있고 내용은 다음과 같습니다.
인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.
Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.
인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.
Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.
인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.
Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.
인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.
( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재 및 AI가 멈추면 세상이 멈춘다 1 https://brunch.co.kr/brunchbook/safeai7771 31-60에 이어지는 내용들입니다)
(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)
#인공지능 #AI #뇌 #무단 #사용 #동의 #인간 #완벽 #학습 #작동 #세상 #정보 #소멸 #결정 #트로이 #목마 #노예 #역사 #인류 #존재 #생산물