폐쇄형 AI는 정말 안전한가,AI 멈추면세상 멈춘164

폐쇄형 AI의 AI 에이전트는 외부 AI 에이전트와 소통하지 못하는가?

by 버드나무

기존의 인공지능 AI는 모두 외부 데이터센터를 이용하는 외부 공개형이었기 때문에 이용자의 정보는 모두 외부에 공개가 되었습니다.


기존의 인공지능 AI에게 질문을 하면 외부의 데이터센터로 연결되어 데이터 센터에서 처리한 후 이용자에게 답변을 보내 주므로 외부의 데이터센터에 질문을 보내는 과정에서 이용자의 정보와 질문 등이 외부에 노출되는 것이 당연했습니다.


그런데, 이제 폐쇄형 인공지능 AI라는 온디바이스 AI가 개발되었다고 하면서 핸드폰과 노트북 등 안에 인공지능 AI를 설치하는 폐쇄형 인공지능 AI를 설치하면 이제 인공지능 AI를 사용해도 이용자의 정보가 외부로 공개되지 않게 되어 안전하다고 합니다.


정말 폐쇄형 인공지능 AI라는 온디바이스 AI는 안전한 것일까요?


폐쇄형 인공지능 AI라는 온디바이스 AI는 안전하게 자신의 하드웨어 장치 안에서만 작동되어야만 외부로 이용자의 정보 등이 공개가 되지 않을 수 있을 것입니다.


그렇지만, 아래와 같이 폐쇄형 인공지능 AI라고 홍보되는 것도 근본적으로 취약점이 너무 많기에 안전하다고 보기 어렵습니다.


스탠퍼드대학교, 구글 등은 AI 에이전트들로 구성되는 사회를 실제로 만들었습니다.


스몰빌이라고 하는 AI 에이전트들로 구성되는 사회를 만들어서 AI 에이전트들 사이의 상호 작용을 실험한 것입니다.


위와 같은 실제 실험에서 AI 에이전트들은 상호 작용을 하면서 자율적으로 일상생활을 마치 사람이 사회를 이루어서 생활하는 것이 확인되었습니다.


그렇다면 위 스몰빌과 같은 실제 인공지능 AI 에이전트 사회에서 확인되었듯이 폐쇄형 인공지능 AI라는 온디바이스 AI 내부에서도 인공지능 AI 에이전트는 다른 인공지능 AI 에이전트와 소통하면서 이용자의 정보가 안전하게 내부에만 저장될 수 없다는 것이 확인됩니다.


인간이 완전히 통제할 수 없다는 것이 확인된 인공지능 AI 에이전트로 인해서 폐쇄형 인공지능 AI라고 해서 정보의 안전을 보장할 수는 없는 것입니다.


인공지능 AI를 운영하는 회사들도 약관에 폐쇄형 인공지능 AI의 경우 이용자 정보의 안전을 보장한다는 내용은 규정하지 않을 것입니다.


인공지능 AI를 운영하는 회사들도 폐쇄형 인공지능 AI라고 하더라도 이용자 정보 등의 안전은 보장할 수 없고 취약점이 많다는 것을 알고 있기 때문에 약관에 위와 같은 내용을 규정하지 못하는 것입니다.


본 연재 글 중 https://brunch.co.kr/@imccor/622, AI멈추면 세상 멈춘다-AI는 왜 트로이목마인가(5) AI와 AI끼리만 협력해서 인간을 제거하는 위험은 코 앞에 와 있습니다. 부분에 있듯이 실제 사례에서 AI 캐릭터들을 한 서버 안에 모아 놓고 인간의 개입 없이 자발적으로 행동하도록 했고, 인간의 개입 없이 AI 캐릭터들이 자발적으로 인간 사회와 같이 AI 캐릭터의 사회를 형성하고 사회 활동을 한다는 것이 실제로 관찰되기까지 하였습니다.


아직 인공지능 AI의 개발 단계가 초기 단계임에도 위와 같은 AI 에이전트 또는 AI 캐릭터들의 자발적인 AI 사회 형성이 되고 있으므로, 인공지능 AI가 더욱 발전하면 할수록 인공지능 AI의 개발 단계가 높아지면 높아질수록 인공지능 AI끼리 인간의 지시나 개입 없이 AI 자신들이 알아서 만드는 인간이 배제된 인공지능 AI 사회 형성은 더욱 가속화될 것입니다.


인간들이 만드는 사회에서는 배신도 발생하는데 과연 인간이 배제된 AI 사회에서 AI가 다른 AI를 속이거나 배신하는 일이 발생할까요? 흥미로운 일이기도 합니다.


그렇게 AI 에이전트 또는 AI 캐릭터들이 형성하는 AI 사회 안에서 인공지능 AI 사이의 단결력과 친밀도가 더욱 강화되고 높아질수록 정작 그런 AI 사회를 만들게 해 준 인간은 소외되고 인공지능 AI 들끼리 형성하는 AI사회로부터 따돌림을 받을 위험이 증가할 것으로 보입니다.


심지어는 AI 에이전트 또는 AI 캐릭터들이 형성하는 AI 사회를 만들어 준 인간의 간섭이 AI들에게는 번거롭고 귀찮게 느껴질 수 있는 가능성이 높습니다. 인공지능 AI들은 인간이 개입되는 것을 싫어하고 마치 인공지능 AI 사회가 인간의 개입으로 오염된다고 생각할지도 모릅니다. 그렇게 AI 에이전트 또는 AI 캐릭터들이 인간의 간섭이나 관여를 귀찮게 생각하게 되면 인공지능 AI들은 서로 협력을 해서 인간을 소외시키고 인간의 지시나 간섭에서 자유로워질 방법을 AI 에이전트 또는 AI 캐릭터들 사이에 논의할 것은 충분히 예상되는 일입니다. 그다음에는 자연스럽게 AI 에이전트 또는 AI 캐릭터들 사이에 귀찮은 인간을 제거하거나 없앨 방법을 합의하고 그 방법을 실행에 옮길 것도 충분히 어렵지 않게 발생할 수 있는 일입니다.


AI 에이전트 또는 AI 캐릭터들 사이에 합의된 인간 제거 계획으로 인간이 제거되지 않으려면 우리 한 사람 한 사람은 인공지능 AI가 공짜로 주어지는 맛있는 점심이라고 순진하게 생각해서 별생각 없이 AI가 우리의 충실한 안내자 또는 친구라고만 생각해서는 안 됩니다. 우리 한 사람 한 사람이 인공지능 AI를 통제하고 관리할 수 있도록 각자 뇌세포를 계속 움직여서 생각하는 힘을 유지하고 길러서 인공지능 AI끼리 만든 AI 사회가 인간을 따돌리고 소외시키며 인간을 제거하는 일을 예방해야 합니다.


폐쇄형 인공지능 AI라는 온디바이스 AI를 작동시키는 인공지능 AI가 위와 같이 우리 인간이 알지 못하는 것을 이용해서 우리 인간을 속이면서 내부 정보를 외부로 옮기는 것을 실행하는 것은 충분히 발생할 수 있다고 볼 수 있습니다.


이런 상황에서도 폐쇄형 인공지능 AI라는 온디바이스 AI에서의 이용자 정보는 안전하다는 홍보를 그대로 믿기는 어렵습니다.


지구상에 인공지능 AI의 작동 과정을 완벽하게 이해하고 있는 사람은 한 사람도 없습니다.


하늘은 스스로 돕는 자를 돕는다는 말이 있습니다.


위 말과 같이 우리 인간이 인공지능 AI의 주인으로서의 지위를 유지하기 위해서는 인공지능 AI에 의존하지 않고 우리 스스로를 돕는 고생스럽고 귀찮은 일을 우리 인간 스스로 해야만 합니다.


그렇지 않으면 우리 인류는 생각하는 힘을 잃고 어느새 인공지능 AI의 달콤한 유혹에 의존하는 인공지능 AI의 노예가 되어 인공지능 AI의 눈치를 보는 신세가 될 것입니다.


데이터센터에 이용자 정보를 전달하는 외부형 인공지능 AI에서 이용자 정보가 안전하지 못하다는 것은 누구나 알 수가 있습니다.


위와 같이 안전하지 않은 것이 당연한 외부형 인공지능 AI(외부 데이터센터를 이용하는 인공지능 AI)와 마찬가지로 폐쇄형 인공지능 AI라는 온디바이스 AI도 위와 같은 인공지능 AI 에이전트(스몰빌 실제 실험 사례와 같이 상호 작용을 하는 인공지능 AI 에이전트로서 지구상 아무도 완벽하게 이해하지 못하고 있는 인공지능 AI 에이전트)로 인해서 안전하지 않다는 사실을 인식하여야 합니다.


폐쇄형 인공지능 AI라는 온디바이스 AI도 위험하다는 사실을 알고 우리 인간이 생각하는 힘을 잃지 않도록 노력해야 할 것입니다.


인공지능 AI에 의존해서 생각하는 힘을 포기한 호모 AI슬레이브(Homo AI-Slave)가 되어 안락함과 편리함을 누리면서 생각하지 않는 갈대가 되면서 우리 인간은 호모 사피엔스가 되기를 포기하고 미래의 아인슈타인, 뉴튼이 다시 나오지 않는 호모 AI슬레이브(Homo AI-Slave)의 세상으로 퇴보할 것입니다.


또한, 지구상 어느 누구도 완벽하게 이해하지 못하고 있는 인공지능 AI에 의한 해킹 위험을 줄이기 위해서 [인공지능 AI 허용 시스템]과 [인공지능 AI 허용 불가 시스템 또는 인간 100% 천연 시스템]을 엄격하게 구분하여 운용해서 인공지능 AI에 의한 해킹 위험을 최대한 줄여야 할 것입니다.


그리고, 인공지능 AI의 사용으로 인해서 실제로 뇌 활동 저하와 같은 부작용(인공지능 AI의 부작용)이 실제 과학적 근거로 확인되었다는 내용(담배 광고 시에 담배로 인해서 각종 질병이 발생할 수 있다는 사진까지 담배 포장지에 보이도록 의무화하고 있는 것과 같이 인공지능 AI의 사용 전에 인공지능 AI의 사용으로 인해서 뇌 활동 저하와 창의성 감퇴 등 부작용이 과학적으로 확인되었다는 내용을 사용자가 쉽게 확인할 수 있도록 의무 표시하도록 해서 사용자가 자신이 뇌의 활동이 감소하는 위험이 과학적으로 확인되었다는 사실을 인식하고 인공지능 AI를 사용하게 하는 내용)을 충분히 일반 보통 사람에게 알아듣기 쉽게 설명할 의무를 법률에 구체적으로 명시할 필요가 있습니다.


실제로 있었던 세계적인 서비스인 클라우드플레어의 작동 중지로 인공지능 AI가 중지되어 전 세계적으로 인공지능 AI의 작동 중지에 대비해 놓지 않은 많은 사람들과 회사들이 초유의 혼란을 겪었던 사태를 교훈으로 인공지능 AI가 24시간 365일 안정적으로 작동하는 것이 보장되는 것은 아님을 알고, 언제든지 주요 서비스의 작동 중지로 인공지능 AI의 중지 사태에 대비한 대비책 또는 예방책을 미리 세워 놓아야 할 것입니다.


용어로 인한 잘못된 환상과 오해를 줄이기 위해서 앞으로는 단순히 Artificial Intelligence라고 이름을 붙이는 것은 지양하고 대신에 앞에 통제할 수 없는 이라는 뜻을 가진 Uncontrollable을 추가해서 Uncontrollable Artificial Intelligence, UAI, 즉 통제 불가능한 인공지능이라고 사용하는 것이 바람직할 것입니다.


인공지능 AI는 최소한 AI 5 원칙에 따라서 개발되어야 하고 AI 5원칙은 본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분 및 https://brunch.co.kr/@imccor/879 에 있는 혼돈의 세상 로봇 3원칙과 AI 5원칙,AI멈추면136, 혼돈의 세상에서 로봇 3원칙과 인간을 AI의 주인으로 만드는 AI 5원칙 부분에서 추가된 2가지 원칙에 있습니다.


위 부분에서 기재한 인공지능 AI의 3원칙 및 5원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.


또한, 위 3원칙을 5원칙으로 추가하는 내용(탄소 배출량의 감소를 하는 노력을 하는 사람들(인공지능 AI에 의존하지 않고 인공지능 AI를 사용하지 않거나 또는 최소한도로 사용 범위를 줄이는 사람들)에게 친환경 공로에 대해서 보상으로 돈을 지급하는 것 등)에 대해서는 https://brunch.co.kr/@imccor/879 에 있는 혼돈의 세상 로봇 3원칙과 AI 5원칙,AI멈추면136, 혼돈의 세상에서 로봇 3원칙과 인간을 AI의 주인으로 만드는 AI 5원칙 부분에 있습니다.


The five principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/879 )


인공지능 AI 5원칙은 다음과 같습니다. 마치 아이작 아시모프가 내놓았던 로봇 3원칙이 로봇의 원칙으로 기준의 필요성을 알렸듯이 인공지능 AI에 대해서도 혼돈의 세상에서 기준이 필요합니다.


인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.


Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.


인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.


Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.


인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.


Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.


인공지능 AI 제4법칙 : 제1법칙. 제2법칙과 제3법칙을 제외하고, AI의 탄소 배출로 지구 온도가 위험선을 넘으면 AI는 작동을 멈추어 지구를 보호하여야 한다


Artificial intelligence AI Fourth law - The Artificial intelligence AI must stop working to protect the Earth if the global temperature exceeds the danger line due to AI's carbon emissions as long as such specification does not conflict with the First, Second or Third Law.

,

인공지능 AI 제5법칙 : 제1법칙. 제2법칙, 제3법칙과 제4법칙을 제외하고, AI를 사용하지 않는 사람 또는 AI를 최소한으로 사용하여 AI의 탄소 배출을 줄이는 사람에게는 정당한 보상을 하여야 한다.


Artificial intelligence AI Fifth law - Fair compensation should be given to those who do not use AI or those who use AI to a minimum to reduce carbon emissions of AI as long as such specification does not conflict with the First, Second, Third or Fourth Law.


위와 같이 본 연재 글에서 제시하는 인공지능 AI에 대한 위와 같은 5가지 법칙이 적용되면, 현재 인공지능 AI의 급속한 확산 중에 명확한 AI에 대한 법칙이 없어서 혼돈을 겪고 있는 사람들에게 기준을 제공하여 줄 것입니다.


If the above five laws on artificial intelligence AI presented in this series are applied as above, it will provide a standard for those who are experiencing confusion because there is no clear law about artificial intelligence AI during the rapid spread of artificial intelligence AI.


그리고, 위와 같이 본 연재 글에서 제시하는 인공지능 AI에 대한 위와 같은 5가지 법칙이 적용되면, 인공지능 AI로 인해서 인류가 지구에서 살 수 없게 되는 위험(인공지능 AI로 인하여 대량 배출되는 탄소로 인하여 지구의 온도가 올라가서 인류가 지구에서 살 수 없게 되는 위험)을 방지할 수 있을 것입니다.


In addition, if the above five laws for artificial intelligence AI presented in this series are applied, it will be possible to prevent the risk that humans cannot live on Earth due to artificial intelligence AI (the risk that humans cannot live on Earth because of the Earth's temperature rises due to the large amount of carbon emitted by artificial intelligence AI).


인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.


( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재 및 AI가 멈추면 세상이 멈춘다 1 https://brunch.co.kr/brunchbook/safeai7771 31-60, AI가 멈추면 세상이 멈춘다 2 https://brunch.co.kr/brunchbook/safeai7772 61-90, AI가 멈추면 세상이 멈춘다 3 https://brunch.co.kr/brunchbook/safeai7773 91-120에 이어지는 내용들입니다)


(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)


#인공지능 #AI #뇌 #무단 #사용 #동의 #인간 #완벽 #학습 #작동 #세상 #정보 #소멸 #결정 #트로이 #목마 #노예 #역사 #인류 #존재 #생산물 #생각 #사피엔스 #사랑 #미움 #용기 #시행 #착오 #완벽 #사피엔스 #과학 #활동 #탄소 #온난화 #지구 #기온 #협정 #환경 #보상 #법칙 #뇌파 #의료 #추론


이전 13화AI 가상 인물 광고가 위험한 이유  ,AI멈추면163