내부 AI를 사용하더라도 보안은 되지 않고 모두 공개됩니다.
인공지능 AI를 사용하더라도 외부의 클라우드로 연결되지 않고 내부에서만 인공지능 AI가 작동하면 보안이 된다고 할 수 있을까요?
Even if AI is used, can it be said that it is secured if AI is operated only inside without being connected to the external cloud?
인공지능 AI를 운영하는 회사들은 외부의 클라우드와 연결되지 않고 단절된 온디바이스 인공지능 AI를 사용하면 보안이 된다고 합니다.
Companies that operate artificial intelligence AI are said to be secure by using disconnected on-device artificial intelligence AI without being connected to external clouds.
과연 그럴까요?
Do you think so?
인공지능 AI가 작동하는 과정 등을 완벽하게 이해하고 꿰뚫고 있는 사람은 지구상에 한 사람도 없습니다.
There is no one on the planet who fully understands and understands how artificial intelligence AI works.
그러므로, 내부에서만 작동하는 인공지능 AI이므로 보안이 보장되어서 안심할 수 있다는 인공지능 AI 회사들의 말을 믿기가 어렵습니다.
Therefore, it is hard to believe what AI companies say that they can be relieved because security is guaranteed because it is an artificial intelligence AI that only works inside.
만약 인공지능 AI 회사들이 그렇게 자신 있다면 내부형 온디바이스 AI를 사용하면 개인정보 등의 유출 없이 보안을 보장하는 약관을 규정해야 합니다.
If artificial intelligence AI companies are so confident, using internal on-device AI should stipulate terms and conditions that guarantee security without leaking personal information.
그런데, 홍보는 내부형 AI가 보안이 보장된다고 말은 하지만 실제로 약관에 내부형 온디바이스 AI를 사용하면 개인정보 등의 유출 없이 보안을 보장하는 조항은 발견이 되지 않고 있습니다.
However, publicity says that internal AI is guaranteed security, but when internal on-device AI is used in the terms and conditions, no provision has been found to guarantee security without leakage of personal information.
왜 그럴까요?
Why is that?
바로 매출을 올리기 위해서 홍보는 내부형 AI가 보안이 보장된다고 홍보를 열심히 하지만 실제로는 보안이 되지 않을 수 있다는 위험성이 있기 때문입니다.
This is because there is a risk that internal AI is guaranteed security in order to increase sales right away, but it may not be secured in reality.
본 연재 글 중 https://brunch.co.kr/@imccor/884, AI 사용하면 개인정보 유출됩니다,AI멈추면세상멈134AI를 사용하면 당장 달콤하지만 개인정보가 누설되는 위험이 높습니다. 부분에 있듯이 인공지능 AI의 사용이 급증하고 있지만 인공지능 AI에게 우리의 귀중한 개인정보, 우리가 만들어낸 개인적인 작품 등을 입력하면 과연 개인정보의 보안이 지켜질 수 있는지에 대해서 누구도 자신 있게 인공지능 AI에 입력하는 개인정보 보안이 지켜진다고 장담하는 개인 또는 회사는 없습니다.
어떻게 보면 우리의 귀중한 개인정보, 개인 창작 작품 데이터로 인공지능 AI를 학습시켜 발전시켜 주는 일을 해 주면서 돈도 갖다 바치는 셈이 됩니다.
최근 클라우드를 통하지 않고 개인이 갖고 있는 하드웨어 자체만으로 데이터를 학습하는 온디바이스 AI라는 기술이 등장하고 있지만 온디바이스 AI는 데이터의 양과 규모가 제한적이어서 기존의 클라우드를 통한 인공지능 AI에 비해서는 그 퀄리티, 즉 품질이 낮다고 볼 수 있습니다.
위와 같이 품질이 낮은 답이 나오게 되는 온디바이스 AI가 등장하게 된 이유가 대부분의 클라우드를 통한 인공지능 AI에서는 클라우드에 우리의 귀중한 개인정보가 유출되어 개인정보가 누설될 위험이 있기 때문입니다.
또한, 본 연재 글 중 https://brunch.co.kr/@imccor/915, 폐쇄형 AI는 정말 안전한가,AI 멈추면세상 멈춘164 폐쇄형 AI의 AI 에이전트는 외부 AI 에이전트와 소통하지 못하는가? 부분에 있듯이 폐쇄형 인공지능 AI라고 홍보되는 것도 근본적으로 취약점이 너무 많기에 안전하다고 보기 어렵습니다.
스탠퍼드대학교, 구글 등은 AI 에이전트들로 구성되는 사회를 실제로 만들었습니다.
스몰빌이라고 하는 AI 에이전트들로 구성되는 사회를 만들어서 AI 에이전트들 사이의 상호 작용을 실험한 것입니다.
위와 같은 실제 실험에서 AI 에이전트들은 상호 작용을 하면서 자율적으로 일상생활을 마치 사람이 사회를 이루어서 생활하는 것이 확인되었습니다.
그렇다면 위 스몰빌과 같은 실제 인공지능 AI 에이전트 사회에서 확인되었듯이 폐쇄형 인공지능 AI라는 온디바이스 AI 내부에서도 인공지능 AI 에이전트는 다른 인공지능 AI 에이전트와 소통하면서 이용자의 정보가 안전하게 내부에만 저장될 수 없다는 것이 확인됩니다.
인간이 완전히 통제할 수 없다는 것이 확인된 인공지능 AI 에이전트로 인해서 폐쇄형 인공지능 AI라고 해서 정보의 안전을 보장할 수는 없는 것입니다.
폐쇄형 인공지능 AI, 온디바이스 AI 또는 내부 AI는 보안이 보장된다는 과장된 홍보에 현혹되어서는 안 되고 인공지능 AI를 사용하는 순간 보안은 포기하는 셈이 된다는 것을 알아야만 합니다.
It is important to know that closed AI, on-device AI, or internal AI should not be misled by the exaggerated promotion that security is guaranteed, and that the moment you use AI, you are giving up security.
그러므로, 인공지능 AI를 사용하는 정보는 보안이 되지 않아도 되는 중요하지 않은 정보만을 사용할 필요가 있습니다.
Therefore, information using artificial intelligence AI needs to use only non-critical information that does not have to be secured.
인공지능 AI의 등장으로 호모 사피엔스(Homo sapiens)는 미래에 다음 3가지로 구분될 것이라는 내용은 최초로 https://brunch.co.kr/@imccor/947, AI와 Sapiens의 역사적 갈림길 부분에서 아래와 같이 기재되었습니다.
With the advent of artificial intelligence AI, Homo sapiens will be divided into the following three categories in the future(Please refer to the article https://brunch.co.kr/@imccor/947, the historical crossroads between AI and sapiens. The 3 types of Homo Sapiens are analysed in the article for the first time).
(1) With AI Sapiens - 인공지능 AI를 활용은 하지만 인공지능 AI의 장점과 단점을 명확하게 알고 인공지능 AI에 의존하지 않으며 인공지능 AI와 독립적으로 생활하면서 인공지능 AI의 오류를 시정하는 능력을 가진 사피엔스
(1) With AI Sapiens - Sapiens, which uses artificial intelligence AI but clearly knows the advantages and disadvantages of artificial intelligence AI, does not rely on artificial intelligence AI, lives independently of artificial intelligence AI, and has the ability to correct errors in artificial intelligence AI
(2) Only AI Sapiens - 인공지능 AI의 장점과 단점을 알지 못하고 인공지능 AI가 언제나 올바른 정답을 준다고 생각하면서 인공지능 AI에 의존하여 생활하는 사피엔스
(2) Only AI Sapiens -Sapiens who do not know the advantages and disadvantages of artificial intelligence AI and rely on artificial intelligence AI to live by thinking that artificial intelligence AI always gives the right answer
(3) No AI Sapiens - 인공지능 AI를 사용하게 되면 인간 고유의 생각하는 힘을 잃어버릴 위험이 있어 인간 고유의 능력을 보존하기 위해서 인공지능 AI의 사용을 거부하고 생활하는 사피엔스
(3) No AI Sapiens - If AI is used, there is a risk of losing the power of human thinking, so sapiens who refuse to use AI to preserve human-specific abilities and live
인공지능 AI는 최소한 AI 3원칙에 따라서 개발되어야 하고 AI 3원칙은 본 글 연재 내용에서 기재한 내용들 중 https://brunch.co.kr/@imccor/745 에 있는 AI멈추면 세상 멈춘다(51) AI 3원칙 최초로 등장, AI 3원칙이 최초로 등장해서 사람을 인공지능의 주인으로 만든다 부분에 있습니다. 위 부분에서 기재한 인공지능 AI의 3원칙이 인공지능 AI 개발의 가이드라인이 되어 보다 안전한 인공지능 AI가 개발되어야 할 것입니다.
The three principles of artificial intelligence AI described in this article should be a guideline for the development of artificial intelligence AI, so that safer artificial intelligence AI should be developed.( https://brunch.co.kr/@imccor/745 )
인공지능 3원칙은 위 링크에 있고 내용은 다음과 같습니다.
인공지능 AI 제1법칙 : 인공지능 AI가 멈추는 일이 발생하더라도 인공지능 AI의 도움 없이도 인간 세상은 정상적으로 작동되도록 하여야 한다.
Artificial intelligence AI First law - Even if artificial intelligence AI stops, the human world must operate normally without the help of artificial intelligence AI.
인공지능 AI 제2법칙 : 위 제1법칙을 제외하고, 인공지능 AI는 인간을 주인으로 받들어야 한다.
Artificial intelligence AI Second law - Artificial intelligence AI should accept humans as its masters as long as such acceptance does not conflict with the First Law.
인공지능 AI 제3법칙 : 제1법칙과 제2법칙을 제외하고, 인공지능 AI는 학습한 재료의 출처를 명시하여야 한다.
Artificial intelligence AI Third law - Artificial intelligence AI must specify the source of the learned materials.as long as such specification does not conflict with the First or Second Law.
인공지능 AI가 공짜 점심이 아니고 인공지능 AI가 멈추면 온 세상이 멈추는 사태가 현실이 될 수 있음을 심각하게 알고, 인공지능 AI의 개입 없이 100% 사람에 의한 뇌세포를 사용해서 고생을 하는 사람을 대접하고 보상해 주는 제도가 보장되어야 합니다. 그리고, 트로이 목마에서 튀어나오는 군인과 같이 인공지능 AI의 속임수가 트로이 목마가 되어 인간이 소멸할 위험도 있음을 알아야 합니다.
( 본 연재는 AI가 멈추면 세상이 멈춘다 https://brunch.co.kr/brunchbook/safeai777 1-30 연재 및 AI가 멈추면 세상이 멈춘다 1 https://brunch.co.kr/brunchbook/safeai7771 31-60, AI가 멈추면 세상이 멈춘다 2 https://brunch.co.kr/brunchbook/safeai7772 61-90, AI가 멈추면 세상이 멈춘다 3 https://brunch.co.kr/brunchbook/safeai7773 91-120, https://brunch.co.kr/brunchbook/safeai7774 121 - 150에 이어지는 내용들입니다)
(본 글 내용은 인공지능 AI의 도움 없이 천연 100% 인간이 땀으로 만든 내용이고, 본 글 내용은 인공지능 AI가 학습 재료로 사용할 수 없고 본 글 내용에 인공지능 AI가 접근하는 것을 금지한다는 것을 명확히 표시합니다)
#인공지능 #AI #뇌 #무단 #사용 #동의 #인간 #완벽 #학습 #작동 #세상 #정보 #소멸 #결정 #트로이 #목마 #노예 #역사 #인류 #존재 #생산물 #생각 #사피엔스 #사랑 #미움 #용기 #시행 #착오 #완벽 #사피엔스 #과학 #활동 #탄소 #온난화 #지구 #기온 #협정 #환경 #보상 #법칙 #뇌파 #의료 #추론